Seguici!

Seguici!

Contenuti esclusivi

MidSummer School 2025: Intelligenza artificiale e gemello digitale al servizio di medici e pazienti

Alla quarta edizione della MidSummer School di Motore Sanità,...

La Stroke Unit dell’Azienda Moscati di Avellino sul podio d’Europa

Premio Diamante per l’eccellenza nella gestione tempestiva dell’ictus ischemico. La...

In che misura i Large Language Models possono influenzare le capacità cognitive dell’umano?

Lucio Romano*

Gentile direttore,
in che misura i Large Language Models (LLMs) possono influenzare le capacità cognitive dell’umano? Ovvero, possono compromettere lo sviluppo del pensiero critico e autonomo nell’umano? Sono interrogativi sostanziali sempre più pressanti che ci inducono ad ampliare le riflessioni, a fronte di quelle classiche inerenti all’equiparazione tra intelligenza artificiale (IA) e naturale. Oppure al superamento, rispetto a quella naturale, da parte dell’IA debole o ristretta (Artificial Narrow Intelligence – ANI) già realizzato in diversi ambiti o in prospettiva dell’IA generale (Artificial General Intelligence – AGI) o della c.d. IA sovrumana (Artificial Super Intelligence – ASI) “oltre il limiti della nostra intelligenza”, richiamando Nello Cristianini.

In questi giorni è stato pubblicato in preprint, a cura del Media Lab-Massachusetts Institute of Technology (MIT) di Boston, una ricerca sperimentale dal titolo “Il tuo cervello su ChatGPT: accumulazione di debito cognitivo nell’usare un assistente di IA per compito di scrittura di un saggio” (Your brain on ChatGPT: accumulation of cognitive debt when using an AI assistant for essay writing task). La ricerca – che sta riscuotendo un ampio interesse nella comunità scientifica, sui principali media e non solo – è stata sviluppata con la partecipazione di informatici, neuroscienziati e studiosi del linguaggio. Possiamo dire a buona ragione che lo studio in oggetto ha lanciato un’alert.
La sperimentazione è stata effettuata su un campione di volontari suddivisi in tre gruppi, incaricati di scrivere testi brevi. Un primo Gruppo (Brain Only, Solo Cervello) poteva scrivere solo sulla base delle proprie risorse mentali senza alcun supporto digitale. Un secondo Gruppo (Search engine, Gruppo con Ricerca) poteva accedere a motore di ricerca. Il terzo Gruppo (LLM OpenAI’s ChatGPT, Gruppo LLM) poteva fare ricorso a sistema di IA generativa. Sono state così realizzate tre sessioni di prove, ognuna per singolo Gruppo di appartenenza.
In altra sessione, invece, è stato chiesto al Gruppo LLM OpenAI’s ChatGPT di elaborare un testo senza alcun aiuto (LLM-to-Brain Only) e ai partecipanti al Gruppo Brain Only di usare LLM OpenAI’s ChatGPT (Brain-to-LLM). Anche in questa sessione, come nelle precedenti, si è fatto ricorso a elettroencefalogramma (EEG) per registrare l’attività cerebrale dei partecipanti e valutare il coinvolgimento cognitivo e il carico mentale. Vale a dire ottenere una comprensione più approfondita delle attivazioni neurali durante la scrittura. In tutte le sessioni, sono state eseguite anche analisi di elaborazione del linguaggio naturale (Natural Language Processing, NLP) e i testi analizzati con l’aiuto di insegnanti umani nonché sulla base di giudizio basato su agente artificiale (IA). Ogni partecipante è stato intervistato dopo ciascuna sessione.
Ebbene, quali sono stati i risultati?
Sono state fornite prove solide che i Gruppi Brain Only (Solo Cervello), Search Engine (Motore di Ricerca) e LLM (IA generativa) presentavano schemi di connettività neurale significativamente differenti, riflettendo strategie cognitive divergenti. Nel Brain Only si è rilevata un’attivazione delle aree del cervello connesse all’ideazione creativa e integrazione dei significati tra loro. Nel Gruppo Search Engine si è riscontrato il maggiore coinvolgimento della corteccia occipitale coinvolta nella visione. Comunque, la connettività cerebrale diminuiva sistematicamente all’aumentare del supporto esterno: il Gruppo Solo Cervello mostrava le reti neurali più forti e ampie, il Gruppo Motore di Ricerca un coinvolgimento intermedio, mentre l’assistenza tramite LLM rilevava la connettività più debole con attivazione soprattutto delle aree per funzioni pressoché automatiche. In particolare, chi aveva elaborato il testo con LLM evidenziava (83% dei casi) difficoltà nel richiamare frasi dai propri stessi testi già dopo averli ultimati, causata dalla raccolta passiva di informazioni generate all’esterno con “mancata assimilazione di concetti”. Più forte, invece, la padronanza del testo nel Gruppo Motore di Ricerca ma comunque inferiore rispetto al Gruppo Solo Cervello che dimostrava una particolare capacità nel riferire i contenuti dei testi elaborati. In sintesi, i partecipanti al Gruppo LLM hanno ottenuto risultati inferiori rispetto ai loro pari del Gruppo Solo Cervello su tutti i livelli: neurale, linguistico e valutativo.
Che cosa si è evidenziato, poi, nella quarta sessione? Quella in cui è stato chiesto al Gruppo LLM di elaborare un testo senza alcun aiuto (LLM-to-Brain) e ai partecipanti al Gruppo Brain Only di usare un LLM (Brain-to-LLM)? Dai risultati riportati nella ricerca, i partecipanti LLM-to-Brain mostravano una connettività neurale ridotta e un basso coinvolgimento delle reti alfa e beta; al contrario, i partecipanti Brain-to-LLM dimostravano una maggiore capacità di richiamo mnemonico e un potenziamento delle capacità già acquisite in autonomia.
Si evincono diverse considerazioni. Lo sviluppo e l’utilizzo sempre più diffuso e capillare dei sistemi di IA generativa solleva interrogativi critici sulla qualità e la sostenibilità dei processi di apprendimento. Sebbene questi strumenti offrano un accesso immediato e semplificato a innumerevoli informazioni con elaborazione di testi, i dati che emergono indicano un impatto tutt’altro che neutro sull’impegno cognitivo e sull’efficacia dell’apprendimento. Con un vero e proprio accumulo di “debito cognitivo”, secondo i ricercatori del MIT. I partecipanti che hanno fatto uso di LLM per la scrittura dei testi hanno ottenuto punteggi inferiori in tutte le metriche considerate. Con analisi neurofisiologica basata su EEG che ha mostrato una riduzione significativa della connettività cerebrale nelle aree coinvolte nella pianificazione, nella memoria di lavoro e nell’elaborazione linguistica, rispetto a chi ha affrontato il compito senza supporti esterni.
Il confronto con il Gruppo Solo Cervello, che ha affrontato la scrittura dei saggi senza alcun supporto digitale, è stato significativo. I componenti di questo Gruppo hanno dimostrato un livello di attivazione cerebrale più elevato e diffuso, una maggiore coerenza argomentativa e un senso di proprietà molto più forte nei confronti del proprio lavoro. Anche il Gruppo che ha utilizzato Motore di Ricerca ha mantenuto un certo grado di coinvolgimento cognitivo, benché intermedio, segnalando così che il tipo di supporto esterno impiegato gioca un ruolo cruciale nell’attivazione delle risorse mentali.
La ricerca così conclude: “Sebbene gli LLM offrano vantaggi evidenti in termini di accesso rapido alle informazioni, questi strumenti possono compromettere lo sviluppo del pensiero critico e dell’indipendenza intellettuale, riducendo la tendenza degli utenti a valutare criticamente le risposte fornite. Inoltre, l’effetto “eco” viene amplificato da algoritmi che selezionano i contenuti secondo logiche aziendali. Riteniamo necessari studi longitudinali per comprendere l’impatto a lungo termine degli LLM sul cervello umano, prima che tali strumenti possano essere considerati, nel complesso, un elemento positivo per l’essere umano”.
L’alert lanciato è forte. I LLMs hanno un impatto non trascurabile sulle capacità cognitive. Da cui la necessità di non accantonare una educazione volta alla formazione del pensiero critico. Altrimenti si rischia di trasformarli in un impedimento allo sviluppo consapevole e responsabile dell’autonomia personale. La velocità con cui adottiamo sistemi di IA generativa, delegando sempre più capacità cognitive e predittive, rende urgente una riflessione profonda su modalità di utilizzo e conseguenze. Con una sottolineatura. Non si tratta certo di demonizzare la tecnologia attribuendogli un carico di responsabilità negative ma di comprendere in che modo rischiamo di lasciarci dominare tramite una passiva e sempre più totalizzante delega cognitiva. “La colonizzazione del digitale”, per dirlo con il sociologo e antropologo David Le Breton. La risposta può essere individuata nella consapevolezza che prevede la conoscenza e nella cooperazione che promuove il bilanciamento tra dimensione umana e dimensione artificiale, evitando reciproche esclusioni e favorendo atteggiamenti di fiducia e cautela. Nella visione umanocentrica (human in the loop) e nella responsabilità comunitaria (community responsibility in the loop).
È forse un’utopia ricorrere con intelligenza all’IA? La ricerca del MIT ci allerta a favore di una coniugazione necessaria. Nell’usare la nostra intelligenza. Perché, come richiama acutamente Luigi Ripamonti riportando un famoso adagio anglosassone: “use it or loose it”. Vale a dire: se non la usi, la perdi.

Lucio Romano*
Centro Interuniversitario di Ricerca Bioetica già componente Comitato Nazionale per la Bioetica

Seguici!

Ultimi articoli

MidSummer School 2025: Intelligenza artificiale e gemello digitale al servizio di medici e pazienti

Alla quarta edizione della MidSummer School di Motore Sanità,...

La Stroke Unit dell’Azienda Moscati di Avellino sul podio d’Europa

Premio Diamante per l’eccellenza nella gestione tempestiva dell’ictus ischemico. La...

Cancro, la svolta è ora: a Milano si scrive il futuro dell’oncologia con il paziente al centro

Robot, AI e medicina personalizzata al centro del confronto...

Newsletter

Registrati e ottieni le nostre rassegne stampa in esclusiva!

spot_img

Da non perdere

MidSummer School 2025: Intelligenza artificiale e gemello digitale al servizio di medici e pazienti

Alla quarta edizione della MidSummer School di Motore Sanità,...

La Stroke Unit dell’Azienda Moscati di Avellino sul podio d’Europa

Premio Diamante per l’eccellenza nella gestione tempestiva dell’ictus ischemico. La...

Cancro, la svolta è ora: a Milano si scrive il futuro dell’oncologia con il paziente al centro

Robot, AI e medicina personalizzata al centro del confronto...
spot_imgspot_img

MidSummer School 2025: Intelligenza artificiale e gemello digitale al servizio di medici e pazienti

Alla quarta edizione della MidSummer School di Motore Sanità, durante il Workshop sul ‘Digital Twin Umano‘’, organizzato dal Centro Diagnostico Italiano (CDI) – Gruppo...

Cybersicurity, sistema informativo ospedaliero: Asl Salerno sull’infrastruttura del Polo strategico nazionale

Asl Salerno prima in Campaniia: in linea con i principi della strategia Cloud Italia, elaborata dal dipartimento per la Trasformazione digitale, e dei regolamenti...

La Stroke Unit dell’Azienda Moscati di Avellino sul podio d’Europa

Premio Diamante per l’eccellenza nella gestione tempestiva dell’ictus ischemico. La Stroke Unit dell’Azienda ospedaliera San Giuseppe Moscati di Avellino inizia il 2025 confermandosi centro “Diamond”...

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui