Un team di specialisti in bioetica e IA avvisa sui possibili rischi e invita a una valutazione più approfondita
Negli Stati Uniti, l’accesso ai servizi di salute mentale si rivela complesso a causa dei costi, dei tempi d’attesa e della carenza di specialisti. Per tentare di superare queste difficoltà, nell’ultimo decennio si è affermata una nuova generazione di strumenti digitali basati sull’intelligenza artificiale (IA), come app e chatbot, che offrono supporto psicologico h24, riducendo la necessità di incontri in presenza. Tuttavia, un tema cruciale riguarda l’estensione di queste soluzioni ai bambini, il cui sviluppo emotivo e cognitivo richiede attenzioni specifiche.
Un gruppo di esperti in bioetica, salute pubblica e intelligenza artificiale, tra cui la professoressa Bryanna Moore, PhD, docente presso il dipartimento di Health Humanities and Bioethics dell’University of Rochester Medical Center, ha pubblicato considerazioni su questo argomento nel Journal of Pediatrics. L’obiettivo è richiamare l’attenzione sulla necessità di valutare attentamente l’utilizzo di modelli di linguaggio AI (chatbot) quando si tratta di bambini e adolescenti alle prese con disturbi psicologici.
Secondo Moore, gli strumenti di IA in ambito psicologico pediatrico richiedono una discussione più approfondita rispetto a quanto accade con gli adulti. Il processo di crescita cognitiva e relazionale in età evolutiva introduce variabili che non si possono semplicemente equiparare a quelle dei pazienti adulti. Mettere nelle mani di un bambino un’interfaccia algoritmica, capace di suggerire risposte a domande complesse sulla salute mentale, necessita di un inquadramento etico e clinico molto specifico.
Gli studi in ambito psicologico mostrano che i più piccoli tendono ad attribuire caratteristiche “umane” ai robot e ai sistemi di IA, come se fossero dotati di intenzioni o qualità morali. In questo contesto, un chatbot potrebbe assumere un ruolo percepito come “amico” o “consigliere”, sostituendo parzialmente gli scambi umani. Tale dinamica può sollevare interrogativi sullo sviluppo sociale ed emotivo, soprattutto se il bambino trascorre più tempo a confrontarsi con un avatar digitale piuttosto che con figure reali.
Un ulteriore problema riguarda la complessità dell’ambiente familiare. I professionisti della salute mentale infantile valutano non soltanto le condizioni del bambino, ma anche le relazioni con genitori e fratelli, la qualità della vita domestica e altri fattori di contesto. Un’app di IA non dispone degli strumenti per comprendere queste sfaccettature. Nel caso di emergenze, come la presenza di abusi o situazioni di trascuratezza, il chatbot risulterebbe inadatto a intervenire o ad allertare i servizi sociali nel modo previsto dai protocolli.
Un ulteriore punto evidenziato da Jonathan Herington, PhD, docente di filosofia e bioetica, riguarda la qualità dei dati utilizzati per addestrare i modelli di IA. Se questi set di dati non riflettono in modo adeguato la diversità di origini culturali, condizioni economiche e contesti familiari, i risultati potrebbero escludere proprio i bambini più vulnerabili. La differenza di lingua, l’eventuale presenza di patologie complesse o situazioni di disagio socioeconomico, infatti, può richiedere competenze specifiche che un chatbot generalista non è attrezzato a gestire.
Per alcuni bambini, questi strumenti potrebbero rivelarsi l’unica opzione disponibile, data la mancanza di servizi di salute mentale in alcune regioni o la difficoltà economica di sostenere i costi delle consulenze in presenza. Tuttavia, un sostituto digitale non offre la stessa valutazione clinica o la stessa capacità di interagire con il contesto familiare, elementi fondamentali nel trattamento di disturbi evolutivi e comportamentali.
Attualmente, molte app di AI applicate alla salute mentale non rientrano in categorie sottoposte a regolamentazione rigorosa. Nel contesto statunitense, la Food and Drug Administration (FDA) ha approvato solo un’app basata su intelligenza artificiale per la gestione della depressione maggiore, limitandola però all’uso negli adulti. Per i minori, non esiste un quadro normativo specifico o un controllo che definisca standard minimi di sicurezza, affidabilità e protezione dei dati.
Şerife Tekin, PhD, docente presso il Center for Bioethics and Humanities della SUNY Upstate Medical University, assieme al team di studiosi, sta cercando di coinvolgere gli sviluppatori di chatbot terapeutici per capire se adottino protocolli volti a tutelare i bambini. L’obiettivo è promuovere una progettazione responsabile, che includa test su popolazioni pediatriche di varia provenienza e la definizione di criteri per gestire situazioni di rischio.
Secondo i ricercatori, l’intelligenza artificiale applicata alla salute mentale introduce nuove possibilità operative, ma l’impiego di chatbot nei percorsi psicologici infantili apre questioni cruciali. Le ricerche disponibili segnalano la necessità di interventi umani, in particolare per i pazienti più giovani, dove l’interazione personale e la valutazione del contesto familiare restano centrali. Sarà fondamentale stabilire linee guida cliniche ed etiche, oltre a standard di qualità dei dati, per garantire che questi strumenti non soltanto siano accessibili, ma anche sicuri e adeguati alle necessità dei bambini.