Circa l’81% delle persone che utilizza sistemi di intelligenza artificiale, li utilizza per autodiagnosticarsi o accedere ad informazioni mediche, e la metà di queste assumono farmaci che nessuno ha prescritto loro, andando a peggiorare la situazione clinica. Questa “patologia” (di cui si parla troppo poco o non se ne parla proprio in Italia, ma nel resto del mondo sì!) si chiama cybercondria.
Cybercondria, cioè l’ansia, l’angoscia, la paura che le nuove generazioni hanno quando al primo mal di testa interpellano Dr. Google, che è il medico più famoso al mondo, o interrogano l’intelligenza artificiale, pensando di avere le malattie più rare, gravi e assurde dell’universo. Succede, ed è un fenomeno che sta dilagando, soprattutto tra le nuove generazioni (e non solo). Un fenomeno da arginare: mettendo in comunicazione il mondo della salute con le nuove tecnologie e i suoi maggiori fruitori.
A parlare di cybercondria e delle sue conseguenze è stato Gian Luca Comandini, professore di blockchain presso l’Università Guglielmo Marconi di Roma, durante il convegno “Appropriatezza e corretta informazione nella febbre e dolore. Un’urgenza sociale e assistenziale’, organizzato da Motore Sanità con il contributo incondizionato di Angelini Pharma,e che ha visto la partecipazione di esperti e istituzioni per una corretta informazione, indispensabile nella gestione del dolore cronico.

Qual è il rapporto con la salute da parte delle nuove generazioni, professore Comandini?
Se chiedono informazioni ad un medico, la tendenza è quella di non credere alla sua risposta, screditando quel medico. Per le nuove generazioni è poco plausibile che una persona sia andata contro l’autodiagnosi fatta con l’intelligenza artificiale! Attenzione, però, perché Dr. Google, l’intelligenza artificiale non danno false informazioni, non sono loro la tecnologia cattiva, negativa, che ci vuole portare sulla cattiva strada, ma sono semplicemente degli aggregatori e degli analizzatori di informazioni presenti online. Dobbiamo accettare una tecnologia (che nasce sempre neutra) anziché demonizzarla! Quando abbiamo inventato il coltello, è nato come una tecnologia neutra.
Ci spieghi meglio, professore.
Se per generazioni ci dimentichiamo di alfabetizzare e insegnare alle persone che il coltello serve a tagliare il pane, allora le persone si convinceranno che il coltello serve a tagliare le persone. E si crea il problema, che si diffonde. Se questo sta succedendo con l’intelligenza artificiale, con le fake news, il primo mancato intervento è una mancanza totale di alfabetizzazione, formazione e informazione in ambito medico, sanitario e, soprattutto, un approccio demonizzante di queste tecnologie laddove serve. Se si demonizza la tecnologia, se si ostacola, si fanno solo danni peggiori.
Quindi, come si dovrebbe gestire la tecnologia?
Non si deve demonizzare, l’innovazione va accompagnata. L’intelligenza artificiale deve essere considerata dallo stesso mondo sanitario, dagli stessi medici, un player importante, un attore principale del rapporto che non è più a due (paziente-medico), ma è un rapporto a tre. È il rapporto presente di istituzioni e piattaforme che lavorano insieme per andare a segnalare, ad intervenire, ad oscurare tutte le notizie errate o che provengono da personale non competente. Purtroppo, è uno sporco lavoro ma qualcuno lo deve fare, perché se inventiamo tecnologie che danno questa velocità all’informazione, qualcuno deve cancellare l’informazione che non è informazione. Ma c’è di più.
Cos’altro?
Il terzo passo fondamentale è svecchiare l’approccio che il mondo medico ha con le nuove tecnologie e permettere ai medici o a chi ne ha le competenze di “giocare” sulle stesse piattaforme e con le stesse armi per combattere la mala informazione e le fake-news. Finché non facciamo in questo modo, coloro che continueranno a nascere da domani in poi sceglieranno il Web e le fake news, semplicemente perché sono molto più accessibili, perché rendono immediato l’accesso all’informazione desiderata e perché nessuno sta insegnando loro come cercare un’informazione alternativa, come fare il fact-checking di quell’informazione, come andare ad intercettare su canali diversi l’informazione.




