L’Oms sottolinea la necessità di assicurare un uso etico dell’intelligenza artificiale nella sanità. Il rischio è che i Paesi più poveri siano tagliati fuori dall’innovazione. E non solo perché non possono permettersi gli investimenti
Il documento è lungo 77 pagine, ma tutto quello che l’Organizzazione Mondiale della Sanità ha da dire sull’uso dell’intelligenza artificiale in medicina è sintetizzato in una tabella di tre colonne. Sulla sinistra, i cinque ambiti di applicazione nella sanità della tecnologia basata sui large multimodal models, anche detta intelligenza artificiale generativa. Al centro, i potenziali benefici e sulla destra i potenziali rischi per ognuna delle cinque categorie.
Tra i concreti pericoli messi in evidenza nelle nuove linee guida sull’etica e la governance dei sistemi di intelligenza artificiale per la salute, c’è quello di una possibile intensificazione delle diseguaglianze tra Paesi ricchi e Paesi a basso e medio reddito. Ma la preoccupazione non deriva solo dalle difficoltà di accesso alla tecnologia a causa delle scarse risorse economiche o della carenza di personale specializzato. La questione è ancora più profonda. I sistemi di intelligenza artificiale applicati alla medicina si basano su algoritmi che elaborano una miriade di dati. L’Oms si chiede quanto possano essere affidabili quei sistemi se i dati inseriti provengono solo da una parte del mondo. Le popolazioni dei Paesi più poveri, drasticamente sottorappresentate nei database, possono fidarsi di un algoritmo che si è allenato elaborando informazioni parziali che non tengono conto di differenze etniche, culturali, sociali ecc…?