L’intelligenza artificiale corre veloce, anzi velocissima. A spadroneggiare sempre di più sono i modelli multimodali di grandi dimensioni (LMM), un tipo di tecnologia di IA che tiene ormai banco su diverse piattaforme, come ChatGPT, Bard e Bert, e con applicazioni nell'assistenza sanitaria, nella ricerca scientifica, nella salute pubblica e nello sviluppo di farmaci.
Ma tra i possibili benefici per la salute delle nuove tecnologie, ci sono anche tanti rischi in agguato. Si va dalla produzione di affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano le informazioni per prendere decisioni sulla salute, fino al rischio che vengano impropriamente delegate a un LMM scelte difficili sulla salute delle persone.
Inoltre, come altre forme di IA, prestano anche il fianco ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità degli algoritmi (possono essere “addestrati” su dati di scarsa qualità o distorti, sia per razza, sesso, identità di genere o età) e più in generale, l’erogazione di assistenza sanitaria.
Ecco quindi che dall’Organizzazione Mondiale della Sanità arrivano nuove coordinare per “navigare” con “intelligenza”.
I LMM, spiega una nota dell’Oms, possono accettare uno o più tipi di dati in ingresso, come testi, video e immagini, e generare diversi output non limitati al tipo di dati immessi. Sono unici per la loro capacità di imitare la comunicazione umana e di svolgere compiti per i quali non sono stati esplicitamente programmati. Sono poi stati adottati più rapidamente di qualsiasi altra applicazione consumer nella storia, con diverse piattaforme, come appunto ChatGPT, Bard e Bert.
“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati – ha dichiarato il dottor Jeremy Farrar, Chief Scientist dell’Oms – abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso dei LMM, al fine di ottenere risultati sanitari migliori e superare le persistenti disuguaglianze sanitarie".
Potenziali benefici e rischi
La nuova Linea guida dell’Oms delinea cinque aree di applicazioni dei LMM nell’ambito della salute:
Insomma, un campo di applicazione vastissimo. Che nasconde pro e contro: se da un lato i LMM iniziano a essere utilizzati per scopi specifici legati alla salute, dall’altro avverte l’Oms è documentato il rischio di produrre affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sulla salute. Inoltre, i LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età.
La guida descrive anche rischi più ampi per i sistemi sanitari, come l’accessibilità e l’economicità dei LMM più performanti. Gli LMM, ammonisce Oms, possono anche incoraggiare “pregiudizi di automazione” da parte degli operatori sanitari e dei pazienti, in quanto vengono trascurati errori che altrimenti sarebbero stati identificati o vengono impropriamente delegate a un LMM scelte difficili.
I LMM, come altre forme di IA, come abbiamo visto, sono poi anche vulnerabili ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria.
Coinvolgere governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile. Per creare LMM sicuri ed efficaci, l’Oms sottolinea la necessità di coinvolgere diverse parti interessate: governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile, in tutte le fasi dello sviluppo e dell’impiego di tali tecnologie, comprese la loro supervisione e regolamentazione.
“I governi di tutti i Paesi devono collaborare per regolamentare in modo efficace lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come i LMM", ha dichiarato il dott. Alain Labrique, direttore dell’Oms per la salute digitale e l’innovazione nella divisione scientifica.
Le Raccomandazioni chiave ai Governi
La nuova guida dell’Oms contiene quindi raccomandazioni per i governi, che hanno la responsabilità primaria di definire gli standard per lo sviluppo e la diffusione dei LMM, nonché per la loro integrazione e il loro utilizzo per scopi medici e di salute pubblica.
I governi dovrebbero;
- Investire o fornire infrastrutture pubbliche o senza scopo di lucro, tra cui potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e non profit, che richiedano agli utenti di aderire a principi e valori etici in cambio dell’accesso.
- Utilizzare leggi, politiche e regolamenti per garantire che i LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, a prescindere dal rischio o dal beneficio associato alla tecnologia di IA, rispettino gli obblighi etici e gli standard dei diritti umani che riguardano, ad esempio, la dignità, l’autonomia o la privacy di una persona.
- Assegnare a un’agenzia di regolamentazione, esistente o nuova, il compito di valutare e approvare i LMM e le applicazioni destinate all’assistenza sanitaria o alla medicina, in base alle risorse disponibili.
- Introdurre verifiche e valutazioni d’impatto obbligatorie dopo il rilascio, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Le valutazioni di audit e di impatto dovrebbero essere pubblicate e dovrebbero includere risultati e impatti disaggregati per tipo di utente, ad esempio per età, razza o disabilità.
Non solo, la guida include anche le raccomandazioni chiave per gli sviluppatori di LMM, che dovrebbero garantire che:
- I LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi i fornitori di servizi medici, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione di IA in esame.
- I LMM sono progettati per svolgere compiti ben definiti con l’accuratezza e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero infine anche essere in grado di prevedere e comprendere i potenziali esiti secondari.
E.M.