quotidianosanità.it

stampa | chiudi


Mercoledì 17 MAGGIO 2023
Intelligenza artificiale e salute. Oms: “Grande opportunità ma anche molti rischi. Vanno garantite sicurezza ed etica”

“La fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute di modelli linguistici generati dalla IA sta suscitando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone” ma anche per questo, sottolinea l'Oms, “è imperativo che i rischi siano esaminati attentamente”.

L'Organizzazione mondiale della sanità prende posizione sull’impiego di strumenti di modelli linguistici di grandi dimensioni (LLM) generati dall'intelligenza artificiale (IA) per proteggere e promuovere il benessere umano, la sicurezza umana e l'autonomia e preservare la salute pubblica. E lo fa invitando alla massima attenzione sul loro uso per garantire sicurezza ed eticità in ogni campo di intervento riguardante la salute delle persone

“Gli LLM – spiega l’Oms - includono alcune delle piattaforme in più rapida espansione come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l'elaborazione e la produzione della comunicazione umana”.

“La loro fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute – sottolinea ancora l’Oms - sta generando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone” e anche per questo “è imperativo che i rischi siano esaminati attentamente quando si utilizzano i LLM per migliorare l'accesso alle informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze”.

Un freno all’IA per la salute? In realtà no, la stessa Oms si dice infatti “entusiasta dell'uso appropriato delle tecnologie, compresi i LLM, per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati”.

Ma la preoccupazione dell’Oms è “che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM”. Includendo “l'adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa”.

“L'adozione precipitosa di sistemi non testati – spiega l’Oms - potrebbe portare a errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell'IA e quindi minare (o ritardare) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo”.

Questi i rischi più importanti sui quali l’Oms invita tutti gli attori ad esercitare “una rigorosa supervisione” affinché le tecnologie vengano utilizzate in modo sicuro, efficace ed etico:


L’Oms era già intervenuta sulla questione nel giugno 2021 pubblicando una vera e propria Guida sull’etica e la governance dell’IA per la salute dove erano stati indicati 6 principi fondamentali da seguire e che oggi l’Oms conferma:

- Proteggere l'autonomia umana: nel contesto dell'assistenza sanitaria, ciò significa che gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche; la privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.

- Promuovere il benessere e la sicurezza delle persone e l'interesse pubblico. I progettisti di tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi d'uso o indicazioni ben definiti. Devono essere disponibili misure di controllo della qualità nella pratica e di miglioramento della qualità nell'uso dell'IA.

- Garantire trasparenza, spiegabilità e intelligibilità. La trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell'implementazione di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare una consultazione pubblica e un dibattito significativi su come è progettata la tecnologia e su come dovrebbe o non dovrebbe essere utilizzata.

- Promuovere responsabilità (responsability) e responsabilizzazione (accountability). Sebbene le tecnologie di intelligenza artificiale svolgano compiti specifici, è responsabilità delle parti interessate garantire che vengano utilizzate in condizioni appropriate e da persone adeguatamente formate. Dovrebbero essere disponibili meccanismi efficaci di interrogatorio e di ricorso per individui e gruppi che sono influenzati negativamente da decisioni basate su algoritmi.

- Garantire inclusività ed equità. L'inclusività richiede che l'IA per la salute sia progettata per incoraggiare l'uso e l'accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dai codici dei diritti umani.

- Promuovere un'IA reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni AI durante l'uso effettivo per determinare se l’IA risponde in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di IA dovrebbero anche essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l'efficienza energetica. I governi e le aziende dovrebbero affrontare le interruzioni previste sul posto di lavoro, compresa la formazione degli operatori sanitari per adattarsi all'uso dei sistemi di intelligenza artificiale e le potenziali perdite di posti di lavoro dovute all'uso di sistemi automatizzati.

© RIPRODUZIONE RISERVATA