Quotidiano on line
di informazione sanitaria
Venerdì 22 NOVEMBRE 2024
Studi e Analisi
segui quotidianosanita.it

Intelligenza artificiale e salute. Oms: “Grande opportunità ma anche molti rischi. Vanno garantite sicurezza ed etica”


“La fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute di modelli linguistici generati dalla IA sta suscitando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone” ma anche per questo, sottolinea l'Oms, “è imperativo che i rischi siano esaminati attentamente”.

17 MAG - L'Organizzazione mondiale della sanità prende posizione sull’impiego di strumenti di modelli linguistici di grandi dimensioni (LLM) generati dall'intelligenza artificiale (IA) per proteggere e promuovere il benessere umano, la sicurezza umana e l'autonomia e preservare la salute pubblica. E lo fa invitando alla massima attenzione sul loro uso per garantire sicurezza ed eticità in ogni campo di intervento riguardante la salute delle persone

“Gli LLM – spiega l’Oms - includono alcune delle piattaforme in più rapida espansione come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l'elaborazione e la produzione della comunicazione umana”.

“La loro fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute – sottolinea ancora l’Oms - sta generando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone” e anche per questo “è imperativo che i rischi siano esaminati attentamente quando si utilizzano i LLM per migliorare l'accesso alle informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze”.

Un freno all’IA per la salute? In realtà no, la stessa Oms si dice infatti “entusiasta dell'uso appropriato delle tecnologie, compresi i LLM, per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati”.

Ma la preoccupazione dell’Oms è “che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM”. Includendo “l'adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa”.

“L'adozione precipitosa di sistemi non testati – spiega l’Oms - potrebbe portare a errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell'IA e quindi minare (o ritardare) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo”.

Questi i rischi più importanti sui quali l’Oms invita tutti gli attori ad esercitare “una rigorosa supervisione” affinché le tecnologie vengano utilizzate in modo sicuro, efficace ed etico:

L’Oms era già intervenuta sulla questione nel giugno 2021 pubblicando una vera e propria Guida sull’etica e la governance dell’IA per la salute dove erano stati indicati 6 principi fondamentali da seguire e che oggi l’Oms conferma:

- Proteggere l'autonomia umana: nel contesto dell'assistenza sanitaria, ciò significa che gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche; la privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.

- Promuovere il benessere e la sicurezza delle persone e l'interesse pubblico. I progettisti di tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi d'uso o indicazioni ben definiti. Devono essere disponibili misure di controllo della qualità nella pratica e di miglioramento della qualità nell'uso dell'IA.

- Garantire trasparenza, spiegabilità e intelligibilità. La trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell'implementazione di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare una consultazione pubblica e un dibattito significativi su come è progettata la tecnologia e su come dovrebbe o non dovrebbe essere utilizzata.

- Promuovere responsabilità (responsability) e responsabilizzazione (accountability). Sebbene le tecnologie di intelligenza artificiale svolgano compiti specifici, è responsabilità delle parti interessate garantire che vengano utilizzate in condizioni appropriate e da persone adeguatamente formate. Dovrebbero essere disponibili meccanismi efficaci di interrogatorio e di ricorso per individui e gruppi che sono influenzati negativamente da decisioni basate su algoritmi.

- Garantire inclusività ed equità. L'inclusività richiede che l'IA per la salute sia progettata per incoraggiare l'uso e l'accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dai codici dei diritti umani.

- Promuovere un'IA reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni AI durante l'uso effettivo per determinare se l’IA risponde in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di IA dovrebbero anche essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l'efficienza energetica. I governi e le aziende dovrebbero affrontare le interruzioni previste sul posto di lavoro, compresa la formazione degli operatori sanitari per adattarsi all'uso dei sistemi di intelligenza artificiale e le potenziali perdite di posti di lavoro dovute all'uso di sistemi automatizzati.



17 maggio 2023
© Riproduzione riservata


Altri articoli in Studi e Analisi

ISCRIVITI ALLA NOSTRA NEWS LETTER
Ogni giorno sulla tua mail tutte le notizie di Quotidiano Sanità.

gli speciali
Quotidianosanità.it
Quotidiano online
d'informazione sanitaria.
QS Edizioni srl
P.I. 12298601001

Sede legale e operativa:
Via della Stelletta, 23
00186 - Roma
Direttore responsabile
Luciano Fassari

Direttore editoriale
Francesco Maria Avitto

Tel. (+39) 06.89.27.28.41

info@qsedizioni.it

redazione@qsedizioni.it

Coordinamento Pubblicità
commerciale@qsedizioni.it
Copyright 2013 © QS Edizioni srl. Tutti i diritti sono riservati
- P.I. 12298601001
- iscrizione al ROC n. 23387
- iscrizione Tribunale di Roma n. 115/3013 del 22/05/2013

Riproduzione riservata.
Policy privacy