toggle menu
QS Edizioni - martedì 3 settembre 2024

Studi e Analisi

Responsabilità professionale ed Intelligenza artificiale

di Tiziana Frittelli
immagine 2 settembre - La gestione del rischio e i profili di responsabilità relativi alle nuove tecnologie meritano un particolare approfondimento, soprattutto in ambito sanitario. Prima di poter utilizzare algoritmi di AI nei processi di prevenzione, diagnosi e cura, diventa necessario verificare la validità dell’addestramento e l’affidabilità degli output clinici, in quanto scientificamente riproducibili e validati dalla comunità scientifica

L’applicazione dei sistemi di AI è destinata a cambiare in breve tempo i processi organizzativi e relazionali del mondo produttivo, dei servizi, della ricerca. L’AI si giova di programmi di Machine learning, in grado di scrivere autonomamente altri programmi per interpretare i dati e prevedere i risultati, e di Deep learning, che usa gli algoritmi come reti di decisioni (cd reti neurali), in grado di elaborare un dato iniziale in numerosi passaggi collegati tra loro.
Grandi mutamenti saranno indotti anche nel mondo sanitario che, rispetto agli altri, ha specifiche peculiarità. Per lo più, nel mondo industriale e dei servizi, l’AI è utilizzata per incrementare l’efficienza, aumentare la produzione e generare nuovi contenuti (cd AI generativa). In sanità si punta, piuttosto, sull’efficacia e personalizzazione dei processi di diagnosi e cura, compresi quelli di assistenza da remoto, sulla medicina predittiva e sulla rapidità di analisi e sintesi dei dati nella ricerca biomedica. Le analisi basate sull’AI possono fornire modelli predittivi per la salute della popolazione e costituire il presupposto per la medicina di precisione. Fondamentale sarà anche il supporto per l’assistenza primaria, per ottimizzare i processi di presa in carico dei pazienti, soprattutto quelli cronici, con l’impegno di importanti risorse del PNRR per la realizzazione di una Piattaforma di Intelligenza Artificiale ad opera di Agenas.

Trattasi di processi che rischiano di depotenziare le competenze tradizionali per il rischio dei professionisti di sviluppare un eccessivo affidamento sulla capacità degli algoritmi di risolvere qualunque problema, nonostante gli stessi elaborino dati sulla base di deduzioni statistiche e non causali, con conseguente rischio di dequalificazione dovuta all’eccessiva automazione dell’attività medica.

Tale rischio va compensato con percorsi formativi, che utilizzino anche la realtà aumentata, per passare da una cultura analogica ad una digitale ed affrontare un approccio di utilizzo responsabile delle nuove tecnologie, in un ambito che vede mutare profondamente la nozione di rischio. D’altronde, la realtà aumentata e il metaverso utilizzano l’AI proprio per mappare la realtà circostante e creare mondi immersivi da utilizzare come palestre di apprendimento. La gestione del rischio e i profili di responsabilità relativi alle nuove tecnologie meritano un particolare approfondimento, soprattutto in ambito sanitario: trattandosi di sistemi basati sull’autoapprendimento, appare difficile per il professionista ripercorrere l’iter della macchina, capire se è aderente alle linee guida validate dalle società scientifiche, verificare l’accuratezza delle previsioni sul lungo termine. Prima di poter utilizzare algoritmi di AI nei processi di prevenzione, diagnosi e cura, diventa necessario verificare la validità dell’addestramento e l’affidabilità degli output clinici, in quanto scientificamente riproducibili e validati dalla comunità scientifica. Un primo problema riguarda, quindi, la regolamentazione dei processi di addestramento delle macchine e il loro aggiornamento, che generalmente avviene automaticamente da parte della macchina.

La regolamentazione della responsabilità da impiego sanitario dell’AI ha trovato attenzione nel diritto comunitario. Nel 2017 il Parlamento europeo ha approvato una risoluzione recante ‘‘Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica’’ richiedendo alla Commissione di presentare una proposta di direttiva relativa a norme di diritto civile sulla robotica e ad indagini su strumenti anche non legislativi, quali linee guida e codici di condotta, che potessero minimizzare i rischi, sottolineando il principio dello ‘‘human in command approach’’, in virtù del quale la programmazione iniziale di cura e la scelta finale sull’esecuzione spettino sempre ad un chirurgo umano, per evitare decisioni fondate esclusivamente sul contributo degli strumenti di intelligenza artificiale.

Successivamente, nel Libro bianco sull’AI della Commissione Europea del 2020, con l’obiettivo, tra l’altro, di valutare l’adeguatezza degli esistenti regimi di responsabilità circa i vari ambiti di rischio (diritti individuali, compreso quello alla salute, diritti d’autore sui prodotti dell’AI e sull’addestramento dell’intelligenza artificiale, protezione dei dati personali e privacy), è stata evidenziata l’incertezza normativa in tema di intelligenza artificiale in merito all’attribuzione delle responsabilità tra i diversi operatori economici lungo la catena di approvvigionamento in quanto lo sviluppo e l’assemblaggio di strumenti intelligenti o di software richiede il concorso di più soggetti (sviluppatori, produttori, fornitori) che rende difficile applicare i vigenti principi di responsabilità da prodotto difettoso. Il Libro Bianco ha individuato sette requisiti fondamentali per una AI affidabile: 1) intervento e sorveglianza degli umani 2) robustezza tecnica e sicurezza 3) riservatezza e governance dei dati 4) trasparenza 5) non discriminazione ed equità 6) benessere sociale ed ambientale 7) accountability; di tali requisiti dovranno tenere conto le strutture sanitarie in sede di predisposizione dei capitolati per l’acquisizione delle macchine di AI.

Nel settembre 2022 la Commissione europea ha presentato una proposta di Direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale. La bozza prevede l’armonizzazione di norme in materia di responsabilità civile extracontrattuale per i danni causati dai sistemi di AI. Tale proposta di direttiva ha lo scopo di fornire agli utenti un quadro normativo uniforme per le varie ipotesi di danno scaturite da un difetto della programmazione o istruzione dell’AI o da una violazione dei doveri di diligenza da parte degli utilizzatori finali. Inoltre, individua i soggetti titolari del diritto al risarcimento del danno e stabilisce delle presunzioni relative del nesso di causalità in caso di colpa. Sono previste specifiche violazioni degli obblighi di diligenza: in primis, il mancato rispetto, da parte del fornitore, della qualità dei dati di addestramento, convalida e test; mancato rispetto degli obblighi di trasparenza del sistema; progettazione del sistema che non consenta una supervisione efficace da parte dell’uomo; mancati livelli di accuratezza e cybersicurezza; mancata adozione delle necessarie azioni correttive in caso di situazioni critiche. La Direttiva prevede, inoltre, sia obblighi di trasparenza a carico del convenuto nel giudizio promosso dal danneggiato per i sistemi di AI “ad alto rischio”, sia presunzioni riguardo l’onere della prova a carico del danneggiato nel giudizio di risarcimento, in particolare per la prova del nesso di causalità tra condotta colposa e danno prodotto dal sistema di AI e, una volta emanata, avrà un notevole impatto sul regime civilistico e sulla legge Gelli. Altra proposta di Direttiva alla quale sta lavorando l’Unione Europea riguarda la disciplina sulla responsabilità per danno da prodotto difettoso, che dovrebbe sostituire la vigente Direttiva 85/374/CEE anche per adattarla al nuovo contesto digitale, con disposizioni per facilitare l’onere della prova per il danneggiato.

Su proposta del Comitato dei rappresentanti permanenti degli Stati membri presso l’UE, il Parlamento Europeo ha adottato il 13 marzo 2024 un Regolamento (AI Act), successivamente approvato dal Consiglio dell’Unione europea il 21 maggio 2024, che introduce un approccio “basato sul rischio”, prevedendo per fornitori e utenti regole quanto più rigorose tanto maggiore sia il rischio individuato dall’utilizzo dell’AI (inaccettabile, quando costituisca una minaccia per le persone; alto, se influisca sulla sicurezza o sui diritti fondamentali, quale il diritto alla salute; minimo, che debba comunque seguire criteri di trasparenza).

A fronte di uno scenario in continua e repentina evoluzione, il vigente quadro normativo potrebbe essere inadeguato ad individuare i responsabili di un danno tra i soggetti coinvolti in un processo clinico o diagnostico, a partire dai produttori, sviluppatori e manutentori del software, come già rilevato dalla Commissione europea. A questo aggiungasi le eventuali responsabilità della struttura sanitaria e degli operatori, secondo il quadro normativo definito dalla legge 24/2017 che esclude ipotesi di responsabilità oggettiva. Fondamentale, ad esempio, nella valutazione del nesso di causalità tra danno e attività dell’operatore, diventa il grado di autonomia di tali dispositivi.

Il Consiglio di Stato, con sentenza n. 7891 del 4 novembre 2021, ha distinto tra “l’algoritmo automatico”, quale sequenza definita di azioni, collegata al concetto di semplice Automazione, e l’Intelligenza Artificiale, quando l’algoritmo contempla l’utilizzo di meccanismi di machine learning, ossia un sistema “che non si limita solo ad applicare le regole dei software e i parametri preimpostati ma, al contrario, elabora nuovi criteri di interferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”. Pertanto, nel caso di macchine che utilizzino l’AI, appare complesso individuare il soggetto al quale sia imputabile il nesso causale e l’elemento soggettivo colposo rispetto all’eventuale danno prodotto, dovendosi indagare i profili di responsabilità della struttura sanitaria, che risponde a titolo di responsabilità contrattuale nei confronti del danneggiato; dell’operatore, che può essere direttamente coinvolto a titolo di responsabilità extracontrattuale o per rivalsa; del produttore del software, del programmatore e degli sviluppatori, dei selezionatori dei dati da inserire, delle società di manutenzione e aggiornamento. Appare evidente come non sia facile individuare le specifiche responsabilità, soprattutto perché le macchine elaborano dati secondo algoritmi predefiniti. La mancanza di trasparenza della logica neurale, con cui opera la macchina, per motivi di privativa industriale, sfugge inevitabilmente al controllo dell’operatore che, per esempio, può trovarsi a prendere una decisione clinica sulla base di un errore diagnostico prodotto dalla macchina. C’è il rischio che la struttura o il professionista possano rispondere in questi casi, di fatto, a titolo di responsabilità oggettiva. Presenta un importante profilo critico anche l’indagine circa la portata dell’articolo 5 della legge 24/2017, in relazione all’utilizzo di algoritmi da parte della macchina, relativamente alla loro conformità alle linee guida e buone pratiche clinico-assistenziali richiamate dalla norma in questione. Difatti, la legge 24/2017 prevede che gli esercenti le professioni sanitarie, nell'esecuzione delle prestazioni sanitarie con finalità preventive, diagnostiche, terapeutiche, palliative, riabilitative e di medicina legale, si attengano alle raccomandazioni previste dalle linee guida elaborate da enti e istituzioni pubblici e privati nonché dalle società scientifiche e dalle associazioni tecnico-scientifiche delle professioni sanitarie ovvero, in mancanza delle suddette raccomandazioni, alle buone pratiche clinico-assistenziali. Chi potrà effettuare questa verifica in presenza di processi di deep learning? Come pure l’esaustività e la tempestività dell’aggiornamento della macchina relativamente a tali elementi? E che tipo di formazione la struttura dovrà garantire all’operatore per metterlo in condizione di operare in sicurezza? E quanto è legittimo chiedere l’intellegibilità del metodo di apprendimento della macchina, coperto da privativa industriale? A questo riguardo l’AI Act di recente approvazione impone ai fornitori di sistemi di AI classificabili ad “alto rischio” di progettare e sviluppare gli algoritmi in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire di interpretare l’output del sistema e utilizzarlo adeguatamente. Peraltro, in base all’AI Act, software basati su AI classificati come dispositivi medici richiedono la validazione ai fini dell’immissione in commercio, essendo classificati come “sistemi ad alto rischio”.

Altra problematica riguarda il rilievo da attribuire alla limitazione della responsabilità ai sensi dell’art. 2236 c.c. La norma prevede che, nel caso di esecuzione di prestazioni di particolare difficoltà, il professionista non risponda dei danni cagionati per colpa lieve. L’implementazione di software nell’attività medica sarà idonea ad escludere la difficoltà di una prestazione oppure aggraverà la difficoltà della stessa per la necessità di verifica da parte dell’operatore dell’intero processo? Sicuramente, in caso di contenzioso medico-legale potrebbe essere opportuno coinvolgere anche consulenti esperti di AI.

Un problema di rilievo riguarda il consenso informato di trattamenti che coinvolgono strumenti di AI. La Cassazione civile, sez. I, 10 ottobre 2023, n. 28358 ha ribadito, in una vicenda che vedeva coinvolta l’AI in ambito extrasanitario, che ad integrare i presupposti del "libero e specifico" consenso, affinché esso sia legittimo e valido, è richiesto che l'interessato sia in grado di conoscere l'algoritmo, inteso come procedimento affidabile per ottenere un certo risultato o risolvere un certo problema, che venga descritto all'utente in modo non ambiguo ed in maniera dettagliata, come capace di condurre al risultato in un tempo finito. Bisogna tenere conto di queste indicazioni rispetto alle rigorose regole poste dalla legge 219/2017 sul consenso ai trattamenti sanitari.

Di fronte ad un quadro di gestione del rischio e di responsabilità che si profila di grande complessità, occorre da subito avviare riflessioni ed approfondimenti finalizzati a capire in primis gli enormi vantaggi di questi processi di machine e deep learning nella gestione del rischio sanitario (si pensi alle informazioni in materia di infezioni ospedaliere, prevenibili assemblando una serie complessa di dati ovvero ai dati predittivi sulla stato di salute di un certo target di popolazione, anche in relazione ai fattori ambientali), ma anche le molte aree di criticità nell’individuazione di profili di eventuale responsabilità, al fine di verificare l’utilità di un eventuale intervento legislativo specifico in materia, che recepisca quanto si sta sviluppando nel dibattito europeo.

Tiziana Frittelli

2 settembre 2024
© QS Edizioni - Riproduzione riservata