Responsabilità

Uso dell’intelligenza artificiale in sanità, nuovi obblighi di diligenza e perizia

Tra le criticità la “comprensibilità” delle decisioni assunte dal sistema intelligente e il consenso pienamente consapevole al trattamento effettuato mediante strumenti automatizzati e/o di AI

di Antonio Albanese*

Sono noti i vantaggi che l’Intelligenza Artificiale offre alla medicina in termini di diagnosi più accurate e precoci, di personalizzazione dei trattamenti sanitari e di elevata precisione della chirurgia robotica. Il suo utilizzo, inoltre, riducendo l’incidenza di errori umani, rende anche più sicure le cure.

A questa maggiore efficacia e sicurezza delle tecnologie digitali si accompagnano, però, specifici rischi, in ragione dei quali si giustifica la previsione di norme funzionali a impedirne il verificarsi o a mitigarne le conseguenze. In tal senso, il Regolamento Europeo e la recente legge italiana sull’Intelligenza Artificiale prevedono specifici doveri, non solo per le strutture sanitarie ma anche per i singoli professionisti, la cui violazione, ove cagioni un danno, fa sorgere una responsabilità contrattuale dell’ente ospedaliero ed extracontrattuale del personale che opera al suo interno.

Per quanto riguarda in particolare i medici, è fondamentale ricordare i sistemi di Intelligenza Artificiale utilizzato in ambito sanitario sono qualificati ad “alto rischio” e come tali non possono mai sostituire l’essere umano. L’Intelligenza Artificiale è uno strumento di ausilio per la diagnosi e la scelta terapeutica, ma la decisione finale spetta al professionista, che deve sempre mantenere un ruolo attivo, valutando criticamente le indicazioni che riceve dalla macchina. Ai fini del benessere globale della persona è infatti necessario coniugare l’elaborazione algoritmica con il sapere relazionale e il discernimento etico propri dell’essere umano.

Per altro verso l’assistenza basata sull’Intelligenza Artificiale, in assenza di un controllo del medico, potrebbe tradursi in un uso difensivo degli algoritmi, riversando su di essi tutta la responsabilità della decisione. Per evitare ciò, il medico non può essere mero esecutore del trattamento deciso dallo strumento digitale.

Se si limita ad accettare passivamente il responso dell’Intelligenza Artificiale, senza verificarlo, e questo porta a un errore, può esserne ritenuto civilmente responsabile. A tal fine il danneggiato deve provare la colpa del professionista, dovendosi invece escludere una responsabilità oggettiva per i danni eventualmente cagionati da un mero malfunzionamento dell’Intelligenza Artificiale. Pertanto, quando il danno non derivi direttamente e immediatamente da un difetto del sistema intelligente, ma presupponga una condotta umana che interagisce con esso, questa deve essere valutata in termini di conformità o meno alle regole tecniche della professione medica.

Dal punto di vista dell’obbligo di supervisione del medico, uno degli aspetti più delicati dell’intelligenza artificiale riguarda la comprensibilità delle decisioni assunte dal sistema intelligente. Molti algoritmi, soprattutto quelli basati su reti neurali complesse (c.d. black boxes), non permettono di comprendere chiaramente il processo che ha condotto a una diagnosi o a una raccomandazione terapeutica. Ma, al di là di queste ipotesi, l’iter logico seguito dall’Intelligenza Artificiale è comunque diverso da quello umano, in quanto si basa sull’inferenza statistica e non sulla deduzione causale.

Il medico, quindi, quando interagisce con questi strumenti, deve anzitutto comprendere le specificità del contesto nel quale essi sono giunti a una determinata conclusione. Ad esempio, se un sistema di ausilio alla diagnosi segnala una patologia con un certo grado di probabilità, il medico deve considerare quali dati ha usato il sistema (ad es. immagini, anamnesi, esami di laboratorio); valutare se e quanto siano affidabili (ad es. un’immagine sfocata o un dato clinico impreciso può falsare l’output) e capire con riguardo a quale popolazione è stato addestrato l’algoritmo, per sapere se è applicabile al paziente in esame.

Sulla base di tali elementi dovrà mettere a confronto l’output dell’Intelligenza Artificiale con l’osservazione clinica diretta, l’esperienza personale, le linee guida e le evidenze scientifiche. Ad esempio, se un sistema Intelligenza Artificiale suggerisce una diagnosi di polmonite virale basandosi sull’esame di una radiografia, il medico, notando un quadro clinico atipico, può e deve verificare possibili scenari alternativi (embolia polmonare, neoplasia, ecc.).

A tal fine egli deve avvalersi anche dei c.d. strumenti di spiegabilità, attraverso i quali i sistemi più avanzati evidenziano quali variabili hanno pesato di più sulla decisione e, nella diagnostica per immagini, mostrano attraverso mappe di calore (heatmap) dove si è focalizzata l’attenzione del dispositivo. Queste informazioni devono essere utilizzate per verificare se la macchina ha interpretato correttamente i dati, oppure ha “fraintesoun pattern o è stata tratta in errore da un artefatto.

Il professionista non può sottrarsi a responsabilità semplicemente imputando l’errore all’Intelligenza Artificiale o al difetto organizzativo della struttura ma, tutte le volte che ravvisi rischi per la salute del paziente, deve intervenire per prevenirli o mitigarli, eventualmente rifiutandosi di eseguire la prestazione e indirizzandolo verso un’altra struttura.

Nello svolgimento di tale attività il medico è tenuto a monitorare in modo continuo il funzionamento del sistema e, se nota ripetuti errori o bias, deve segnalarli al fornitore del sistema così contribuendo all’addestramento continuo tramite feedback.

Lo svolgimento di tali compiti di supervisione attiva implica la consapevolezza dei limiti dello strumento. Solo comprendendo i presupposti (anche statistici) su cui si fondano le indicazioni dell’Intelligenza Artificiale, il professionista potrà esercitare un controllo effettivo sull’attendibilità dei risultati cui esso giunge.

In questo contesto, affinché il professionista possa svolgere adeguatamente la propria attività è necessario che sia specificamente formato all’utilizzo di strumenti basati sull’Intelligenza Artificiale. L’importanza della formazione all’utilizzo delle nuove tecnologie automatizzate è stata messa in rilevo dalla giurisprudenza statunitense nel caso T. v. I. S., Inc. La Corte Suprema dello Stato di Washington ha ritenuto responsabile il produttore di un robot chirurgico dei danni subiti da un paziente, imputandogli di non aver avvertito la struttura sanitaria della necessità di una adeguata formazione dei medici accreditati all’utilizzo del dispositivo. In Italia e in Europa non risultano precedenti analoghi, ma questa decisione è espressione di una tendenza prevedibile dei sistemi giuridici verso il progressivo riconoscimento di obblighi di formazione aventi ad oggetto l’utilizzo delle nuove tecnologie. È ragionevole pensare che questi obblighi troveranno riconoscimento in capo non solo al produttore, ma anche alla struttura sanitaria e ai singoli operatori sanitari, secondo i principi generali di diligenza e di perizia. L’introduzione dell’intelligenza artificiale in ambito medico comporta peraltro una ridefinizione di tali concetti, in quanto deve tenere conto dell’evoluzione della tecnica, alla quale il medico deve adeguare la sua attività. La giurisprudenza italiana, pur non avendo ancora affrontato in modo specifico la questione della responsabilità per uso improprio dell’Intelligenza Artificiale, in linea generale valuta la diligenza del professionista sanitario alla luce delle conoscenze tecniche e scientifiche disponibili al momento della sua prestazione.

I concetti di diligenza e perizia sono de resto caratterizzati da una naturale elasticità e si adeguano non solo ai mutamenti normativi, ma anche all’evoluzione del sapere scientifico e della coscienza sociale. In un contesto di sanità sempre più digitalizzata, tra gli obblighi professionali sono quindi destinati ad assumere un ruolo di crescente importanza l’aggiornamento continuo e la capacità di integrare l’Intelligenza Artificiale nella pratica clinica.

In tutti i casi finora esaminati, i nuovi obblighi di diligenza e di perizia sono funzionali ad assicurare il migliore soddisfacimento dell’interesse del paziente all’esatta esecuzione della prestazione sanitaria. Vi sono peraltro altri doveri, che svolgono una funzione di protezione di interessi diversi rispetto a quello dedotto nel contratto, che non attengono direttamente ed immediatamente alla cura della salute del paziente.

Tra questi particolare importanza hanno gli obblighi di informazione funzionali ad ottenere da parte del paziente un consenso pienamente consapevole al trattamento effettuato mediante strumenti automatizzati e/o di Intelligenza Artificiale. A questi fa riscontro il diritto del paziente alla spiegazione dei processi che stanno a fondamento della decisione medica, del livello di automazione degli strumenti impiegati e dei dati utilizzati dal sistema di intelligenza artificiale.

Con riguardo all’utilizzo delle nuove tecnologie trova quindi una specifica declinazione il diritto all’autodeterminazione del paziente, che resta comunque autonomo e distinto rispetto a quello alla prestazione sanitaria.

________

*Antonio Albanese, Professore ordinario di diritto civile nell’Università cattolica del Sacro Cuore di Milano

Per saperne di piùRiproduzione riservata ©