Responsabilità

Digitalizzazione delle cure e intelligenza artificiale: i nuovi obblighi verso i pazienti

L’impiego dell’intelligenza artificiale in ambito sanitario delinea nuovi profili di responsabilità per medico e struttura sanitaria

Doctor AI computer, artificial intelligence in modern medical technology and IOT automation. Doctor using AI document management concept.

di Antonio Albanese*

L’impiego dell’intelligenza artificiale in ambito sanitario offre indubbi vantaggi, quali la possibilità di ottenere diagnosi più accurate, l’alta precisione di alcuni interventi chirurgici, la personalizzazione dei trattamenti e più in generale il miglioramento dell’efficienza in termini di riduzione dei tempi e dei costi delle cure.

Tuttavia, l’utilizzo delle nuove tecnologie genera anche diversi rischi che devono essere attentamente considerati e che potrebbero comportare responsabilità per il medico che ha in carico il paziente e/o per la struttura che è obbligata nei suoi confronti al trattamento sanitario. In tal senso vengono in considerazione alcuni aspetti delle nuove tecnologie che caratterizzano le fattispecie di responsabilità connesse al loro utilizzo in termini diversi rispetto a quelle tradizionali.

Una significativa differenza consiste anzitutto nel massiccio utilizzo di dati che il sistema di intelligenza artificiale è in grado di esaminare e valutare al fine di effettuare una diagnosi maggiormente attendibile o di individuare la terapia più efficace.

Ciò pone in primo luogo un problema di affidabilità del materiale informativo elaborato: se questo è di scarsa qualità o presenta bias, l’IA può produrre diagnosi o raccomandazioni errate, con conseguenti danni per la salute. Per evitare tali rischi la struttura sanitaria deve predisporre apposite procedure per controllare che i dati utilizzati per addestrare i modelli di IA siano accurati, completi e rappresentativi della popolazione di cui fa parte il paziente.

L’adozione di queste cautele non esclude peraltro che le diagnosi e le terapie proposte dall’IA debbano essere soggette alla costante supervisione umana ed essere validate dai professionisti ai quali è affidata in ultima analisi la responsabilità della cura. Tale intervento è essenziale non solo per garantire la salute dei pazienti, ma anche per risolvere eventuali dilemmi etici, che richiedono scelte basate su criteri che non possono essere interiorizzati in un algoritmo.

Entrambe queste esigenze hanno del resto trovato riconoscimento nel documento Ethics Guidelines for Trustworthy AI, mediante il quale la Commissione Europea ha raccomandato che l’utilizzo dell’IA promuova i diritti fondamentali della persona, consentendo sempre una piena ed effettiva determinazione dell’essere umano che interagisce con essi.

In senso analogo il Regolamento UE 2017/745 sui dispositivi medici (MDR) stabilisce che i fabbricanti devono adottare un sistema di gestione del rischio per tutto il ciclo di vita del dispositivo, incluso il monitoraggio post-commercializzazione, il che implica che l’utilizzo di strumentazioni e sistemi basati sull’intelligenza artificiale debba avvenire con la partecipazione attiva dell’uomo per identificare e mitigare situazioni di pericolo che possono sopravvenire.

D’altra parte, affinché il medico possa esprimere un giudizio clinico effettivo e non meramente fittizio, esaminando criticamente le indicazioni dell’IA, è necessario che i criteri e i processi decisionali di questa siano conoscibili e valutabili. La mancanza di trasparenza su tali aspetti può del resto impedire o rendere più difficile identificare e correggere eventuali malfunzionamenti dei sistemi di IA, oltre a minare la fiducia dei potenziali pazienti.

Tutti i soggetti coinvolti nella progettazione e utilizzo degli strumenti di AI devono quindi assicurare che le decisioni cliniche, anche quelle assunte con l’ausilio di sistemi informatici avanzati, siano effettivamente espressione della professionalità del medico. Solo in tal modo è peraltro possibile prevenire la perdita di abilità dovuta alla dipendenza dalla tecnologia (c.d. deskilling ), mantenendo e sviluppando competenze essenziali della persona umana.

Da questo punto di vista viene in evidenza un ulteriore profilo di novità, attinente all’esecuzione della prestazione professionale, dato dalla necessità che il personale sanitario acquisisca le specifiche competenze necessarie per il corretto utilizzo delle nuove tecnologie e che a tal fine sia adeguatamente formato per adoperare i dispositivi che si basano sull’IA e per interpretare i risultati da essa forniti. Tale obbligo di formazione ha trovato un significativo riconoscimento da parte della giurisprudenza statunitense nel caso Taylor vs. v. Intuitive Surgical, Inc ., deciso dalla Corte Suprema dello Stato di Washington, la quale ha ritenuto che il produttore di uno strumento chirurgico ad elevata automazione debba fornire adeguata formazione al personale sanitario incaricato del suo utilizzo e che, in mancanza, sia responsabile dei danni cagionati dal suo errato impiego.

Da un altro e diverso punto di vista, l’importanza dei dati analizzati dall’IA per determinare il trattamento più idoneo per i pazienti accresce il rischio di lesione della loro privacy o di altri diritti fondamentali della persona. Per questo la struttura sanitaria, oltre a ottenere il consenso della persona che ha in cura, deve garantire il rispetto della riservatezza delle informazioni che la riguardano e adottare misure idonee a prevenire possibili attacchi informatici che sfruttino le vulnerabilità del sistema per accedere a dati sensibili e, nei casi più gravi, per manipolare i risultati.

Alla luce delle diverse fattispecie finora esaminate è possibile individuare le misure di protezione e le regole di comportamento che i soggetti coinvolti devono adottare per sviluppare e implementare sistemi di IA sicuri, efficaci ed etici, massimizzando i benefici e minimizzando i rischi connessi all’utilizzo delle innovazioni tecnologiche nella cura dei pazienti.

È fondamentale che questi ricevano un’informazione completa e comprensibile, affinché possano prendere una decisione consapevole riguardo al proprio trattamento. Il medico, in quest’ottica, deve essere pronto a discutere con loro i dettagli e a rispondere apertamente a tutte le domande, mantenendo un approccio rispettoso dei diritti della persona.

Egli deve mantenere un ruolo attivo e critico nell’uso dell’IA in ambito clinico, assicurando che le tecnologie siano utilizzate in modo sicuro, efficace ed etico e a tal fine deve acquisire una specifica preparazione per offrire prestazioni conformi alle nuove regole tecniche.

La struttura sanitaria - ove necessario anche con la cooperazione del produttore dei dispositivi medicali - deve a sua volta adottare adeguate misure di protezione e di gestione dei rischi, che garantiscano un elevato standard di sicurezza ed efficacia delle cure, per ridurre l’incidenza statistica di possibili danni ai pazienti e, ove questi comunque si verifichino, per escludere o attenuare la responsabilità propria e dei medici che operano al suo interno.

_______

*A cura di Antonio Albanese, Professore ordinario di diritto civile nell’Università cattolica del Sacro Cuore - Of Counsel dello studio legale Bonelli Erede

Per saperne di piùRiproduzione riservata ©