Professione e Mercato

AI e responsabilità civile dei professionisti, i criteri di imputazione sono ancora idonei?

Estratto da Responsabilità e Risarcimento - Il Mensile, 1° settembre 2025, n. 49 - p. 15, a cura di Avv. Donato Silvano Lorusso - Partner BLB Studio Legale e Dott.ssa Dafne Tomasetto - BLB Studio Legale

I recenti progressi della tecnica e dell’informatica in materia di intelligenza artificiale, e la sua sempre più accentuata diffusione presso il pubblico, determinano la necessità di avviare una riflessione sull’impatto che tali tecnologie producono sui modelli tradizionali di responsabilità civile.

In particolare, l’integrazione dell’intelligenza artificiale nelle attività proprie delle professioni intellettuali - sanitarie e giuridichein primis - impone un ripensamento delle categorie giuridiche classiche e della ripartizione delle responsabilità, alla luce della complessità tecnologica e della crescente autonomia decisionale degli strumenti impiegati.

La peculiarità delle professioni intellettuali, che si fondano su competenze tecniche elevate e su un vincolo fiduciario con il destinatario della prestazione, fa emergere interrogativi specifici in ordine alla responsabilità dell’operatore, quando l’attività professionale si avvalga di sistemi intelligenti. Il problema non è soltanto quello di attribuire la responsabilità in caso di errore, ma di comprendere se i criteri di imputazione attualmente vigenti siano ancora idonei a fornire tutela effettiva al soggetto leso, oppure se risulti necessario elaborare un nuovo modello normativo, capace di tenere conto della compresenza, nella stessa attività, di fattori umani e algoritmici.

Il settore sanitario, già oggetto di una stratificazione normativa che distingue la responsabilità della struttura da quella del singolo sanitario, presenta oggi nuovi profili critici connessi all’utilizzo di dispositivi dotati di autonomia operativa, il cui comportamento non è sempre prevedibile né del tutto comprensibile dall’utente. Simili considerazioni si pongono anche nel settore giuridico, dove l’impiego di sistemi predittivi o consulenziali a base algoritmica nella prassi forense e nella gestione del contenzioso solleva dubbi sull’affidabilità dell’output e sulla distribuzione della responsabilità tra professionista, committente e fornitore tecnologico.

L’obiettivo di questo contributo è indagare, in una prospettiva sistematica, le implicazioni dell’uso dell’intelligenza artificiale nella responsabilità dei professionisti intellettuali, con un focus sul quadro normativo europeo, sui settori sanitario e giuridico e sulla necessità, sempre più urgente, di conciliare l’innovazione con i principi di tutela della persona e certezza del diritto.

La normativa in materia di intelligenza artificiale: legislazione europea e prospettive di regolamentazione italiana

La crescente diffusione dell’intelligenza artificiale, specie in ambito professionale, ha spinto il legislatore europeo ad avviare un ampio e strutturato processo di regolazione, finalizzato a garantire che l’uso di tali tecnologie sia coerente con i principi fondamentali di sicurezza, responsabilità e tutela dei diritti. In particolare, la normativa europea mira a colmare le lacune normative che emergono nel momento in cui i sistemi di IA - per loro natura complessi, opachi e spesso autonomi - vengono integrati in attività professionali ad alta intensità cognitiva, come quelle giuridiche e sanitarie.

In questi ambiti, l’impiego dell’IA può avere conseguenze rilevanti sia sotto il profilo dell’efficienza e dell’accuratezza, che della responsabilità civile del professionista che ne fa uso.

La disciplina in materia si articola su più livelli.

Da un lato, il legislatore europeo ha confermato l’applicabilità dei principi generali già previsti, ad esempio, dalla Direttiva 85/374/CEE in tema di responsabilità per danno da prodotti difettosi. Tuttavia, come evidenziato già nel Libro Bianco sull’intelligenza artificiale del 2020 e nella Risoluzione del Parlamento europeo del 20 ottobre dello stesso anno, questi strumenti risultano solo parzialmente adeguati a fronte delle peculiarità delle tecnologie intelligenti.

In particolare, è stato riconosciuto che, in presenza di sistemi basati sull’IA, può risultare difficile individuare con chiarezza il difetto del prodotto, accertare il nesso causale e, soprattutto, attribuire la responsabilità a uno specifico soggetto, in considerazione della pluralità di attori coinvolti nello sviluppo, aggiornamento e utilizzo di tali tecnologie.

È in questo contesto che si colloca l’AI Act, ossia il Regolamento europeo sull’intelligenza artificiale, destinata a costituire il primo quadro normativo organico e vincolante al mondo in materia.

CONTINUA SU RESPONSABILITÀ E RISARCIMENTO - IL MENSILE, 1° SETTEMBRE 2025, N. 49 - P. 15

Per saperne di piùRiproduzione riservata ©