La responsabilità nell’era dell’algoritmo: una sfida ancora aperta in Europa
All’indomani del ritiro della proposta UE sulla responsabilità da intelligenza artificiale, con una stratificazione normativa su più livelli e senza un criterio unitario, sarà principalmente la giurisprudenza ad assumere un ruolo centrale nel derimere contrasti fra utenti ed erogatori dei servizi AI
Il fronte delle tecnologie IA in Europa si muove in queste settimane in modo tanto repentino quanto imprevisto. Ad una positiva accelerazione delle politiche di investimento comunitarie sulle infrastrutture computazionali e per l’accesso ai capitali essenziali all’avvio di progetti AI (i programmi strategici InvestAI e ApplyAI) si contrappone infatti l’annuncio del 19 febbraio scorso da parte della Commissione Europea circa la decisione di ritirare la proposta legislativa sulla responsabilità da intelligenza artificiale (COM/2022/496).
La proposta era stata presentata nel 2022 per integrare e aggiornare il quadro comunitario in materia di responsabilità civile, introducendo per la prima volta norme specifiche per i danni causati da sistemi di intelligenza artificiale, a seguito della valutazione circa l’inadeguatezza della disciplina tradizionale nel dare adeguata risposta giuridica ai problemi risarcitori derivanti dall’uso di queste tecnologie.
Con riferimento alla disciplina del danno per colpa, la variabilità indotta dai modelli algoritmici e l’opacità dei loro processi decisionali portano ad un livello di elevata complessità l’individuazione di un nesso causale diretto tra il comportamento dell’algoritmo IA e l’evento lesivo, rendendo obiettivamente difficile, se non impossibile, il soddisfacimento dell’onere della prova da parte del danneggiato e di conseguenza, la possibilità concreta di vedersi riconosciuto il diritto al risarcimento.
Garantendo l’eseguibilità dell’azione, la direttiva avrebbe dovuto quindi contribuire alla tutela effettiva del diritto, tramite ricorso ad un giudice imparziale da parte di una persona fisica o giuridica, di agire a tutela dei propri interessi, come per altro sancito dalla Carta dei diritti fondamentali dell’Unione europea.
Da sottolineare inoltre che le azioni intentate per colpa o omissione, avrebbero interessato qualsiasi tipo di danno contemplato dal diritto nazionale e quindi anche quelli derivanti dalla violazione di diritti fondamentali, rinforzando tramite questo ulteriore istituto normativo, la ratio stessa per cui è stata ideata la disciplina Europea per l’Intelligenza Artificiale.
Se da un lato il vigente Regolamento 2024/1689/EU (AI Act) ha infatti agito sul rischio e quindi sul fronte della prevenzione di potenziali danni, stabilendo i criteri di trasparenza, di conformità ai principi fondamentali ed etici, dall’altro la disciplina proposta dalla Direttiva avrebbe dovuto offrire, in modo complementare, un modello per l’imputazione della responsabilità in caso di colpa, negligenza o imperizia, considerando che i rischi derivati da quest’ultima tipologia di danno, non saranno mai annullabili completamente.
Il combinato disposto delle due norme avrebbe quindi costituito un caposaldo per la concreta ed efficace attuazione delle salvaguardie e dei principi ampliamente dibattuti e sostenuti in questi ultimi anni.
Altri elementi portano a ragionare sull’effettiva utilità della Direttiva. L’impianto della proposta di norma prevedeva infatti tre elementi fondamentali. Il primo riguardava come detto, l’introduzione di una presunzione di colpa nei confronti degli operatori responsabili dei sistemi di IA. Il secondo elemento, ausiliario al primo, riguardava l’accesso alle prove mediante misure che avrebbero agevolato nell’acquisizione delle informazioni probatorie necessarie.
L’ultimo elemento, conformemente all’art. 114 TFUE e con l’obiettivo di incidere sui meccanismi di funzionamento del mercato unico, tendeva invece ad ottenere una armonizzazione della disciplina negli Stati membri, al fine di annullare le diseguaglianze esistenti nelle condizioni di tutela giuridica con le eventuali possibili asimmetrie interpretative delle rispettive autorità giudiziarie.
Oltre a garantire una tutela efficace, la proposta legislativa intendeva quindi superare le differenze nazionali del vigente istituto, fornendo ad operatori, sviluppatori e utilizzatori, criteri certi e univoci a vantaggio di un’equa concorrenza del mercato. Inoltre, avrebbe contribuito positivamente nel creare maggior fiducia per l’utente e per il consumatore finale dei prodotti e delle soluzioni basate su Intelligenza Artificiale.
La Commissione ha scelto in ultimo di preservare il regime delle normative nazionali. Nella sua decisione ha certamente ragionato sugli adeguamenti nazionali che il Regolamento AI Act forzerà a compiere e ha inoltre presumibilmente tenuto conto delle istanze provenienti dal mondo delle imprese, meno propense all’introduzione di regimi di responsabilità più severi e con preferenza per i modelli di autoregolazione. Ciò che per alcuni poteva essere un eccesso di regolamentazione che avrebbe inciso negativamente sulle imprese tecnologiche europee e sulla loro capacità di competere con i grandi “player globali”, a questo punto non potrà più essere motivo per giustificare ritardi negli investimenti per lo sviluppo tecnologico in Europa.
Il futuro, tuttavia, si preannuncia quanto meno complicato: con normative strutturate su più livelli e senza un criterio unitario di riferimento, sarà infatti principalmente la giurisprudenza ad assumere un ruolo centrale nel derimere contrasti fra utenti ed erogatori dei servizi AI. Di conseguenza, come prevedibile ed a discapito di una maggior certezza del diritto nell’Unione, si svilupperanno nel tempo orientamenti giurisprudenziali divergenti basati sui casi concreti esaminati dalle varie corti, percorsi che renderanno il tema della responsabilità extracontrattuale per danno da soluzione IA un tema importante nella pratica forense e nella disciplina dell’informatica giuridica, mettendo alla prova le nuove competenze di queste professioni.
_______
*Riccardo Perlusz, Pollicino Advisory & Partners