Comunitario e Internazionale

Responsabilità civile per i danni causati da "intelligenza artificiale", la UE vara AI Liability Directive

"Presunzione di casualità" e possibilità per il danneggiato di chiedere al giudice di ottenere e divulgare informazioni sulla "supply chain" dell'AI

di Margherita Cattolico*

Con il presente articolo si intende rispondere, seppur sommariamente, alla questione della responsabilità civile in caso di danni provocati da sistemi o machine learning basati su AI (Intelligenza Artificiale).

Che cosa accade se un sistema basato su elementi di Intelligenza Artificiale provoca un danno? Di chi è la responsabilità?

Dinanzi ai detti quesiti, dalla natura non strettamente teorica ma con rilievi effettivamente pratici, ci si imbatte in vuoto normativo, a cui la Commissione UE sta tentando di porre rimedio.

Invero, l'attuale normativa sulla responsabilità civile non tiene ancora conto delle evoluzioni tecnologiche innovative che caratterizzano la nostra era, seppur negli ultimi anni sono sempre più frequenti i casi in cui un soggetto risulta danneggiato a seguito dell'utilizzo di prodotti e/o servizi smart basati sull'AI.

Che cosa accade in questo caso? A chi va imputata la responsabilità?
Come si prova il nesso di causalità?


A tali interrogativi tenta di rispondere la Commissione UE che mette in campo la AI Liability Directive , ossia la proposta di una nuova norma per armonizzare la gestione dei "danni da AI" con quella dei danni "convenzionali".

In particolare, la Al liability Directive, al fine di tutelare i cittadini dinanzi a probabili danni provocati da sistemi basati su AI, introduce due novità, ovvero la cd. "presunzione di casualità" e la seconda la possibilità per il danneggiato di chiedere al giudice di ottenere e divulgare informazioni sulla "supply chain" dell'AI.

Ma cosa si intende dire nello specifico?

• Relativamente alla prima garanzia, ovvero grazie alla cd. "presunzione di casualità", il danneggiato, diversamente che nell'azioni di responsabilità per colpa ove il danneggiato nell'identificare chi citare in giudizio è tenuto a spiegare in dettaglio la colpa, il danno e il nesso di causalità tra i due, in caso di danno derivante dall'utilizzo di strumenti basati su AI, è tenuto esclusivamente a dimostrare che esiste una colpa ( es. violazione di un determinato obbligo che ha causato il danno) e che presuntivamente (ragionevole probabilità) il danno è frutto di prestazioni derivanti da AI, in modo tale che il giudice possa presumere il nesso di causalità tra l'atteggiamento colposo ed il danno provocato.

La Commissione UE, invero, evidenzia che quando un danno deriva dall'utilizzo di sistemi basati su AI, è difficile soddisfare l'onere della prova.
In tal senso dichiara che "I sistemi possono spesso essere complessi, opachi e autonomi, rendendo eccessivamente difficile, se non impossibile, il soddisfacimento dell'onere della prova da parte del danneggiato", con l'effetto che ne deriva una vera e propria tutela per il danneggiato. In virtù di ciò è stata introdotta nella Al Liability Directive la cd. "presunzione di colpa" che rafforza la tutela del cittadino danneggiato da sistemi basati su AI, alleggerendo di fatto l'onere probatorio.

• Relativamente alla seconda garanzia, ovvero la possibilità per il danneggiato di chiedere al giudice di ottenere e divulgare informazioni sulla "supply chain" dell'AI, va evidenziato che trattasi di uno strumento che consente al danneggiato di ricostruire e capire in dettaglio cosa non ha funzionato e chi potrebbe essere ritenuto responsabile, nel rispetto, tuttavia, dei diritti altrui, come ad esempio le informazioni sensibili, quali i segreti commerciali.

Su tale ultimo aspetto, volendo rappresentare in maniera pratica la possibilità del danneggiato, assumiamo l'ipotesi che ad essere danneggiato è una società cliente di una banca. Ipotizziamo che quest'ultima, ossia la banca, al fine di supportare il proprio cliente nella conoscenza periodica della propria affidabilità sotto l'aspetto finanziario, fruisca di un servizio di una società terza che tramite i dati forniti dalla banca, applicando degli algoritmi di AI ai detti dati e su servizi di machine learning di un terzo fornitore strategico, riuscendo così a garantire al cliente la conoscenza periodica della propria affidabilità.

Supponiamo che per un errore del sistema basato su AI, il cliente della banca subisca un danno, come ad esempio la sospensione di una linea di credito, a causa di un errore di valutazione afferente al suo stato finanziario e di solvibilità derivante presuntivamente dal sistema di AI utilizzato dalla banca.

Di chi è la colpa e come deve comportarsi il danneggiato?

Ebbene, grazie alla detta seconda garanzia, ossia la possibilità di chiedere al giudice di ottenere e divulgare informazioni sulla "supply chain" dell'AI, il cliente della banca potrà verificare in quale fase vi è stato l'errore e presuntivamente identificare il comportamento colpevole che ha causato il danno, con identificazione anche del responsabile.

Quanto rappresentato, sono dei primi tentativi per porre dei rimedi alle lacune normative in tema di responsabilità civile per danni da AI.

La AI Liability Directive s i applica ai danni causati da qualsiasi tipo di sistema di Intelligenza Artificiale.

Tuttavia è opportuno evidenziare, in via conclusiva, che seppur il legislatore ha inteso prevedere una presunzione di consapevolezza, quale garanzia su descritta, ciò non comporta un'automatica responsabilità nei confronti delle aziende che utilizzano o producono sistemi di AI.

In ogni caso, è fondamentale rilevare che tale normativa deve indurre anche le società terze non produttrici di sistemi AI ma che utilizzano i medesimi nell'erogazione di propri servizi, a tutelarsi dai detti fenomeni, provvedendo, ad esempio, a stipulare polizze assicurative che possano tutelarle da tali rischi di responsabilità.

Dinanzi all'evoluzione, non si può restare fermi, in tutti i sensi e l'unico punto di forza è approcciare consapevolmente a tali aspetti adottando tutte le misure preventive di tutela!

_____
*A cura dell'Avv. Margherita Cattolico, specializzato in tech law & digital transformation

Per saperne di piùRiproduzione riservata ©