Responsabilità

Ue, in arrivo nuove norme per regolare la responsabilità dall’uso dei sistemi di intelligenza artificiale

In discussione la direttiva sulla responsabilità da prodotto difettoso e sulla responsabilità civile extracontrattuale da intelligenza artificiale

AI rules and law concept enforce to control AI artificial intelligence social responsibility and ensure fairness and transparency in usage of NLP generative AI to comply with international regulation

di Jacopo Liguori*

Quali sono le sfide legali nell’uso dei sistemi di intelligenza artificiale?

I sistemi AI sono oggi largamente utilizzati e migliorano le nostre vite in quasi tutti i settori (pensiamo alla sanità, al mondo del lavoro, alla logistica, al settore finanziario). È un mercato in forte crescita: 130 miliardi di dollari a livello globale nel 2022 e solo in Italia 750 milioni di euro nel 2023, in crescita del 52% rispetto all’anno precedente. Insieme alle opportunità occorre tuttavia porre attenzione ai rischi che sistemi non sicuri possono porre, con potenziali sanzioni e richieste di danni. La sfida è quindi quella di rafforzare la fiducia delle persone nell’uso di sistemi AI attraverso il rispetto di norme e meccanismi di tutela efficaci.

Chi è responsabile nel caso in cui il sistema di intelligenza artificiale provochi un danno?

Tradizionalmente, le norme sulla responsabilità sono state pensate per regolare e sanzionare il comportamento umano. Tuttavia, i sistemi di intelligenza artificiale prendono decisioni e azioni sempre più complesse in modo completamente automatizzato, senza l’aiuto di un operatore umano. È quindi molto difficile o in alcuni casi impossibile ricondurre specifiche azioni dannose dei sistemi di intelligenza artificiale a uno specifico input umano o a decisioni adottate in fase di progettazione.

Qual è il quadro giuridico previsto dall’Unione Europea per regolare la responsabilità dall’uso dei sistemi di intelligenza artificiale?

L’Unione Europea ha predisposto una serie di norme che combinano “ sicurezza ” (con una protezione ex ante) e “ responsabilità ” (con una protezione ex post) nell’uso dei sistemi di intelligenza artificiale.

Sotto il primo profilo, il regolamento sulla intelligenza artificiale mira a ridurre i rischi per la sicurezza, la salute e altri diritti fondamentali degli individui stabilendo requisiti minimi per determinati sistemi di intelligenza artificiale e procedure di valutazione della conformità prima dell’immissione sul mercato di sistemi di intelligenza artificiale. 

Riguardo invece alla protezione ex post sono attualmente in discussione

(i) la direttiva sulla responsabilità da prodotto difettoso, che si propone di modificare l’attuale quadro normativo, adeguandolo al mercato digitale e

(ii) la direttiva sulla responsabilità civile extracontrattuale da intelligenza artificiale che mira ad armonizzare le norme degli Stati Membri dell’Unione Europea, rendendo possibile agire contro qualsiasi soggetto che utilizza i sistemi AI (ad es. il medico che utilizza un sistema di intelligenza artificiale che provoca un danno al paziente) e garantendo un risarcimento a qualsiasi tipo di danno (vita, salute, proprietà, privacy, ad es. il fallimento di un colloquio di lavoro a causa di un software che valuta le candidature che riveli un effetto discriminatorio).

Si prevede un alleggerimento dell’onere della prova per il danneggiato, tramite un diritto alla divulgazione degli elementi di prova da esercitarsi attraverso l’ordine di un giudice e presunzioni relative al danno o alla colpevolezza grazie alle quali i danneggiati non dovranno spiegare in dettaglio come il danno sia stato causato da una determinata colpa o omissione. Dall’altro lato ci sarà un diritto di opposizione del danneggiante rispetto alla presunzione e un diritto di mantenere riservate certe informazioni.

Cosa fare per prepararsi all’uso dei sistemi di intelligenza artificiale e minimizzare i rischi?

L’uso di tecnologie di intelligenza artificiale non può prescindere da un’adeguata due diligence sul funzionamento dei sistemi e i rischi che possono creare. Bisogna poi essere preparati ad ottemperare all’obbligo di produrre determinate informazioni. Una corretta compliance può d’altro lato essere utile durante le trattative contrattuali per ottenere finanziamenti o negoziare accordi di partnership, in modo da rassicurare i propri interlocutori sulla validità del progetto di intelligenza artificiale. Infine, occorre valutare adeguate coperture assicurative rispetto ai danni che possono creare i sistemi di intelligenza artificiale.

______

*A cura di Jacopo Liguori – Partner Withers

Per saperne di piùRiproduzione riservata ©