Penale

Intelligenza artificiale, mezzo di prevenzione ma anche strumento o "autore" di reato

La UE ha predisposto una bozza di Regolamento– il c.d. AI ACT – che mira a disciplinare l'utilizzo delle intelligenze artificiali da parte di soggetti privati e autorità pubbliche, nonché a gestire la loro produzione e commercializzazione nel contesto unionale e a prevedere uno specifico regime di responsabilità per produttori e fornitori

di Andrea Puccio e Federico Moncada*

La sempre maggior diffusione dei sistemi di intelligenza artificiale nell'attuale contesto socio-economico rappresenta sicuramente una delle sfide più interessanti degli ultimi anni, non solo per imprenditori e stakeholders, ma anche per gli operatori del diritto.

La regolamentazione normativa di tale fenomeno, infatti, richiede un'ampia conoscenza del funzionamento di queste tecnologie, nonché una profonda comprensione dei potenziali rischi che il loro sviluppo può generare.

Proprio nel tentativo di fornire ai Paesi dell'Unione un apparato normativo uniforme in materia, il Legislatore dell'Unione ha predisposto una bozza di Regolamento Europeo – il c.d. AI ACT – che mira a disciplinare l'utilizzo delle intelligenze artificiali da parte di soggetti privati e autorità pubbliche, nonché a gestire la loro produzione e commercializzazione nel contesto unionale e a prevedere uno specifico regime di responsabilità per produttori e fornitori.

Del resto, tali tecnologie stanno trovando trasversale applicazione in tutti gli ambiti dell'attività imprenditoriale e della vita umana, da quello medico e finanziario ai social network e alla moda.

Tra i vari settori interessati dalle intelligenze artificiali, figurano anche quelli del diritto e della giustizia penali.

Il tema è quanto mai attuale ed è carico di implicazioni sia per quanto attiene al possibile utilizzo di sistemi intelligenti per la prevenzione e il contrasto di fenomeni illeciti, sia per quanto concerne la commissione di fatti penalmente rilevanti attraverso (o ad opera) di tali tecnologie.

Con riferimento al primo punto, è noto come i sistemi di intelligenza artificiale possano rappresentare un valido strumento sia per coadiuvare le autorità giudiziarie nell'espletamento delle loro attività, sia per contrastare e prevenire la commissione degli illeciti penali.

Sotto tale profilo, in particolare, lo stesso Parlamento Europeo ha approvato, il 6 ottobre 2021, una Risoluzione non vincolante, avente ad oggetto "L'intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale", sottolineando come tale tecnologia offra grandi opportunità nelle azioni di contrasto a peculiari fattispecie criminose, quali i reati finanziari e quelli di riciclaggio e finanziamento al terrorismo.

Di contro, come anticipato, il crescente utilizzo delle macchine intelligenti da parte di privati e aziende presenta – e potrebbe presentare sempre più, in futuro - profili di rischio legati alla commissione di illeciti attraverso tali tecnologie o, addirittura, da parte delle stesse.

Tale ultimo scenario potrebbe aprire ad una rimodulazione o ad un ampliamento dei criteri ordinari di imputazione della responsabilità penale, che, pensati per un diritto penale tradizionale, "della persona", potrebbero apparire difficilmente applicabili ai reati commessi da/attraverso le intelligenze artificiali e generare, conseguentemente, un "vuoto di tutela" dinnanzi a tali manifestazioni criminose.

La questione, lungi dall'essere meramente speculativa, porta con sé una serie di implicazioni pratiche. Come noto, i sistemi di intelligenza artificiale sono caratterizzati da un sempre crescente grado di autonomia, tale da rendere, in alcuni casi, complesso persino prevederne in toto le azioni.

In un futuro non troppo distante, pertanto, potrebbe porsi il tema di dover determinare fino a che punto un illecito sia addebitabile all'umano e dove, invece, finisca per ricadere fuori dalla sua sfera di controllo.

Per tale ragione, è necessario comprendere come le disposizioni unionali intendano affrontare le questioni poste dall'avvento dell'intelligenza artificiale, nella sua doppia veste di strumento di prevenzione e contrasto del crimine e di mezzo, da un lato, o autore, del reato, dall'altro.

L'intelligenza artificiale come strumento di prevenzione e contrasto del crimine

Come si evince dalla predetta Risoluzione, il Legislatore europeo ritiene che lo sviluppo e la progettazione dei sistemi di intelligenza artificiale possa rappresentare un supporto importante per le autorità giudiziarie e amministrative nell'attività di prevenzione e contrasto del crimine.

La suddetta indicazione, del resto, si ritrova anche in numerosi studi condotti sulle applicazioni di tali tecnologie nel contesto giudiziario (1). Si fa riferimento, in primis, a quelle forme di "giustizia predittiva" in cui la macchina elabora una serie di dati statistici basati su provvedimenti precedentemente emessi in casi analoghi, per poi pervenire, a propria volta, ad una "decisione" sulla vicenda oggetto di giudizio.

Questo processo - basato sul c.d. machine learning, cioè su quella funzionalità che consente ad alcune intelligenze artificiali di imparare dalle esperienze pregresse -, se, a prima vista, offre l'opportunità di ottenere decisioni "matematicamente" più corrette, sconta, tuttavia, il rischio che la macchina non tenga conto di alcune peculiarità che caratterizzano il fatto concreto.

L'auto-apprendimento dell'intelligenza artificiale, ancorché supportato da una supervisione "esterna" ed umana non riuscirebbe, infatti, ad esaurire l'analisi dei dati e degli elementi necessari per la risoluzione di un caso concreto, di talché l'intervento "umano" si renderebbe necessario per intercettare possibili errori nel decision-making process dell'intelligenza artificiale ed "indirizzare" la sua analisi alla luce delle peculiarità del caso di specie.

In misura ancor più rilevante, come sottolineato, l'adozione e l'implementazione dei sistemi di intelligenza artificiale risulta auspicata nell'ambito delle attività di intercettazione di alcuni fenomeni criminali.

In un contesto economico-finanziario come quello attuale, in cui gli strumenti finanziari oggetto di transazione nei mercati sono sempre più complessi e tecnologici (si pensi, a titolo d'esempio, alle cryptovalute), i metodi di perpetuazione dei c.d. white collar crimes continuano ad evolversi sino a ricomprendere, sempre più spesso, l'utilizzo di sistemi all'avanguardia (2).

In questo senso, seguendo i criteri individuati dallo stesso AI Act, nonché dalla Risoluzione del Parlamento sopracitata, l'adozione e l'implementazione di sistemi di intelligenza artificiale garantirebbe un intervento mirato per la prevenzione, il contrasto e la punizione di tali fenomeni criminali.

Certamente, il ricorso a tali sistemi, come sottolineato dallo stesso Legislatore dell'Unione, deve essere ben gestito: un loro utilizzo smodato, infatti, porrebbe concreti rischi di violazione dei diritti e delle libertà fondamentali dell'Unione, quali il diritto alla riservatezza, all'informazione, nonché lo stesso diritto di difesa. Un proficuo ricorso a tali strumenti, quindi, deve tener conto dei diritti inviolabili garantiti dalla Carta dei diritti fondamentali dell'Unione Europea, onde evitare una possibile ricaduta pregiudizievole e/o una compromissione degli stessi.

L'intelligenza artificiale come strumento o autore di reati: le origini di un problema

Come anticipato, uno dei settori che potrebbe essere maggiormente messo in discussione dallo sviluppo delle intelligenze artificiali è quello del diritto penale, in ragione della già anticipata difficoltà di applicare ad un agente digitale gli ordinari criteri di imputazione della responsabilità previsti per le persone fisiche.

Una parte della dottrina, già soffermatasi su questo spinoso tema, nega una possibile responsabilità penale dell'intelligenza artificiale, mutuando un'espressione molto simile a quella a suo tempo utilizzata per escludere la responsabilità penale delle persone giuridiche: machina delinquere non potest.

L'agente artificiale non può essere ritenuto, in tale prospettiva, come un "soggetto" a cui possa essere imputata una qualche forma di responsabilità penale, trattandosi di un'entità priva di coscienza e di capacità di autodeterminarsi. Le azioni di un'intelligenza artificiale, cioè, non sarebbero mosse da una vera e propria volontà - intesa come intenzionalità - e ad esse non potrebbe essere associato un vero e proprio disvalore giuridico e morale, meritevole di pena.

Peraltro, la possibilità di muovere un rimprovero penale all'intelligenza artificiale desterebbe perplessità anche sotto il profilo strettamente sanzionatorio, in ragione del venir meno di una delle funzioni cardine della pena: come si può, infatti, rieducare una macchina?

Eppure, il sempre crescente grado di autonomia di cui godono le intelligenze artificiali – che sembrerebbe destinato, via via, ad aumentare - fa insorgere diversi dubbi sull'effettiva adeguatezza, anche in prospettiva, del sistema penalistico "antropocentrico".

Le macchine intelligenti, infatti, non si limiterebbero ad eseguire gli input e le direttive impartiti dagli utilizzatori, ma godrebbero, come anticipato, di un grado di autonomia tale da rendere imprevedibile l'output finale delle loro azioni e, in un eventuale futuro, metterle nelle condizioni di commettere autonomamente alcune fattispecie di reato (3).

In tali circostanze, onde evitare l'emersione di possibili vuoti di tutela, ogni qual volta la condotta criminosa o l'evento lesivo siano, per quanto imprevedibili, evitabili da parte dell'uomo, parte degli esperti finisce per attribuire al soggetto umano la responsabilità penale per eventuali fatti criminosi verificatisi e, in particolare, al produttore, ovvero al progettista della macchina.

In altri termini, la persona fisica che progetti un'intelligenza artificiale dotata di un'autonomia intrinseca avrebbe l'obbligo giuridico di evitare che le attività poste in essere da tale strumento diano luogo a fatti criminosi, pena l'ascrivibilità, nei suoi confronti, di una responsabilità penale colposa.

Tale criterio di imputazione, all'apparenza coerente con l'attuale sistema penalistico, cela, in realtà, diversi problemi di natura applicativa.

In primo luogo, sarebbe necessario prevedere delle fonti regolatorie che impongano al "sorvegliante umano" l'obbligo di "attivarsi" per evitare la commissione di determinate ipotesi di reato; in assenza di una specifica disciplina, infatti, non sarebbe possibile ritenere un soggetto titolare di una posizione di garanzia e, pertanto, penalmente responsabile per omissione.

A tal proposito, la Risoluzione del Parlamento Europeo suggerisce di adottare un sistema "chiaro ed equo" di attribuzione della responsabilità giuridica per potenziali conseguenze negative prodotte dall'intelligenza artificiale, sottolineando come la responsabilità debba "sempre" ricadere su una persona fisica o giuridica identificabile.

Tali disposizioni, pur ponendosi in coerenza con quanto prevederebbe la Proposta di Regolamento Europeo, con riferimento alla responsabilità dei produttori e dei fornitori dei sistemi di intelligenza artificiale, non sarebbero, tuttavia, agevolmente attuabili nel contesto dell'ordinamento penale italiano, tenuto conto che l'imputabilità di un soggetto giuridico, quantunque persona fisica o giuridica (sia pure nel contesto ex D. Lgs. 231/2001), si lega, inevitabilmente, ad un concetto di colpa.

In secondo luogo, la difficoltà applicativa nel ritenere un soggetto umano penalmente responsabile per i reati commessi dalla macchina deriverebbe, sostanzialmente, dall'elevato grado di sofisticatezza e complessità che, come visto, caratterizza le attuali intelligenze artificiali.

In diversi casi, infatti, l'obbligo di sorveglianza di progettatori e sviluppatori troverebbe significativi ostacoli anche nel machine learning, dato l'elevato rischio che le azioni delle macchine si fondino su un vero e proprio processo di autodeterminazione, e dunque svincolato dall'intervento umano.

In altri termini, la persona fisica rischierebbe di essere ritenuta responsabile per illeciti commessi dall'intelligenza artificiale, da lei non governabili e, quindi, senza che le si possa effettivamente muovere un addebito a titolo di colpa. Ragionando diversamente, infatti, si esporrebbe il produttore o il progettatore dell'intelligenza artificiale ad una forma di responsabilità penale di natura oggettiva, da ritenersi inammissibile, a norma dell'art. 27 della Costituzione, nell'ordinamento vigente.

Tale quadro, peraltro, rischierebbe di complicarsi ulteriormente laddove la macchina intelligente dovesse arrivare a commettere dei reati di natura dolosa. Difficilmente, in tali situazioni, potrebbe risultare imputabile una persona fisica, nei confronti della quale non potrebbe certamente muoversi alcun tipo di addebito o di responsabilità.

Sembrerebbe, allora, maggiormente condivisibile la suggestione, avanzata da parte di alcuni esperti (4), di muovere un addebito alla stessa persona giuridica, titolare dell'intelligenza artificiale, per i reati da questa commessi, sulla base di quanto già previsto nell'attuale contesto normativo dall'art. 8, comma 1, lett. a) del D. Lgs. 231/2001, in forza del quale "la responsabilità dell'ente sussiste anche quando l'autore del reato non è stato identificato" (c.d. principio di autonomia della responsabilità dell'ente).

Alla luce di quanto sopra, è evidente che il progressivo sviluppo di sistemi intelligenti - agevolato anche dagli ingenti investimenti che tali tecnologie stanno catalizzando - ha aperto tutta una serie di nuovi interrogativi e sfide, anche di carattere giuridico, che impegneranno istituzioni, imprese, tecnici e operatori del diritto negli anni a venire, nel tentativo di addivenire ad un bilanciamento ottimale tra il proficuo sviluppo di queste tecnologie e la necessità di regolamentarne il funzionamento e l'impatto sociale.


______
*A cura dell'Avv. Andrea Puccio, Founding Partner Puccio Penalisti Associati e del Dott. Federico Moncada

(1) N. ALETRAS - D. TSARAPATSANIS - D. PREOŢIUC-PIETRO - V. LAMPOS, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, in PeerJ computer science, 24 ottobre 2016.
(2) Dati dell'Istat dimostrano come la percentuale dei delitti informatici commessi nell'arco del periodo 2017-2021 sia aumentata del 108%.
(3) In questo senso A. GIANNINI, Intelligenza Artificiale, Human Oversight e Responsabilità Penale: prove d'impatto a livello europeo, in Criminalia, 21 novembre 2021.
(4) E. Fusco, Intelligenza Artificiale: la ricerca del «colpevole» e i possibili impatti sul Decreto 231, in La responsabilità amministrativa degli enti, 2023, fasc. 1, p. 49.

Per saperne di piùRiproduzione riservata ©