Civile

Una carta etica europea per limitare la giustizia definita dai big data

immagine non disponibile

di Riccardo Borsari

L’intelligenza artificiale e il machine learning rappresentano una sfida senza precedenti per il mondo moderno e, nel panorama giuridico, uno dei principali ambiti di diffusione di tali strumenti è costituito dal perseguimento della condotta vietata: si fa riferimento alla sempre più diffusa applicazione dell’intelligenza artificiale nell’ambito dei sistemi di giustizia predittiva.

Ciò è possibile grazie ai Big Data, le ingenti quantità di dati che provengono da una serie di fonti diverse e che sono oggetto di trattamento automatizzato mediante algoritmi informatici e tecniche avanzate di trattamento dei dati, al fine di individuare correlazioni, tendenze o modelli.

Il più famoso software di giustizia predittiva è Compas (acronimo di Correctional offender management profiling for alternative sanctions), sviluppato da un’azienda privata e utilizzato dai giudici di diversi Stati americani per valutare il rischio di recidiva dell’imputato attraverso l’elaborazione dei dati emersi dal fascicolo processuale e dall’esito di un test a 137 domande.

Non è pubblicamente noto il meccanismo di funzionamento dell’algoritmo e tale circostanza è stata rilevata come una violazione del principio di giusto processo da Eric Loomis, il quale – dando vita al celebre Loomis case – ha impugnato la sentenza che lo ha condannato a sei anni di carcere per non essersi fermato a un controllo di polizia: nella determinazione della pena il giudice aveva tenuto conto del fatto che Compas aveva classificato Loomis come persona altamente propensa a ripetere lo stesso reato. Nel 2016, la Corte Suprema del Wisconsin ha rigettato l’appello, sostenendo che il verdetto sarebbe stato lo stesso anche senza l’uso di Compas. La sentenza di secondo grado, tuttavia, ha invitato alla cautela e a esercitare il dubbio nell’uso dell’algoritmo. Peraltro, uno studio del 2016 ha analizzato le valutazioni svolte da Compas su oltre settemila persone arrestate nella contea di Broward, in Florida: l’inchiesta sostiene che l’algoritmo abbia dei pregiudizi nei confronti degli afroamericani. In particolare, i neri avrebbero quasi il doppio delle possibilità dei bianchi di essere etichettati come “ad alto rischio” pur non incorrendo poi in recidiva; secondo il gruppo di ricerca, peraltro, Compas commetterebbe l’errore opposto tra i bianchi, i quali avrebbero più possibilità dei neri di essere etichettati “a basso rischio”, salvo poi commettere altri reati.

L’utilizzo degli algoritmi in ambito processuale si estende anche all’esercizio della professione forense: in Francia è stata implementata una piattaforma che “predice” gli esiti giudiziari, anticipando il risultato potenziale della causa e agevolando così la decisione sull’opportunità o meno di promuovere un determinato giudizio. Il software Predictice, destinato agli avvocati, calcola la probabilità statistica di successo della causa, l’ammontare dei risarcimenti ottenuti in contenziosi simili e gli argomenti su cui sia conveniente insistere. L’algoritmo utilizza un database che include un milione di righe di documenti, sentenze, codici e testi giuridici: facendo leva sul linguaggio giuridico (che segue determinati standard), viene automatizzata l’indicizzazione e l’interpretazione dei dati, con l’aggiunta di metadati con le caratteristiche delle controversie. La piattaforma consente, addirittura, di confrontare le diverse strategie processuali in modo da poter costruire, sulla base delle variabili del caso, l’argomentazione che ha più probabilità di successo.

Tra i vantaggi riconducibili all’utilizzo di questo tipo di strumento possono riconoscersi la diminuzione delle vertenze pretestuose e il perseguimento di una certa qual prevedibilità delle decisioni. Il rischio, tuttavia, è l’affermarsi di una giustizia predittiva, automatizzata ma soprattutto omologata e ripetitiva.

Il potenziale di operatività dell’intelligenza artificiale nell’amministrazione della giustizia è, a ben vedere, enorme. Di ciò hanno preso contezza anche le istituzioni europee: la Commissione europea per l’efficienza della giustizia del Consiglio d’Europa (Cepej) ha, infatti, recentemente approvato la prima carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari.

Tra i principi affermati spiccano il principio di non discriminazione, di qualità e di sicurezza, di trasparenza e neutralità nell’utilizzo degli strumenti tecnologici. In particolare, si afferma l’importanza di preservare il potere del giudice di controllare in qualsiasi momento le decisioni giudiziarie e i dati utilizzati, nonché di continuare ad avere la possibilità di discostarsi dalle soluzioni proposte dall’Intelligenza Artificiale, tenendo conto delle specificità del caso concreto.

Per saperne di piùRiproduzione riservata ©