AI e giustizia, il nodo del diritto alla spiegazione dei processi decisionali
L’algoritmizzazione della giustizia solleva questioni complesse dal punto di vista dell’effettiva tutela giurisdizionale
Le corti in tutto il mondo si stanno digitalizzando. Secondo un recente rapporto della Commissione Europea per l’Efficienza della Giustizia, le tecnologie dell’informazione e della comunicazione (TIC), un’ampia categoria che include varie forme di strumenti di digitalizzazione, svolgono un ruolo fondamentale nei sistemi giudiziari, in particolare in tre ambiti chiave: automazione, riorganizzazione e gestione, e capacità generative.
Le TIC facilitano l’automazione semplificando le attività ripetitive, come l’elaborazione dei documenti e la pianificazione degli eventi, liberando così tempo prezioso per il personale giudiziario, che può così concentrarsi su questioni più complesse. Consentono, inoltre, la riorganizzazione delle operazioni giudiziarie fornendo strumenti per una gestione efficiente dei casi, l’allocazione delle risorse, e il monitoraggio delle prestazioni.
Tuttavia, il report non discute i nuovi strumenti di intelligenza artificiale che stanno avanzando nel settore giudiziario a livello globale. Si tratta di generative AI e algoritmi di vario genere, usati, ad esempio, per calcolare il tasso di recidiva degli imputati.
Le giurisdizioni di tutto il mondo si stanno affrettando ad integrare l’intelligenza artificiale nei loro sistemi giudiziari. Recentemente, i tribunali del Regno Unito hanno introdotto Microsoft AI Copilot nella loro infrastruttura, mentre misure adottate a livello europeo come la Strategia Digitale dell’UE e il Next Generation EU stanno spingendo gli Stati membri a migliorare le competenze e gli strumenti digitali nelle loro giurisdizioni, anche nei rispettivi sistemi giudiziari. Anche l’Italia sta intraprendendo piani ambiziosi per digitalizzare l’infrastruttura di tribunali e amministrazioni. L’entusiasmo intorno a queste nuove forme di automazione è elevato, ma emergono profonde e complesse sfide per la giustizia del futuro.
Si consideri, ad esempio, il seguente scenario. Francisco, un cittadino spagnolo residente in Francia, è stato licenziato ingiustamente e ha avviato un’azione legale contro il suo datore di lavoro. Il giudice adito ha stabilito che Francisco ha diritto a un risarcimento, ma solo nella misura minima prevista dalla legge. Un algoritmo utilizzato dal giudice ha determinato l’importo del risarcimento. Francisco non è soddisfatto poiché ritiene di dover ricevere un importo maggiore; pertanto, valuta la possibilità di impugnare la decisione. Tuttavia, all’avvio del procedimento, si imbatte in diverse problematiche.
Innanzitutto, Francisco è preoccupato per la parzialità di questo strumento algoritmico. Tuttavia, non ha accesso alla logica dello strumento, ovvero al modo in cui è giunto al suo risultato, né ai criteri e ai dati utilizzati. Ciò non sorprende: gli strumenti algoritmici tendono ad essere opachi, il che significa che i destinatari dei processi decisionali automatizzati spesso non hanno accesso alle motivazioni e ai dati utilizzati per raggiungere la decisione algoritmica.
L’assenza di accesso ai dati ostacola la possibilità di Francisco di impugnare la decisione, in quanto non può dimostrare l’illegittimità dell’output algoritmico. E anche se avesse accesso ai dati, si rende conto che, alla luce della sua inesperienza nel settore, dovrebbe incaricare un esperto per esaminare il funzionamento dell’algoritmo e l’accuratezza dei dati utilizzati per addestrarlo. Queste circostanze rendono il piano di Francisco di impugnare la decisione dell’algoritmo virtualmente impossibile, poiché non può dimostrare la parzialità (o bias) dello strumento utilizzato dal giudice. A complicare ulteriormente le cose, l’attuale governo ha creato incentivi per i giudici affinché facciano affidamento sugli algoritmi, al fine di accelerare la risoluzione dei casi pendenti alla luce di un significativo arretrato giudiziario. Tuttavia, dal punto di vista di Francisco, questa politica interferisce con la capacità dei giudici di esercitare appieno i loro poteri giudiziari e la loro discrezionalità, compromettendone così la loro indipendenza.
Questo scenario è fittizio, e può sembrare distopico, ma il progresso dell’intelligenza artificiale giudiziaria potrebbe rendere questi casi possibili, se non comuni. La storia di Francisco rivela che l’algoritmizzazione della giustizia solleva questioni complesse dal punto di vista dell’effettiva tutela giurisdizionale.
Come potrebbe, il nostro Francisco, rilevare che l’algoritmo usato nel tribunale non è impaziale alla luce delle difficoltà descritte?
Il quadro è ulteriormente complicato dall’entrata in vigore dell Regolamento UE sull’IA. Tale atto introduce una governance che si basa sul rischio dei sistemi di IA nell’UE. A seconda del loro livello di rischio, i sistemi di IA devono rispettare determinate condizioni pre-commercializzazione prima di essere venduti nell’UE. Tale Regolamento classifica l’IA giudiziaria come una categoria ibrida, a metà strada tra i requisiti di rischio elevato e medio. Di conseguenza, qualora il sistema usato dal giudice non venga considerato ad alto rischio, Francisco potrebbe non aver diritto ad una spiegazione ai sensi dell’articolo 86 del suddetto regolamento. Il futuro della giustizia al tempo dell’intelligenza artificiale potrebbe non esser così semplice e prospero, soprattutto per gli individui più bisognosi di protezione. Cautela è dunque d’ordine nel considerare come configurare la giustizia artificiale del futuro.
_______
*Giulia Gentile, Pollicino & Partners Advisory, Università dell’Essex