Professione e Mercato

Giustizia predittiva - Il mondo forense si interroga su trasparenza, conformità e nuovi scenari di responsabilità professionale

Nonostante i quesiti ancora senza risposta, le perplessità e le critiche, la giustizia predittiva continua il suo percorso (soprattutto quella induttiva), oramai abbastanza inevitabile, sia negli ordinamenti stranieri che in quello interno e nelle Corti di Appello italiane

di Alberto Del Noce*

Applicando le definizioni di cui al precedente contributo al mondo giuridico, si potrebbe definire la giustizia predittiva come quella parte di tecnologia finalizzata a realizzare dispositivi che, percependo il proprio ambiente mediante l'acquisizione di dati, l'interpretazione dei dati strutturati o non strutturati raccolti, il ragionamento sulla conoscenza o l'elaborazione delle informazioni derivate da questi dati, individuano le azioni più utili da intraprendere per velocizzare le attività ed evitare eventuali errori umani nell'esercizio della giurisdizione, con l'obiettivo di rafforzare la certezza dell'ordinamento giuridico, attraverso il contenimento del soggettivismo giudiziario.

Alcuni autori ritengono che questo sia possibile principalmente sulla base del disposto normativo di cui all'art. 12 delle preleggi, che vieta di interpretare la legge attribuendo ad essa un significato diverso da quello fatto palese dal significato proprio delle parole secondo la connessione di esse.

Tale norma costituisce essa stessa un algoritmo, in quanto impone all'interprete una sequenza predeterminata di operazioni che sono strumentali per la produzione di una soluzione. Difatti, l'art. 12 delle preleggi fissa una regola, un metodo vincolante, per risolvere i conflitti interpretativi, spiegando sia le tipologie di interpretazioni possibili e sia l'eventuale prevalenza di una sull'altra: i dati da inserire nell'algoritmo devono contenere quanto scritto dagli avvocati nei propri scritti difensivi, così da metterli in comparazione per la previsione dell'esito della causa o verificare eventuali vizi della decisione, ai fini dell'impugnazione (cd. metodo deduttivo).

Gli stessi autori riconoscono, tuttavia, che vi sono dei settori dell'ordinamento in cui non è possibile applicare i modelli matematici interpretativi, come accade per quelli in cui si deve valutare l'interesse superiore del minore.

Un altro metodo (cd. induttivo) per giungere ad un modello di giustizia predittiva è quello su base essenzialmente statistica, come quello attuato dalla Corte di Appello di Brescia, con cui viene in considerazione un ventaglio di opzioni che hanno in comune l'applicazione di sofisticate tecnologie sia con finalità di carattere analitico/induttivo sia con finalità prospettico-predittivo: si tratta, in buona sostanza, di individuare l'orientamento del Tribunale o della singola sezione su una determinata tipologia di controversie, al fine di orientare meglio le scelte delle parti e dei difensori: l'analisi, diversamente dal caso precedente, si basa sull'inserimento dei dati quali i soli precedenti giudiziari, senza i singoli atti delle parti; si guarda il numero di precedenti, così da predire come si orienterà il giudice.

Nonostante quesiti ancora senza risposta, le perplessità e le critiche, la giustizia predittiva continua il suo percorso (soprattutto quella induttiva), oramai abbastanza inevitabile, sia negli ordinamenti stranieri che in quello interno e nelle Corti di Appello italiane.

È recente la proposta di legge (del 5 maggio 2022) di introduzione dell'articolo 5-bis nella Legge 27 luglio 2000, n. 212 (cd. statuto del contribuente) concernente l'istituzione di una piattaforma telematica di giustizia predittiva in materia tributaria, che si pone come obiettivi:
• certezza del diritto: si afferma nella proposta di legge che "ogni persona deve essere in grado di valutare e prevedere, in base alle norme generali dell'ordinamento, le conseguenze giuridiche della propria condotta";
• principio di eguaglianza ex art. 3, comma primo, Cost.;
• deflazione del contenzioso: professionisti e cittadini, in maniera non vincolante, possono conoscere preventivamente i possibili esiti di un giudizio e quindi scegliere eventualmente di desistere dall'azione giudiziaria e/o di ricorrere agli A.D.R.

Ed in materia tributaria gli Avvocati si stanno ponendo seri dubbi di trasparenza, tenuto conto che il soggetto che sta elaborando modelli di giustizia predittiva è… la controparte del cittadino, e cioè l'Erario. In ogni caso la Magistratura si sta mostrando favorevole alla giustizia predittiva, che sta facendo il suo corso ed appare inarrestabile.

La Corte di Appello di Bari ha da tempo avviato un progetto, denominato "Praedicta", con un gruppo di lavoro composto da Magistrati dei diversi uffici e settori di tutto il territorio (civile, penale, minorile, lavoro), coordinato dal Presidente di sezione Dott. Michele Ancona ed in convenzione con l'Università degli Studi di Bari, volto proprio ad elaborare idee sulle possibili applicazioni della giustizia predittiva nel distretto di Corte di Appello, anche attraverso la creazione di banche dati e l'elaborazione di algoritmi.

La Corte di Appello di Brescia, oramai da alcuni anni, come sopra anticipato, attua un modello di giustizia predittiva ed ha realizzato un sito in cui presenta, raggruppate per aree tematiche, decisioni selezionate del Tribunale Ordinario di Brescia e della stessa Corte di Appello in materia di diritto del lavoro e di diritto delle imprese, all'interno del quale si può percorrere, secondo un grado crescente di approfondimento. Un "itinerario" guidato e teso ad individuare la vicenda giudiziaria più appropriata, per identità o similitudine, a quella di proprio interesse, giungendo, alla fine di quell'itinerario, alla soluzione cercata. Tutto ciò utilizzando formule linguistiche e grafiche essenziali.

La Corte di Cassazione e la Scuola Universitaria Superiore IUSS Pavia hanno sottoscritto il 29 settembre 2021 un Accordo Quadro al fine di attivare una collaborazione strategica, tra la stessa Scuola e il Centro Elettronico di Documentazione (C.E.D.) della Corte, per lo sviluppo di ricerca avanzata nel settore degli strumenti tecnici per la raccolta e l'organizzazione del materiale giuridico digitale. I.U.S.S. e C.E.D. hanno espressamente condiviso i seguenti obiettivi:
• predizione dell'esito dei processi decisionali giudiziari, amministrativi e politici;
• estrazione di argomenti giuridici dal corpus delle sentenze e decisioni di Italgiure (argument mining);
• creazione automatica di massime (summarization);
• strumenti di creazione automatica di documenti (document builder), nonchè altre possibilità di valorizzazione del patrimonio documentario di Italgiure.

Con riguardo alle Corti Europee, è in corso uno studio di giustizia predittiva sulle sentenze della Corte Europea dei Diritti dell'Uomo: il metodo è il primo che cerca di prevedere le decisioni di un tribunale internazionale analizzando automaticamente il testo dei documenti di causa utilizzando un algoritmo ad apprendimento automatico. "Uno strumento prezioso per evidenziare quali casi hanno maggiori probabilità di essere violazioni della Convenzione europea dei diritti dell'uomo", ha spiegato il dott. Nikolaos Aletras, che ha guidato lo studio presso l'UCL Computer Science. Il team di scienziati informatici e legali del Regno Unito, insieme al dott. Daniel Preoţiuc-Pietro dell'Università della Pennsylvania-Sheffield, ha estratto le informazioni sui casi pubblicate dalla Corte EDU nel proprio database accessibile al pubblico.

Di per sé, la giustizia predittiva non intende indebolire la Giustizia, formalmente ha nobili scopi: pretende infatti di realizzare la Giustizia in modo più scientifico, di favorire l'accesso all'informazione, di liberare gli Avvocati da compiti ripetitivi e di ridurre la componente di arbitrio personale dei giudici. Però, al di là dell'immediata euforia è nostro dovere esaminare anche quali ricadute negative può avere la rivoluzione digitale, in un settore particolare e specifico come quello della Giustizia, e comprendere quando l'utilizzo della digitalizzazione dei dati può migliorare il funzionamento della Giustizia e quando invece esso snatura il profilo umano ed istituzionale dello ius dicere.

Seppur in modo sintetico, qui di seguito si pongono in evidenza alcune riflessioni e precisazioni.

PRIMA PRECISAZIONE - Dovrebbe esser fatta una distinzione tra il significato del termine " predizione " e quello del termine "previsione". La predizione è l'atto di annunciare anticipatamente (prae, prima - dicere, dire) gli avvenimenti futuri. Etimologicamente, predittivo vuol quindi significare "annunciare ad altri quello che sarà o accadrà" ovvero "fissare, decidere in anticipo". La previsione è il risultato invece dell'osservazione (prae, prima - videre, vedere) di un insieme di dati al fine di prevedere una situazione futura. Significa immaginare, supporre, un evento possibile.

Quindi, sarebbe più corretto parlare di Giustizia Previsionale.

Tale distinzione non costituisce una mera cavillosità lessicale poiché utilizzare con disinvoltura il termine predittivo rischia di insinuare e radicare una credenza, e cioè che la risposta dell'algoritmo utilizzato è una Verità incontrovertibile ed inconfutabile.

Tale confusione del linguaggio rischia poi di far passare un'immagine antropomorfica della macchina, che sarebbe dotata di una capacità umana, capace persino di avere coscienza. Con un ottimismo fideistico che porta a pensare che ciò che non è possibile oggi lo sarà domani, senza calcolarne il prezzo.

Ricordiamoci le vecchie lezioni di filosofia, quando ci veniva detto che quando nasce la filosofia scompare il mito. Se con l'intelligenza artificiale sta scomparendo la filosofia quello che torna il mito.

Privi di una riflessione filosofica, privi di una riflessione razionale su che cos'è l'intelligenza artificiale, animati dal mito, rischiamo di dare queste nuove scatole nere (che sono gli algoritmi) il potere di essere oracoli sulla nostra vita e sempre di più chiediamo all'oracolo cosa è giusto e cosa è buono. E sempre di più ci affidiamo a questi oracoli quando scegliamo un ristorante, ecc. Allora, una volta gli Dei abitavano il Partenone: oggi abitano nuove divinità, abitano in quei templi che si chiamano APP, che sono sullo schermo del nostro telefono. Abbiamo delle nuove divinità con cui ci relazioniamo in una materia in una maniera che potremmo definire senz'altro religiosa.

Occorre porci una prima domanda sostanziale: la scienza dice la verità?
La mia personale risposta è: No! La scienza non si è mai voluta occupare della verità. Come già detto, la scienza dice solo cose esatte. Ma l'esattezza non è la verità. Dire "esatto" non significa dire "vero". Anche un grande storico come Alessandro Barbero ha ricordato che la scienza non formula verità ma ipotesi. Ipotesi che devono esser sempre verificate e che quasi sempre vengono sostituite da nuove ipotesi. Marco Paolini ha ricordato come verso la tecnologia possiamo nutrire speranza, ma non la fiducia (fides e radice indoeuropea bheidh: ci si consegna a, affidamento sicuro). La fiducia si accredita alla natura.

Il valore della tecnica è l'efficienza. La tecnica non tende ad uno scopo, non apre a scenari di salvezza, non dice la verità ma… funziona. E dato che il suo funzionamento diventa universale, la regola saranno gli effetti del suo funzionamento.

La scienza vuole la regola, che toglie al mondo il suo aspetto pauroso. La scienza vuole il calcolo perché tutto ciò che non è calcolabile diventa inquietante. Ma cos'è la verità? Un esercito di metafore, di metonimie, di relazioni sociali, che a furia di esser collaudate, ripetute e divenute abituali, assumiamo come vere.

Una seconda domanda: la Giustizia è una scienza? È una scienza esatta? A mio giudizio anche a questa domanda occorre dare una risposta negativa.
Diversa è la verità processuale e la verità sostanziale. La verità è lo sguardo sulle cose con la consapevolezza che tutte le cose sono null'altro che interpretazioni delle cose.

• SECONDA PRECISAZIONE - Occorre poi porre in evidenza che spesso vi è spesso confusione tra l'accesso alle informazioni e l'accesso ai dati. I dati raccolti mediante l'informatica costituiscono il "petrolio" del XXI secolo ma sono solo lettere e cifre prive di significato. Le informazioni sono dati inseriti in un contesto ed è il contesto che dà un significato ai dati. Nello stesso tempo, i dati (soprattutto quelli cd. aperti) non devono esser confusi con i mezzi di trattamento.

Ricordiamoci che i dati riferiti ad una persona possono essere estremamente numerosi, complessi e di varia natura. La profilazione della persona potrebbe contenere (e sappiamo che già contiene) dati che rivelano la sua origine etnica o razziale, le sue opinioni politiche, il suo credo religioso o di altro tipo, la sua salute mentale o fisica o la vita sessuale, ecc. È il contesto che può offrire un senso all'enorme massa di dati di ognuno. E la contestualizzazione dei dati è particolarmente delicata anche nel mondo giudiziario, soprattutto se teniamo presente che attualmente l'utilizzo di algoritmi di intelligenza artificiale nei sistemi giudiziari europei rimane principalmente un'iniziativa commerciale del settore privato.

La neutralità degli algoritmi è un mito, in quanto i loro creatori, consapevolmente o meno, riversano in essi i loro sistemi di valori ed i loro interessi (commerciali, politici, ecc.).
I sistemi algoritmici rispecchiano le intenzioni di chi li progetta o li commissiona, generando un potere operativo e asimmetrico sulla vita di altre persone. Non è per nulla facile cogliere da un algoritmo le intenzioni del suo progettista e l'intera sequenza del trattamento dell'informazione (intenzione del progettista, produzione del codice informatico, esecuzione di tale codice e contesto dell'esecuzione poi mantenimento). Le fasi di costruzione e interpretazione degli algoritmi sono prodotte da soggetti che non possono sfuggire agli errori, ai pregiudizi ed agli interessi privati.

Vediamo bene come, anche in Italia, si sta diffondendo un'intensa attività imprenditoriale rivolta al mondo legale ed agli studi legali.

Sono quelle definite come Start-up Legal Tech, ormai molto diffuse e che lavorano già insieme a Studi Legali. Non dimentichiamo che l'art. 1, comma 226, della Legge 30/12/2018 n. 145 (legge di bilancio 2019) ha previsto notevoli stanziamenti per il Ministero dello Sviluppo Economico volti a finanziare "progetti di ricerca e innovazione da realizzare in Italia ad opera di soggetti pubblici e privati, anche esteri, nelle aree strategiche per lo sviluppo dell'intelligenza artificiale". In questi ultimi tre anni Microsoft ha investito in Italia 20 milioni di euro per piattaforme digitali e di AI ed abbiamo ben potuto vedere che gli esperimenti presso alcune Corti d'Appello italiane vedono la partnership di società multinazionali o di studi professionali internazionali.

La creazione dell'algoritmo è un lavoro di enorme complessità, con rischio di creazione di "scatole nere" di impossibile o difficilissima lettura. Teniamo presente che spesso gli errori nella realizzazione della sequenza algoritmica sfuggono persino al suo creatore. L'esperienza passata lo ha dimostrato.

Se io applico questi algoritmi di intelligenza artificiale ai dati raccolti dai sensori di un grande motore, la macchina mi dirà con anticipo e con una precisione estrema quando quel motore si romperà prima che questo accada. È chiaro che questo da un punto di vista ingegneristico è un grande vantaggio perché io potrò fare manutenzione subito prima che si rompa senza guasti e senza fare manutenzioni non necessarie.

Ma se i dati a cui applico questa capacità predittiva non sono i dati di sensori ma sono quelle tracce lasciate da noi esseri viventi, da noi uomini durante la nostra attività sociale, cioè se gli algoritmi di predizione diventano algoritmi di profilazione ecco che può accadere qualcosa di inquietante: gli algoritmi non solo predicono quale sarà il nostro comportamento ma producono un nostro comportamento, come sanno bene tutti gli esperti di marketing per cui i dati profilati portano a prendere più di un prodotto. Ed ecco la novità: abbiamo un nuovo attore sociale non c'è più la persona individuale non c'è più la persona giuridica ma c'è questa sorta di persona algoritmica invisibile ma efficacissima nel determinare alcuni risultati che oggi ci chiediamo se è compatibile con la democrazia per come la vogliamo e per come la conosciamo.

• DIFFUSIONE DI DATI - Tra i buoni propositi della tecnologia digitale leggiamo che vi è quella di offrire al pubblico un sistema che possa far preventivamente comprendere se il diritto vantato potrà trovare soddisfazione giudizialmente.
Ma se – come visto – è il contesto che può offrire un senso all'enorme massa di dati immessi nel sistema, l'accesso ai dati grezzi, anche quelli aperti, da parte del pubblico potrebbe rivelarsi molto pericolosa. La diffusione massiva dei dati potrebbe presentare gravi rischi di discriminazione, profilazione e violazione della dignità umana.

• VALORE NORMATIVO DELLA "GIUSTIZIA PREDITTIVA" - Il risultato dell'analisi algoritmica potrebbe essere un ottimo punto di riferimento orientativo per gli operatori del diritto ma potrebbe anche avere valore prescrittivo. In altre parole, potrebbe creare una nuova forma di normatività, integrativa della legge e che potrebbe condurre potenzialmente, a lungo termine, a un'omogeneizzazione delle decisioni giudiziarie, non basate più sul ragionamento del giudice caso per caso, ma su un puro calcolo statistico.

Ma qual è il valore della "norma" derivante dal numero delle decisioni emesse in una specifica materia? Si aggiunge tale "norma" alla legge? Si tratta di una nuova fonte del diritto? Ciò sarebbe un grave errore poiché si confonderebbe la legge (che è frutto di applicazioni logiche, politiche ed etiche) con la regola (che è una corrispondenza fra numeri).

I giudici si troverebbero poi a giudicare le cause non in conformità alle regole del diritto, bensì anche in conformità alle tendenze della giurisprudenza, tratte da statistiche compilate da uno strumento digitale (che potrebbe anche essere influenzato o sviluppato senza il controllo esterno di un operatore privato). I giudici dovrebbero a loro volta giustificarsi qualora non osservino l'indicazione dello strumento digitale: avranno questo coraggio o possibilità?

Ma davanti al medesimo bivio si troverebbero anche gli Avvocati: quali ricadute avranno quelle scelte strategiche dei Colleghi che vorranno non seguire le indicazioni della giustizia predittiva per poter far riconoscere una nuova interpretazione delle norme rispetto ai tempi che mutano? Si aprono nuovi scenari di responsabilità professionale, responsabilità già conosciuta da quei medici che non seguono le cd. linee guida. Si aprono altresì possibili scenari di responsabilità aggravata in caso di insuccesso (lite temeraria).

Non solo. La scrittura alfabetica della norma ha conferito sino ad oggi una plasticità che le ha permesso e permette di mantenersi attraverso tutti i cambiamenti possibili, passati, presenti e futuri. Questa plasticità non solo viene contestata ma anche sradicata dalla giustizia digitale. La funzione dell'informatica è infatti la riproduzione in forma identica dell'elaborazione dei dati e non ammette l'interpretazione. Quell'interpretazione che ha sino ad oggi permesso alla giurisprudenza di adeguare norme generali ed astratte ai tempi che mutano.

Potremmo poi assistere ad una rarefazione dei giudizi, ma non nel suo accesso positivo: se i risultati delle controversie vengono indicati come "predizioni", i cittadini accederanno meno in Tribunale, le decisioni saranno minori impoverendo la base a partire dalla quale vengono fatte le previsioni.

Potremmo assistere al rafforzamento delle tendenze maggioritarie ed all'annullamento dell'esperienza, della saggezza pratica, dell'intuito, che sino ad oggi sono stati centrali.

Molti poi si sono chiesti:
può un algoritmo valutare il sillogismo motivazionale di una pronuncia e tradurlo in schema predittivo?
non sono possibili errori nel processo di elaborazione degli algoritmi causati dall'influenzabilità degli schemi mentali di chi realizza tali algoritmi?
non vi sono forti limiti del modello matematico rispetto alle variabili di un caso concreto, ai principi di equità e a tutte le altre clausole valoriali, nonché alla evoluzione delle relazioni sociali che portano alla plasticità del diritto?
può il diritto essere "limitato" da formule matematiche?
in fondo, la legge non ha una dimensione soggettiva, legata all'interprete che è chiamato ad applicarla e che nel processo decisionale utilizza le clausole generali valoriali?

• RISCHI DELLA PROFILAZIONE NELLA GIUSTIZIA - Se la profilazione delle persone è un tema assai delicato per tutti, la raccolta dei dati potrebbe avere importanti e particolari ricadute verso gli operatori del diritto (avvocati e giudici), ricadute che devono esser tenute in considerazione nell'analisi del problema. Per ora non sono presenti questi rischi in Italia, ma il tema è comunque attuale e concreto.

Teniamo infatti conto che negli USA vi sono già due piattaforme che aprono scenari inediti: Premonition e Ravel Law.

Premonition ordina gli avvocati per "win rate", tasso di vittoria. È possibile scoprire quanto è "bravo" l'avvocato in base al suo tasso di vittoria, riguardo a quali settori e davanti a quale giurisdizione o giudice.

Tramite le Judge analytics di Ravel è invece possibile conoscere le decisioni, i precedenti, le citazioni di ogni singolo giudice, quali argomenti o linguaggio il giudice trova più persuasivo, i suoi scritti e le sue opinioni, gli articoli che gli sono dedicati, ecc. Con le analytics messe a disposizione dal programma è così possibile anche individuare le argomentazioni che hanno più chance di essere accolte in relazione a ciascun atto processuale. Basta digitare il nome del giudice.
Ma la possibilità di profilare i giudici mediante l'incrocio di dati pubblici e privati potrebbe permettere alle società private e ai loro avvocati di svolgere in misura ancora maggiore pratiche di forum shopping.

• SILLOGISMO O METODO INDUTTIVO - Il trattamento del linguaggio naturale e l'apprendimento automatico sono le due tecniche alla base del trattamento delle decisioni giudiziarie mediante l'intelligenza artificiale. Nella maggior parte dei casi, l'obiettivo di tali sistemi non è la riproduzione di un ragionamento giuridico, bensì l'individuazione delle correlazioni tra i diversi parametri di una decisione e, mediante l'utilizzo dell'apprendimento automatico, dedurne uno o più modelli. Tali modelli sarebbero successivamente utilizzati per "predire" o "prevedere" una futura decisione giudiziaria.

La scrittura alfabetica della legge opera una mediazione indispensabile per la realizzazione di due qualità del diritto: la sua generalità e l'uguaglianza dei cittadini davanti al suo cospetto. La scrittura matematica potrebbe scardinare questo equilibrio, rinunciando al mito della generalità della legge. La legge generale verrebbe sostituita da una microdirettiva, ovvero da una norma situazionale, personalizzata e variabile nel tempo e nello spazio. Ma il tracciamento informatico del comportamento di ciascun individuo è talmente costante, invasivo, intimo e ciclopico che si aprono prospettive anche inquietanti: diventa possibile subordinare i diritti ad un comportamento anche solo raccomandato.

Attraverso un processo di de-simbolizzazione della Giustizia, l'intelligenza artificiale agisce assemblando scienza e tecnica (matematica, statistica, informatica), manipolando i dati per progettare compiti di trattamento informatico molto complessi. I motori di intelligenza artificiale non producono di per sé intelligenza, bensì procedono utilizzando un approccio induttivo: l'idea è di associare in maniera pressoché automatizzata un insieme di osservazioni (dati in ingresso) con un insieme di possibili esiti (dati in uscita) utilizzando diverse proprietà preconfigurate. Nello specifico, per quanto riguarda la giustizia predittiva, il motore costruisce collegamenti tra i diversi gruppi lessicali che compongono le decisioni giudiziarie. Tali gruppi sono in correlazione tra quelli identificati nella fase di ingresso (i fatti e la motivazione) e quelli identificati nella fase di uscita (il dispositivo della decisione) e sono successivamente classificati. L'affidabilità del modello (o funzione) costruito dipende quindi fortemente dalla qualità dei dati utilizzati e dalla scelta della tecnica di apprendimento automatico.

Questo modello algoritmico presenta però problemi di discernimento quando deve affrontare situazioni caotiche o che offrono dati insufficienti ai fini di una previsione (come la comprensione reale del linguaggio naturale). Nel campo delle scienze sociali, cui – attenzione – appartengono il diritto e la giustizia, l'insuccesso, in assenza di un convincente modello di cognizione, appare persino inevitabile.

Inoltre, la singolarità degli attuali sistemi di trattamento dei mega dati è che essi non cercano di riprodurre il nostro modello di cognizione, bensì di produrre statistiche contestualizzate relativamente a una quantità di dati senza precedenti, senza alcuna garanzia reale di escludere le false correlazioni.

E non è vero che più aumentano i dati immessi nel sistema più i modelli statistici e probabilistici diventano di per sé garanzia di esattezza predittiva: anche i matematici hanno messo in guardia contro i rischi di incrementare le false correlazioni (ovvero i collegamenti tra fattori assolutamente privi di nesso causale) nei mega dati. I matematici Cristian Sorin Calude e Giuseppe Longo hanno segnalato il rischio di un diluvio di false correlazioni nei mega dati: quanto maggiore è la banca dati utilizzata per le correlazioni, tanto più frequenti sono le possibilità di individuare delle regolarità e più elevato è il rischio di commettere errori. Ciò che ad un'intelligenza artificiale può apparire una regolarità (connessioni ricorrenti tra dati, concetti, contesti o gruppi lessicali diversi) può essere in realtà frutto del caso.

Il ragionamento del giudice è soprattutto frutto di valutazione e interpretazione dei fatti dimostrati e pertinenti a una causa e delle norme di diritto applicabili nonché di interpretazione soggettiva del concetto di equità, che in Europa dovrebbe subire nuove modifiche per via dell'esigenza, incoraggiata dalla Corte europea dei diritti dell'uomo, di un controllo di proporzionalità. Oggi, due rilievi coerenti possono condurre a sentenze diverse in funzione di due diverse priorità.

Si legge spesso che il giudice decide utilizzando una sorta di sillogismo giuridico. Ma tale sillogismo è più una maniera di presentare il ragionamento giuridico che non la sua traduzione formale. Non rispecchia per intero il ragionamento del giudice, che è composto in realtà da una moltitudine di fattori decisionali, non può essere formalizzato a priori, ed è talvolta fondato sul suo potere discrezionale: quali sono i fatti pertinenti? tali fatti sono accertati? quali norme si applicano a essi? quale è il significato di tale norma in relazione alla causa da decidere? quale fonte deve prevalere in una pluralità di fonti confliggenti?

Ebbene, tale lavoro di interpretazione è esattamente quello che al giorno d'oggi le tecniche di apprendimento automatizzato non svolgono - e non cercano di svolgere - in quanto esse effettuano elaborazioni automatizzate basate sul presupposto che la correlazione di grandi volumi di informazioni possa sostituire la comprensione dei veri nessi causali di una decisione. Non tentano di formalizzare il ragionamento giuridico, ma sperano che i modelli registrati da esse possano prevedere le probabili decisioni di un giudice in situazioni analoghe.

Per la giustizia predittiva le sentenze non costruiscono più una giurisprudenza ma alimentano un database e non conta tanto la qualità di una decisione quanto piuttosto la quantità ingerita.

Ecco perché appare un errore classificare la Giustizia tra le scienze esatte. Le norme giuridiche non conoscono un'evoluzione lineare, come invece le leggi empiriche (quelle delle "scienze esatte"). La scienza, la tecnologia non dicono la verità ma dicono cose esatte. La Giustizia deve tendere alla verità, tendere a coniugare la verità sostanziale con la verità processuale. Che è altro.

CAUSALITÀ E CORRELAZIONE - Si può sostituire la causalità con la correlazione? Per la causalità un evento spazio-temporale porta immancabilmente ad un altro. La correlazione si basa invece su una affinità statistica.

Ad esempio, le banche hanno notato una correlazione fra l'aumento dell'indebitamento nei conti bancari intestati ad entrambi i coniugi ed il tasso di divorzio. Questa correlazione non fornisce una regola causale ma può fornire una regola all'interno del sistema bancario.

Ma quale deve essere la dimensione sufficiente dei dati per poter ricavare una correlazione causale? Un database ristretto non sarebbe sufficiente ma anche un database troppo esteso non permetterebbe di dedurre una valida previsione.

Questa è la prova che, nella Giustizia, la qualità e dimensione dei dati immessi non può esser lasciata alla discrezione dei soli programmatori.

Non solo, ma le variabili a valore zero hanno un senso nella logica, ma non lo hanno statisticamente.

Poi ci sono le correlazioni spurie.

Proviamo ad applicare tutto questo alle prossime elezioni del presidente degli Stati Uniti. Se io avessi un sistema perfetto di dati cioè se sappiamo come ogni singolo americano ha votato dall'inizio degli Stati Uniti d'America ad oggi in ogni collegio avremmo un sistema di dati perfetto. Se lo dessi in pasto al migliore degli algoritmi di machine learning a mia disposizione e gli chiedessi chi è il prossimo presidente degli Stati Uniti l'algoritmo mi dice sicuramente un uomo, un po' meno sicuramente di etnia caucasica, un po' meno sicuramente tra 55 e 70 anni, perché non mi dice una donna perché i dati che non sono altro che le scelte passate non includono al loro interno nessuna donna.

Se prendiamo i dati della vendita delle mozzarelle e la percentuale dei laureati ingegneria vediamo che vi è una correlazione…

Ma vediamo qualche esempio di ciò che è già successo.

Nel 2015 il software di Google ha categorizzato le persone di colore come… gorilla.
Con Face up, applicazione di modifica dei volti, il filtro che doveva far apparire le persone più belle le faceva apparire più bianche.
Fino a poco tempo fa, se su Linkedin cercavate il nome di una donna, ad es. Francesca Rossi, il motore di ricerca suggeriva Francesco Rossi. Come dire che gli uomini andavano meglio delle donne.
Anche un algoritmo utilizzato dall'Università della Virginia ha subito un'accusa di sessismo: quando caricavano scene di persone in cucina e si mostravano uomini in cucina, l'algoritmo diceva che erano donne.

In molti stati degli USA i giudici sono autorizzati ad usare un algoritmo denominato risk assesment che in base a circa 150 parametri che stabilisce la possibilità dell'imputato di commettere nuovi reati. I giornalisti di ProPubblica, una testata investigativa indipendente, hanno testato 7.000 di questi punteggi ed hanno verificato che le persone di colore vengono sistemicamente svantaggiate. Cioè l'algoritmo associava la pelle scura alla possibilità di delinquere. Non correlando i fattori socio-economici che determinano normalmente la delinquenza.

In altre parole, il problema è che i dati registrano quelle che sono le scelte: se le scelte sono ingiuste i dati possono essere pure perfetti ma al loro interno per criteri del passato e criterio ingiusti perpetriamo quelli che sono dei criteri logici che chiamiamo pregiudizi. Cioè i dati diventano pregiudizi. Oggi, in cui la narrativa diventa uno degli strumenti maggiori di persuasione pubblica, con le sue arbitrarie infografiche che creano le nuove mappe geografiche (pensate alle mappe, ove l'Europa è il centro più grande, ove il Madagascar, che è grande due volte l'Inghilterra, risulta più piccola, ecc.). Possiamo parlare di una realtà come di una serie di credenze indotte dai dati.

_____
*A cura dell'Avv. Alberto Del Noce - Avvocato del Foro di Torino, Vicepresidente dell'Unione Nazionale delle Camere Civili e Responsabile della Commissione sull'Intelligenza Artificiale dell'Unione Nazionale delle Camere Civili

Per saperne di piùRiproduzione riservata ©