Professione e Mercato

AI e software giudiziari, gli indirizzi strategici dell'Avvocatura a tutela dello Stato di Diritto

In occasione dell'ultimo Congresso Nazionale Forense, svoltosi a Lecce nell'ottobre scorso, l'Avvocatura ha approvato un'importante mozione: la richiesta di costituzione di un'Autority, di un Comitato, di un'Agenzia che imponga e vigili i produttori dei futuri software giudiziari il rispetto dei diritti fondamentali dello Stato di Diritto

di Alberto Del Noce*

Innanzitutto dobbiamo formulare una distinzione semantica e cioè distinguere ciò che intendiamo come innovazione e sviluppo.

L'innovazione è fare qualcosa in modo diverso ed anche forse più efficiente. Così abbiamo che la clava viene innovata dall'arco e dalla freccia viene innovata dalla pistola viene innovata dalla bomba atomica. Ma l'innovazione non ci dice se è bene o male. Sfido chiunque a dire che una bomba atomica che uccide un milione di persone è meglio di una pistola. Occorre che l'innovazione diventi sviluppo perché diventi positiva.

Cos'è lo sviluppo? È quella cosa che l'uomo mette in atto per aiutare i singoli gruppi a diventare il più velocemente possibile quello che sono chiamati ad essere.

E come deve essere un'innovazione adatta a diventare sviluppo efficace per questa stagione?

Secondo me deve essere uno sviluppo caratterizzato da un aggettivo molto chiaro: uno sviluppo gentile. Cioè uno sviluppo che sappia prendere e farsi carico di quelle che sono le istanze di ciascuno uomo o donna sulla terra, le istanze della casa comune, le sappia accogliere, non profilare schiacciare ma accompagnare a quella che è la loro perfezione.
Si apre quindi il grande tema etico (algoretica).

Viviamo in un mondo dove la macchina ogni giorno si umanizza sempre più e l'uomo ogni giorno si macchinizza sempre di più. Rischiamo di non riuscire a distinguere la differenza tra l'esistere e il funzionare.

Ci troviamo sempre di più di fronte ad un algoritmo emotivo che determina il nostro agire. Una macchina che può decidere sul nostro futuro e sul futuro delle generazioni che verranno, di algoritmi di machine learning che selezionano gli embrioni fecondati per capire chi deve nascere.

È evidente che se i dati esprimono valori numerici, se le macchine fanno scelte, le scelte non possono essere fatte solo sui valori numerici! Abbiamo bisogno di altri valori. Allora ecco che alla domanda sul come introduciamo quello che è il tema della nostra discussione:

abbiamo bisogno di scrivere un nuovo capitolo di una disciplina molto antica che è l'etica.

L'etica non sono solo regole. È anche chiederci chi vogliamo essere quando scegliamo. Noi non nasciamo pienamente determinati ma siamo un po' come un blocco di marmo e ogni scelta che facciamo è un po' una scalpellata su questo blocco di marmo. Se queste scelte sono tutte coerenti quello che esce fuori è una bella statua di Michelangelo. Se le martellate sono un po' a caso se le nostre scelte sono un po' di qua e un po' di là esce fuori un Modigliani. Se i colpi sono a caso arriviamo a un mucchio di macerie.

Perché il giudizio etico diventi però anche computabile ed eseguibile dalla macchina (che ha un suo codice per eseguire decisioni di fronte alle quali si trova) l'algoritmo etica diventa quella declinazione tra computabilità e criterio etico che ha bisogno di essere inclusa all'interno dei codici per poter dare alla macchina dei guard rail all'interno dei quali potersi muovere evitando scelte di un certo tipo. Perché di fatto il problema che ci troviamo davanti è un problema di una innovazione che è caratteristica di questa nostra stagione che è l'antropocene che può cancellare quello che siamo stati.

Hanno fatto un esperimento. Hanno posto alla macchina una domanda: come possiamo eliminare il cancro? La risposta è arrivata subito: uccidiamo tutti gli uomini. È una risposta ottimizzata ma non accettabile, perché non bastano i numeri. Abbiamo bisogno di senso. Abbiamo bisogno dell'algoritmo etica, con il quale si cercano mediazioni condivise per gestire l'innovazione. Rispetto a una pistola una bomba atomica è una bella innovazione… Ciò che caratterizza l'innovazione in un'ottica etica è la sua capacità di contribuire al bene ed allo sviluppo.

Se noi mettiamo un algoritmo di sorting o un algoritmo di profiling all'interno di un social network, quell'algoritmo sarà quello che determina cosa io conosco, quando lo conosco e perché lo conosco. Creando per esempio nell'ambito dei media, per rimanere giusto nel discorso che facevamo, quella che tutti chiamano la Filter Bubble cioè quello orizzonte algoritmico che mi dice che tutto quello che esiste e quello che conferma i miei bias oppure nient'altro.

La storia ha insegnato agli umani che, per stare insieme, essi devono esser soggetti a dei diritti e a dei doveri. Quando poi la convivenza è diventata un po' più complessa, l'uomo si è reso conto che non esistono solo le persone fisiche, ma esistono anche delle persone giuridiche. E, quindi, l'uomo ha normato anche il comportamento delle persone giuridiche per mantenere possibile questa convivenza in una maniera più giusta possibile.

Ora che esistono delle altre entità collettive che sono gli algoritmi, non esiste un diritto adeguato. Quindi probabilmente il primo passo da fare perché la società civile continui ad esistere così come la desideriamo, così come la vogliamo, sarà quello di generare uno strato di diritto che normi questi algoritmi come entità collettive di azione.

Benanti utilizza un'immagine per capire di che cosa parliamo: noi siamo un corpo sociale. Il corpo sociale è analogo al corpo umano, il corpo umano è complesso. Esso può soffrire di patologie e, per guarire, si utilizzano prodotti, chiamati farmaci, che interagiscono col corpo.

Il termine "farmaco" deriva dal greco pharmacos, che significa due cose: tanto medicina quanto veleno. Sarà la giusta dose del farmaco a dire se esso mi può uccidere o se mi permette di guarire. Per evitare che con il farmaco si possa morire si è inventato il bugiardino, e cioè quel foglietto che inserito nelle confezioni del farmaco.

Ebbene, l'algoritmo è un farmaco sociale. Per evitare che ci avveleni abbiamo bisogno del bugiardino degli algoritmi, abbiamo bisogno di un qualcosa che chiarisca qual è l'effetto sociale, per legge, di quello che è l'algoritmo inserito all'interno di un contesto relazionale.

Oltre a tale bugiardino occorre porre l'attenzione affinché l'uomo sia sempre al centro delle decisioni, che ogni decisione finale sia dell'uomo e che di fronte ad ogni dubbio ci sia l'uomo.

La task force governativa sull'AI sta sviluppando una libreria costituita da una serie di strumenti informatici scritti in linguaggio Python, libreria denominata PyTorch.

Cosa fa questa PyTorch? Usa dei modelli statistici per insinuare nella macchina una sorta di senso di incertezza: ad es. se la macchina è incerta se quello che vede è una persona o un gatto, si rivolge all'uomo. Questa è la svolta: tenere l'uomo al centro.

Ricordiamoci che noi siamo qualcuno. La macchina qualcosa. Significa che la macchina decide sui dati e magari produrrà un effetto che anche quello desiderato ma sono solo io che mi faccio delle domande di senso, sono io che mi faccio dei problemi, sono io quello che mi capisco come un soggetto all'inizio di ogni frase.

È in fondo la conclusione a cui è giunta l'Assemblea Plenaria U.E. del 20/1/2021:
l'AI deve esser soggetta al controllo umano, consentendo agli esseri umani di correggerla o disabilitarla in caso di comportamenti imprevisti
• rispetto della dignità umana e dei diritti umani
• garantire la responsabilità dell'uomo
bando ai robot assassini
l'azione letale deve esser decisa dall'uomo
• preoccupazione nell'uso della AI nella sorveglianza civile e militare di massa
• divieto di "applicazioni di punteggio sociale altamente invasive"
• l'uso della AI nel settore giudiziario può aiutare ad accelerare i procedimenti e prendere decisioni più razionali, ma le decisioni finali dei Tribunali devono essere prese da essere umani, essere rigorosamente verificate da una persona ed essere soggette ad un giusto processo
• la AI deve sempre rimanere uno strumento utilizzato solo per assistere il processo decisionale o aiutare nell'azione. Non devono mai sostituire o sollevare gli esseri umani dalla loro responsabilità.

Vi è poi uno studio (Artificial Intelligence: the global landscape of ethics guidelines) che ha passato in rassegna 84 di queste linee guida (la maggior parte risultano pubblicate tra Stati Uniti ed Europa, tra queste c'è anche il libro bianco dall'Agenzia per l'Italia Digitale), distillando i principi. Quelli ricorrenti, su cui c'è più convergenza (sono presenti in più di metà dei documenti) sono 5, anche se restano differenze su come sono poi interpretati e su come dovrebbero essere implementati .

Eccoli in ordine di maggiore frequenza:
1. Trasparenza: intesa soprattutto come capacità di spiegare, interpretare e in generale rivelare processi e decisioni.
2. Giustizia ed equità: intese come prevenzione e mitigazione di discriminazioni, ma anche come possibilità di appellare decisioni.
3. Non maleficenza: intesa come l'evitare rischi o danni specifici, come abusi intenzionali della tecnologia, ad esempio nella cyberwarfare e nell'hacking, ma anche come discriminazioni e violazioni della privacy.
4. Responsabilità e accountability: intese nel senso di chiarire l'attribuzione delle responsabilità, anche legali, ma di nuovo anche chiarire processi che possono portare a eventuali danni.
5. Privacy: intesa in relazione alla protezione dei dati e alla loro sicurezza.

In conclusione, tenuto conto del suo ruolo istituzionale e costituzionale, l'Avvocatura, deve innanzitutto pretendere il controllo della procedura di informatizzazione e partecipare alla progettazione dei data set e degli algoritmi "giudiziari".

Deve poi
• pretendere la trasparenza degli algoritmi
• pretendere norme e governance che disciplinino l'utilizzo della Intelligenza artificiale nella Pubblica amministrazione , anche per stabilirne i limiti ed individuare le responsabilità
• pretendere che la ricerca non sia lasciata esclusivamente alle multinazionali degli algoritmi
• pretendere il pieno rispetto dei diritti fondamentali così come disegnati in Costituzione, nella Carta dei diritti fondamentali e della Convenzione europea dei diritti dell'Uomo.

Tali indirizzi strategici sono stati raccolti anche in occasione dell'ultimo Congresso Nazionale Forense, svoltosi a Lecce nell'ottobre scorso. L'Avvocatura ha infatti approvato un'importante mozione, e cioè la richiesta di costituzione di un'Autority, di un Comitato, di un'Agenzia che imponga e vigili i produttori dei futuri software giudiziari il rispetto dei diritti fondamentali dello Stato di Diritto, tra i quali:
1) Principio di non discriminazione: in questo quadro occorrerà prevenire lo sviluppo o l'intensificazione di discriminazioni tra persone o gruppi di persone ovvero stereotipi, pregiudizi o disuguaglianze strutturali.
2) Principio di qualità e sicurezza: in ordine al trattamento di decisioni e dati giudiziari, dovranno esser utilizzate fonti certificate e dati intangibili con modelli elaborati multi disciplinarmente, il tutto in un ambiente tecnologico sicuro.
3) Principio di trasparenza, imparzialità ed equità: le metodologie di trattamento dei dati dovranno esser accessibili e comprensibili, autorizzando anche verifiche esterne.
4) Diritto di accesso ad un Tribunale e diritto del cittadino che il suo caso sia esaminato pubblicamente ed equamente da giudici indipendenti ed imparziali (art. 47 Carta dei diritti fondamentali dell'Unione Europea).
5) Raccomandazione affinché sia precluso un approccio prescrittivo della giustizia predittiva, assicurando che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte.
6) Diritto del cittadino di esser ascoltato dai giudici, anche con presenza fisica se richiesto.
7) Diritto all'assistenza legale: in altre parole, diritto del cittadino che il suo caso sia esaminato pubblicamente ed equamente dai giudici mediante l'assistenza dell'Avvocato, soprattutto alla luce dell'attuale tangibile tentativo di marginalizzazione della nostra professione.
8) Principio del contraddittorio: nel campo che stiamo trattando tale principio si traduce nell'obbligo di rendere accessibile ai cittadini e, soprattutto, alle parti del processo una certa quantità di informazioni quantitative e qualitative al fine di comprendere le modalità di costruzione delle tabelle, di misurare i loro eventuali limiti, e di essere in grado di dibatterne dinanzi a un giudice.
9) Diritto di pari accesso alle informazioni giuridiche e tecnologiche: l'utilizzo di mezzi tecnologici non deve provocare squilibri tra le parti, in quanto l'utilizzo di mezzi digitali potrebbe effettivamente facilitare il procedimento per certi operatori (istituzioni, società dotate di mezzi, persone con competenze informatiche) e, al contrario, porre problemi ad alcune tipologie di popolazione che hanno minore dimestichezza o maggiori incertezze riguardo alla tecnologia.
10) Raccomandazione affinché la decisione di un organo giurisdizionale debba esser sempre adottata da un essere umano (giudice) e non venga delegata ad uno strumento di intelligenza artificiale (Copefer 7/10/2020 – conclusioni del Consiglio dell'Unione Europea sull'Accesso alla Giustizia).

Lavoriamo seriamente su questo percorso e non facciamo cadere la nostra attenzione.

_____
*A cura dell'Avv. Alberto Del Noce - Avvocato del Foro di Torino, Vicepresidente dell'Unione Nazionale delle Camere Civili e Responsabile della Commissione sull'Intelligenza Artificiale dell'Unione Nazionale delle Camere Civili

Per saperne di piùRiproduzione riservata ©