Giustizia

UE, via libera definitivo all’AI Act - Stretta sulla “Giustizia”: settore ad “alto rischio”

Ieri il via libera del Consiglio Ue. La legislazione sarà in vigore tra due anni. Maggiore è il rischio di causare danni alla società e alle persone, più severe saranno le regole. Limiti stringenti all’utilizzo da parte dell’autorità giudiziaria

immagine non disponibile

di Francesco Machina Grifeo

“Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale”. In particolare, sono ad alto rischio “i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti”. Il passaggio è contenuto nel paragrafo 61 dell’AI Act, la legge europea sull’intelligenza artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA, a cui ieri il Consiglio Ue ha dato il via libera definitivo.

Regolamento recante norme armonizzate sull’intelligenza artificiale (testo del 21 maggio 2024)

La legislazione, spiega una nota del Consiglio, segue un approccio “basato sul rischio” , il che significa che maggiore è il rischio di causare danni alla società, più severe saranno le regole. Quando il rischio è inaccettabile, scattano i divieti: è il caso ad esempio delle tecniche manipolative, delle pratiche di polizia predittiva, del riconoscimento delle emozioni vietato sul posto di lavoro e nelle scuole. E ancora è il caso del riconoscimento facciale, il cui uso è consentito solo alle forze dell’ordine e soggetto a condizioni rigorose.

L’Europa, dunque, è tra i primi soggetti giuridici al mondo a dettare una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati. Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).

Per garantire una corretta applicazione, vengono istituiti diversi organi di governo: un ufficio AI all’interno della Commissione per far rispettare le regole comuni in tutta l’UE; un panel scientifico di esperti indipendenti a supporto delle attività di contrasto; un comitato per l’AI con rappresentanti degli Stati membri per consigliare e assistere la Commissione e gli Stati membri nell’applicazione coerente ed efficace della legge sull’AI; un forum consultivo per le parti interessate per fornire competenze tecniche al comitato AI e alla Commissione.

Ma il warning sulla applicazione della IA alla “Giustizia” si estende ai sistemi Adr. “Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie – si legge nel Regolamento - dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti”.

“L’utilizzo di strumenti di IA – specifica il testo - può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana”.

Non è invece opportuno, continua il regolamento - estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati “ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi”.

Nel mirino anche i sistemi di IA che attribuiscono un “punteggio sociale” alle persone perché possono portare “a risultati discriminatori e all’esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia”. Tali sistemi di IA comportano “pratiche inaccettabili” e “dovrebbero pertanto essere vietati”, senza tuttavia pregiudicare le “pratiche lecite di valutazione delle persone fisiche effettuate per uno scopo specifico in conformità del diritto dell’Unione e nazionale”.

I modelli di IA per scopi generali (Gpai) che non presentano rischi sistemici dunque saranno soggetti ad alcuni requisiti limitati, ad esempio in materia di trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe, tra cui valutazione del modello, valutazione e mitigazione di rischi sistemici, protezione della sicurezza informatica. La legge poi promuove regulatory sandboxes e real-world-testing , istituite dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima dell’immissione sul mercato.

A seconda della violazione e delle dimensioni dell’azienda, saranno comminate multe che possono andare da un minimo di 7,5 milioni di euro o l’1,5% del fatturato fino a 35 milioni di euro o il 7% del fatturato globale.

Dopo essere stato firmato dai Presidenti del Parlamento europeo e del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta Ufficiale dell’Ue nei prossimi giorni ed entrerà in vigore venti giorni dopo la pubblicazione.

Intanto, il 24 aprile scorso il Governo italiano ha varato un disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza artificiale, con un investimento previsto di 1miliardo di euro. Sul fronte giustizia il testo prevede che l’IA sia utilizzata esclusivamente per finalità strumentali e di supporto - organizzazione del lavoro e ricerca giurisprudenziale e dottrinale - , mentre è sempre riservata al magistrato la decisione sull’interpretazione della legge, la valutazione dei fatti e delle prove e sull’adozione di ogni provvedimento inclusa la sentenza.

Per saperne di piùRiproduzione riservata ©