Ddl intelligenza artificiale, nella Pa resta determinante il fattore umano
Prosegue l’esame in Commissione alla Camera. Secondo il Ddl vanno garantiti i principi di conoscibilità, tracciabilità, strumentalità rispetto alla decisione che spetta al responsabile amministrativo
Dopo il via libera del Senato (85 “sì”, 42 “no”) del 20 marzo scorso, il disegno di legge delega sull’Intelligenza artificiale, prosegue il proprio cammino alla Camera, dove ieri le Commissioni riunite IX Trasporti e X Attività produttive hanno affrontato l’esame in sede referente.
Il testo, che si compone complessivamente di 28 articoli, mira ad introdurre una normativa nazionale che predisponga un sistema di principi di governance e misure specifiche per mitigare i rischi e cogliere le opportunità dell’AI e si affianca al Regolamento (UE) 2024/1689, conosciuto come “AI Act”, del 13 giugno 2024 che ha preminenza sulla legge italiana.
Nel Dossier di presentazione, si cita il rapporto dell’Osservatorio Artificial Intelligence del Politecnico di Milano secondo cui nel 2024 il mercato dell’AI ha raggiunto i 1,2 miliardi di euro con una crescita del +58 per cento rispetto al 2023. Secondo un altro studio, sempre citato nella Relazione di accompagnamento, e condotto da Implement Consulting Group, l’adozione su larga scala dell’IA generativa potrebbe incrementare il PIL di 150-170 miliardi di euro l’anno nei prossimi dieci anni; mentre un ritardo, di soli cinque anni, ridurrebbe il potenziale di crescita economica in Italia al 2 per cento.
Dopo aver visto le disposizioni in materia di giustizia, guardiamo all’uso della AI nella Pubblica amministrazione. E’ regolato dall’articolo 14 che mette nero su bianco alcuni principi quali: conoscibilità, tracciabilità, strumentalità rispetto alla decisione spettante comunque alla persona responsabile dell’agire amministrativo.
Le finalità di impiego da parte della Pa sono definite dal comma 1: incremento della efficienza; riduzione dei tempi di definizione dei procedimenti; incremento della qualità e quantità dei servizi erogati.
Viene poi previsto che i soggetti interessati abbiano piena conoscibilità del funzionamento della AI e la tracciabilità del suo utilizzo che dovrà sempre essere in funzione strumentale e di supporto all’attività provvedimentale. Inoltre, viene chiarito che non possono essere scalfiti l’autonomia e il potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti (comma 2).
Il comma 3 sancisce che le pubbliche amministrazioni adottano misure tecniche, organizzative e formative, volte a garantire un utilizzo dell’intelligenza artificiale “responsabile” e a sviluppare le capacità trasversali degli utilizzatori. Il comma 4 pone una clausola di invarianza finanziaria.
Vengano poi richiamate due decisioni del Consiglio di Stato. Con la sentenza, Sezione VI, 2270/2019, i giudici hanno accolto il ricorso di due docenti, già inseriti in graduatoria ad esaurimento, nominati in provincia lontane ed in scuole diverse da quelle richieste; mentre altri docenti in posizione deteriore avevano beneficiato di condizioni migliori. Un esito che secondo Palazzo Spada integrava la violazione dei principi di imparzialità, pubblicità e trasparenza. Infatti, spiegavano i giudici, l’impossibilità di comprendere le modalità con le quali, attraverso l’algoritmo, siano stati assegnati i posti disponibili, “costituisce di per sé un vizio tale da inficiare la procedura. Non solo, gli esiti della stessa paiono effettivamente connotati dall’illogicità ed irrazionalità denunciate dalle appellanti”. “In secondo luogo, la regola algoritmica deve essere non solo conoscibile in sé, ma anche soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo.
Mentre la decisione, sempre della Sezione VI, n. 8472/2019, rimarcava che l’utilizzo di algoritmi in sede decisoria pubblica doveva garantire: “a) la piena conoscibilità a monte del modulo utilizzato e dei criteri applicati; b) l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo”.
Oltre alla rilevanza del “principio di non esclusività della decisione algoritmica”, secondo il quale deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica (definito: HITL human in the loop, in cui, per produrre il risultato è necessario che la macchina interagisca con l’essere umano.
Geografia giudiziaria: per un restyling è necessario un ancoraggio ai dati
di Marco FabriDirigente di ricerca presso il Consiglio nazionale delle ricerche