L’accountability nell’uso dell’IA: i casi affrontati dalle autorità e gli obblighi di trasparenza della Legge italiana sull’IA
Solo un approccio critico e informato, accompagnato da regole chiare e responsabilità definite, può evitare che l’innovazione porti a conseguenze dannose per la giustizia e per i cittadini
L’uso dell’intelligenza artificiale (IA) è ormai comune nella vita, anche professionale, di questa epoca. Le applicazioni dell’IA sono svariate, e molteplici sono i benefici in termini di produttività e ottimizzazione delle risorse.
L’IA è una tecnologia che va tuttavia usata in modo responsabile e trasparente. Non a caso, l’Ordine degli Avvocati di Milano ha adottato la prima Carta dei Principi in Italia per l’uso consapevole dei sistemi di IA in ambito forense e, insieme, ha promosso un progetto di alfabetizzazione dedicato all’avvocatura. In prima linea anche l’Ordine degli Avvocati di Bologna che ha istituito la “Commissione sull’Intelligenza artificiale e Giustizia” volta a supportare l’Ordine in merito alle questioni connesse a questo ambito.
Ancora, Confprofessioni e Associazione nazionale forense si sono rese promotrici del primo modulo informativo destinato ai professionisti sull’utilizzo di strumenti di IA, in conformità con quanto previsto dalla nuova legge italiana sull’IA.
L’esigenza di un uso oculato dell’IA è sentita anche nelle aule giudiziarie, dove sono stati già affrontati casi in cui l’IA, impiegata da avvocati e da P.A., ha generato le, ormai note, “allucinazioni”, con le conseguenze che di seguito analizzeremo.
I casi decisi dal Tribunale di Torino e di Latina
Con due sentenze analoghe (rispettivamente del 16 settembre 2025 e del 23 settembre 2025) prima il Tribunale di Torino, poi quello di Latina hanno ravvisato una responsabilità aggravata ai sensi dell’art. 96, 3° comma c.p.c. nei confronti dei ricorrenti che avevano utilizzato, per la redazione dei propri atti, strumenti di intelligenza artificiale. Ciò che viene contestato non è l’utilizzo in sé di tale tecnologia, bensì la “scarsa qualità degli scritti difensivi e [la] totale mancanza di pertinenza o rilevanza degli argomenti utilizzati; l’atto è infatti composto da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico ed in gran parte inconferenti rispetto al thema decidendum ed, in ogni caso, tutte manifestamente infondate”.
I ricorrenti vengono quindi condannati al pagamento nei confronti delle controparti (di una somma pari a 1.000 euro nel caso di Torino, e di 500 euro nel caso di Latina) e in favore della cassa delle ammende (per una somma di pari importo a quella prevista, in ciascun caso, a favore delle controparti).
A prescindere dall’importo delle somme irrogate a titolo di condanna, è importante la presa di posizione dell’autorità giudiziaria su questa materia. Giova notare infatti che, da un lato, si discosta dalla precedente sentenza del Tribunale di Firenze che non aveva ritenuto di sanzionare la condotta del difensore, poiché la menzione dei riferimenti giurisprudenziali, per quanto inesistenti, non avrebbe avuto l’effetto di mutare la strategia difensiva e, dunque, di influenzare l’organo giudicante (Cfr. Si discute di intelligenza artificiale nelle aule giudiziarie: il caso ChatGPT nei Tribunali di Roma e di Firenze, di Laura Greco 15 Aprile 2025). Dall’altro lato, queste pronunce muovono certamente nella stessa direzione degli obblighi di accountability e di trasparenza disciplinati sia dall’AI Actsia dalla nuova legge italiana sull’intelligenza artificiale, garantendo così un coordinamento tra il piano normativo e quello giurisprudenziale.
La l. 132/2025 sull’IA
La legge italiana sull’intelligenza artificiale, in vigore dal 10 ottobre, disciplina sapientemente gli obblighi di trasparenza e di accountability circa l’utilizzo dell’IA in diversi settori.
L’art. 13, ad esempio, specifica la strumentalità dell’uso dell’IA e la sua funzione di mero “supporto all’attività professionale” per coloro che esercitano professioni intellettuali, i quali devono tra l’altro garantire “la prevalenza del lavoro intellettuale oggetto della prestazione d’opera”. Analogamente, quando utilizzata dalle pubbliche amministrazioni, l’IA può essere solo “strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale” (così l’art. 14).
Ancora, l’IA può essere impiegata anche nell’ambito dell’attività giudiziaria, ma – specifica l’art. 15 – “è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.
Non da ultimo, “i sistemi di intelligenza artificiale in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica” (art. 7).
A questi obblighi di responsabilizzazione corrisponde un generale obbligo di trasparenza, da soddisfarsi tramite la fornitura di informazioni all’interessato o, nel caso dei professionisti, al cliente. Si legge, a più riprese nella legge, che gli interessati hanno il diritto di essere informati sull’impiego di tecnologie di IA, con linguaggio chiaro, semplice ed esaustivo e che, specie quando utilizzata dalle P.A., sia assicurata “la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo”.
Il caso del Comune di Tromsø
È proprio quest’ultima disposizione che potrebbe aprire nuovi orizzonti in materia di accesso civico ed amministrativo, come d’altronde è già successo in Norvegia.
Il Comune di Tromsø è stato infatti obbligato a esibire il registro delle conversazioni intercorse con ChatGPT dopo che, avvalendosi di tale tecnologia, aveva emanato un’ordinanza di chiusura di alcune scuole e asili nido corredata da un rapporto contenente analisi e valutazioni, a sostegno di tale dibattuta decisione, presuntivamente false o inconferenti.
L’amministrazione statale di Tromsø e Finnmark (Statsforvalteren i Troms og Finnmark) ha ritenuto che le chat tra il responsabile del procedimento del Comune e il sistema di IA siano a tutti gli effetti qualificabili come “documento” e che, non classificandosi – per le caratteristiche del caso di specie – come documenti interni (“che l’ente ha preparato per la propria preparazione interna del caso”), siano suscettibili di essere oggetto di accesso.
In Italia si era già espresso in senso analogo anche il Consiglio di Stato con la recente sentenza n. 4929/2025, chiarendo che la complessità tecnica derivante dall’uso dell’IA non può in alcun modo costituire un legittimo motivo per negare il diritto di accesso agli atti amministrativi.
La necessità di una maggiore alfabetizzazione
I casi qui brevemente illustrati sono esemplificativi dell’importanza che l’utilizzo della tecnologia sia sempre supportata e affiancata da un percorso di formazione e alfabetizzazione che consenta di farne un uso responsabile e trarne reali benefici. Come ogni altra tecnologia, anche l’intelligenza artificiale, se non usata con cognizione e prudenza, può trasformarsi in un fattore di rischio, capace di generare errori gravi, pregiudicare diritti e minare la fiducia nelle istituzioni e nei professionisti che la adottano. Non basta dunque introdurre nuovi strumenti: occorre che tutti (dal privato al professionista e al funzionario pubblico) acquisiscano consapevolezza dei limiti e delle implicazioni dell’IA, sviluppando competenze tecniche e giuridiche adeguate pervalutarne gli esiti e intervenire quando necessario. Solo un approccio critico e informato, accompagnato da regole chiare e responsabilità definite, può evitare che l’innovazione porti a conseguenze dannose per la giustizia e per i cittadini.
_______
*Avv. Laura Greco, Studio Legale Giusella Finocchiaro