Amministrativo

AI e “allucinazioni”: il TAR Milano rimette gli atti all’Ordine per violazione dei doveri di lealtà e probità

E’ il primo caso noto nella giustizia amministrativa italiana, la pronuncia sposta il focus dalla responsabilità processuale a quella specificamente deontologica

di Giovanni Rocchi*

Il 21 ottobre 2025 il TAR Lombardia (Milano) ha depositato la sentenza n. 3348/2025, che affronta per la prima volta in ambito amministrativo l’uso non verificato dell’intelligenza artificiale generativa nella redazione di atti giudiziari. Si tratta del primo caso noto nell’ambito della giustizia amministrativa italiana in cui un giudice, rilevata la citazione di giurisprudenza non pertinente o inesistente generata da sistemi di IA, ha disposto la trasmissione degli atti al Consiglio dell’Ordine degli Avvocati competente per valutazioni di natura deontologica.

La decisione si inserisce in un contesto giurisprudenziale ancora agli inizi ma significativo. Nel marzo 2025 il Tribunale di Firenze aveva affrontato un caso simile in ambito civile, ma aveva escluso la lite temeraria ex art. 96 c.p.c., non ravvisando mala fede o colpa grave nell’avvocato che aveva utilizzato citazioni errate generate da ChatGPT. Al contrario, nel settembre 2025, il Tribunale di Torino, sezione Lavoro, ha condannato una parte ex art. 96 c.p.c. anche in ragione di un ricorso definito “redatto col supporto dell’intelligenza artificiale” e risultato un “coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti”. La pronuncia del TAR Milano si distingue per aver spostato il focus dalla responsabilità processuale a quella specificamente deontologica.

La decisione del TAR Milano

Il giudizio amministrativo traeva origine dall’impugnazione della mancata ammissione di un’alunna alla classe successiva di un liceo. A sostegno delle proprie censure, il difensore della parte ricorrente aveva citato nel ricorso diverse pronunce giurisprudenziali, attribuite a vari TAR e al Consiglio di Stato.

Il collegio ha proceduto a una verifica puntuale di tali richiami, constatando come questi fossero non pertinenti o errati. Nello specifico, i precedenti citati si riferivano a materie del tutto diverse da quella scolastica (urbanistica, condono edilizio, volo sportivo, gestione di centri di accoglienza) e riportavano massime non corrispondenti agli “orientamenti giurisprudenziali noti”.

Durante la camera di consiglio, l’avvocato, interpellato dai giudici, avrebbe ammesso di aver reperito la giurisprudenza citata “mediante strumenti di ricerca basati sull’intelligenza artificiale che hanno generato risultati errati”. Il TAR ha qualificato tali risultati come “allucinazioni da intelligenza artificiale”, escludendo che l’utilizzo di tali strumenti potesse avere “una valenza esimente”.

Il Tribunale ha affermato che “la sottoscrizione degli atti processuali ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale”. Ha inoltre sottolineato come tale condotta costituisca una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità (richiamando esplicitamente l’art. 88 del Codice di Procedura Civile ed implicitamente l’art. 9 del Codice Deontologico Forense), in quanto l’inserimento di riferimenti errati introduce “elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria” e rende “inutilmente gravosa” l’attività di controllo da parte del giudice e delle controparti.

Significativamente, il TAR ha anche menzionato la “Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense” (Carta HOROS), elaborata dall’Ordine degli Avvocati di Milano nel 2024, richiamando il principio della centralità della decisione umana e l’“onere di verifica e controllo dell’esito delle ricerche effettuate con i sistemi di intelligenza artificiale” che grava sul difensore.

Di conseguenza, il collegio ha disposto la trasmissione di copia della sentenza all’Ordine degli Avvocati di Milano per le valutazioni di competenza.

Il fenomeno delle “allucinazioni” negli LLM

Le “allucinazioni” cui fa riferimento il TAR sono un fenomeno intrinseco al funzionamento dei modelli linguistici di grandi dimensioni (LLM). Questi sistemi non operano come banche dati ma generano testo predicendo statisticamente la sequenza di parole (token) più probabile in un dato contesto, sulla base dei pattern appresi da vasti dataset testuali. Quando viene richiesta una citazione giurisprudenziale, l’LLM costruisce una stringa formalmente verosimile (es. indicando organo giudicante, numero, anno) perché statisticamente coerente con le convenzioni citazionali presenti nei dati di addestramento, ma non ne garantisce l’esistenza o la pertinenza fattuale. Può quindi inventare sentenze o associare estremi corretti a contenuti errati.

Il quadro deontologico rilevante

La condotta censurata dal TAR Milano si confronta con diversi principi deontologici codificati:

  • 1. Art. 9 CDF - Doveri di probità, dignità, decoro e indipendenza: la norma impone all’avvocato di esercitare l’attività professionale con, tra l’altro, lealtà, correttezza, probità e diligenza. La presentazione di informazioni fuorvianti all’autorità giudiziaria, come nel caso di citazioni giurisprudenziali errate, potrebbe contrastare con i doveri di lealtà e probità menzionati espressamente dal TAR.
  • 2. Art. 12 CDF - Dovere di diligenza: l’avvocato deve svolgere la propria attività “con coscienza e diligenza”. Questo dovere implica intrinsecamente la necessità di verificare l’accuratezza delle informazioni e delle fonti utilizzate negli atti processuali. L’affidamento acritico a uno strumento di IA senza adeguato controllo umano potrebbe configurare una violazione di tale dovere.
  • 3. Art. 14 CDF - Dovere di competenza: sebbene la sentenza non lo richiami esplicitamente, l’uso di strumenti tecnologici avanzati interseca il dovere di competenza. L’avvocato dovrebbe possedere una comprensione adeguata delle capacità e dei limiti degli strumenti di IA che impiega (Principio 2 della Carta HOROS), proprio per evitare errori derivanti da un uso inappropriato o da un eccessivo affidamento.

La Carta HOROS dell’Ordine di Milano, pur non essendo fonte normativa, è stata valorizzata dal TAR come strumento interpretativo dei doveri generali, in particolare per quanto riguarda il Principio 4 sulla centralità della decisione umana, che impone un esame umano su ogni output dell’IA per garantirne “adeguatezza, accuratezza e conformità”.

Anche le recenti Linee Guida del CCBE sull’uso dell’IA generativa da parte degli avvocati (ottobre 2025) rafforzano questi concetti, sottolineando la necessità per i legali di mantenere la competenza professionale (comprendendo capacità e limiti dell’IA e verificandone gli output) e segnalando come uno dei maggiori rischi dell’uso dell’IA in ambito legale proprio quello delle c.d. “allucinazioni”.

L’iter disciplinare avviato

La trasmissione degli atti all’Ordine degli Avvocati di Milano disposta dal TAR avvia l’iter previsto dalla normativa professionale. Ai sensi dell’art. 50, comma 4, della L. 247/2012, il Consiglio dell’Ordine è tenuto a dare notizia della segnalazione all’iscritto, invitandolo a presentare deduzioni, per poi trasmettere immediatamente gli atti al competente Consiglio Distrettuale di Disciplina (CDD) al quale spetta in via esclusiva ogni valutazione sulla rilevanza disciplinare della condotta. Sarà dunque quest’ultimo organo a dover istruire e definire il procedimento, nel pieno rispetto delle garanzie del contraddittorio. Sarà interessante osservare come la questione verrà trattata e a quali esiti perverrà, costituendo uno dei primi casi concreti di valutazione disciplinare sull’uso dell’intelligenza artificiale generativa nella professione forense in Italia.

_______

*Avv. Giovanni Rocchi, Studio Legale Grassi ed Associati

Per saperne di piùRiproduzione riservata ©