Civile

Avvocati: è lite temeraria il ricorso infondato creato con l’intelligenza artificiale

Si tratta del primo caso in cui il Tribunale di Torino ha censurato il comportamento della parte processuale “colpevole” di confidare nella bontà degli output offerti dall’IA, senza aver effettuato alcun controllo

di Andrea Sirotti Gaudenzi

Anche i professionisti possono ricorrere agli strumenti offerti dall’intelligenza artificiale, ma è necessario fare attenzione all’uso che se ne fa. In particolare, non è possibile scrivere atti giudiziari affidandosi alla tecnologia senza effettuare puntuali verifiche. Sul tema si è recentemente espressa la Sezione lavoro del Tribunale di Torino, che, con sentenza datata 16 settembre, ha stigmatizzato la redazione di un ricorso realizzato tramite l’intelligenza artificiale, pieno zeppo di indicazioni fallaci e inconferenti. Si tratta del primo caso in cui un’Autorità giudiziaria nazionale ha censurato pesantemente il comportamento della parte processuale “colpevole” di confidare nella bontà degli output offerti dall’IA generativa, senza aver effettuato alcun controllo.

La nuova legge italiana sull’IA e le regole per le professioni intellettuali

Potrà essere criticata sotto vari profili, ma (approvata dal Senato il 17 settembre) provvidenzialmente limita alle attività strumentali e di supporto l’utilizzo dei sistemi di intelligenza artificiale nelle professioni intellettuali. L’art. 13 del testo normativo (di prossima pubblicazione in Gazzetta) richiede inoltre che l’eventuale utilizzo di tali sistemi sia oggetto di specifica informativa ai clienti da parte dei professionisti.

Il tutto perché, come si sa, le “allucinazioni” dell’IA sono un pericolo concreto. Dati raccolti errati, grovigli di algoritmi, balbettii della statistica computazionale sono alla base di questi errori in grado di generare strafalcioni colossali, che spesso arrivano dentro le aule di giustizia.

Negli Stati Uniti sono sanzionati pesantemente gli avvocati che presentano informazioni generate da Chat GPT senza controllarne la veridicità.

Il precedente del Tribunale di Firenze

In Italia la situazione era stata analizzata per la prima volta dal Tribunale di Firenze, che - nel marzo 2025 - aveva affrontato un caso in cui il legale di una delle parti del giudizio si era affidato ai risultati suggeriti da un sistema di IA generativa. Tuttavia, l’avvocato aveva “scaricato la responsabilità” su una collaboratrice e l’Autorità giudiziaria toscana lo aveva “graziato”, ritenendo di non dover dare applicazione alle prescrizioni dettate dall’art. 96 c.p.c., che, come noto, si occupa della responsabilità processuale aggravata (“lite temeraria”) di chi abbia agito o resistito in giudizio con malafede o colpa grave.

Le motivazioni del Tribunale di Torino

Ben diverse sono le conclusioni alle quali è giunta la Sezione lavoro del Tribunale di Torino, che, con il recentissimo provvedimento, ha applicato i commi 3 e 4 dell’art. 96 del codice di rito di fronte alla presentazione di un ricorso infondato e redatto tramite l’ausilio dei dati forniti da un sistema di IA.

Il ricorrente aveva proposto opposizione nei confronti di una ingiunzione di pagamento, formulando eccezioni di ogni genere (dalla decadenza dal potere impositivo, all’incompetenza territoriale, sino alla presenza di vizi di varia natura e alla prescrizione dei crediti). Se anche solo una piccola parte delle eccezioni fosse stata fondata, il ricorrente avrebbe potuto confidare in un successo processuale. Peccato, però, che l’atto introduttivo si fosse rivelato un’accozzaglia di argomentazioni fallaci e inventate di sana pianta dall’intelligenza artificiale generativa (e che l’avvocato del ricorrente avrebbe dovuto verificare).

L’Autorità giudiziaria ha quindi ritenuto che fosse necessario, in applicazione del terzo comma dell’art. 96 c.p.c., condannare parte ricorrente al pagamento di 500 euro in favore di ciascuna delle parti resistenti. Infatti, è stato osservato che il ricorrente avesse agito in giudizio con malafede o, quantomeno con colpa grave, avendo formulato eccezioni manifestamente infondate tramite «un ricorso redatto “col supporto dell’intelligenza artificiale”, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio». Ne è conseguita anche la condanna a una somma in favore della cassa delle ammende che è stata equitativamente determinata in ulteriori 500 euro.

Del resto, se l’intelligenza artificiale deve essere una «tecnologia antropocentrica», come si legge nel regolamento Ue dedicato al tema, è evidente che non possiamo affidarci a quella tecnologia dimenticando che ci troviamo davanti uno strumento: un “arnese” potentissimo, ma che necessita del (costante) controllo umano.

Per saperne di piùRiproduzione riservata ©