Civile

Si discute di intelligenza artificiale nelle aule giudiziarie: il caso ChatGPT nei Tribunali di Roma e di Firenze

Sotto la lente il giudizio in cui i giudici capitolini sono chiamati ad approfondire la legittimità delle contestazioni mosse dal Garante Privacy (prov. n. 755/2024) nei confronti di OpenAI

AI related law concept shown by robot hand using lawyer working tools in lawyers office with legal astute icons depicting artificial intelligence law and online technology of legal law regulations

di Laura Greco*

ChatGPT è forse il più noto, o perlomeno più utilizzato, sistema di intelligenza artificiale generativa tra gli utenti e, fin dal suo ingresso sul web, ha attirato l’attenzione di diverse autorità europee per la protezione dei dati personali. Persino il Comitato europeo per la protezione dei dati, a fine 2023, ha avviato una task force per promuovere la cooperazione e lo scambio di informazioni su eventuali iniziative per l’applicazione del GDPR condotte dalle autorità di protezione dati.

In Italia, il Garante italiano aveva già bloccato, provvisoriamente, il sistema creato da OpenAI (il provider di ChatGPT) e, all’esito dell’istruttoria avviata nel primo semestre del 2023 e conclusasi a dicembre dell’anno scoro, ha irrogato una sanzione amministrativa pecuniaria di 15 milioni di euro.

Le condotte contestate:

a) omessa notifica di un data breach subìto nel marzo 2023;

b) violazione del principio di trasparenza e dei relativi obblighi informativi nei confronti degli utenti;

c) trattamento di dati finalizzato all’addestramento del chatbot in assenza di idonea base giuridica;

d) mancata verifica dell’età degli utenti, con conseguenti rischi a carico dei fruitori minori d’età;

e) parziale e inadeguata osservanza dell’ordine del Garante, precedentemente prescritto al provider, di realizzare una campagna di comunicazione a favore degli interessati.

Come si legge nel provvedimento n. 755 del 2 novembre 2024, il Garante ha qualificato le violazioni come di elevata gravità, pur riconoscendo alcune circostanze attenuanti, tra cui la revisione dell’informativa privacy, l’adozione di meccanismi di age verification e di misure di limitazione del trattamento di dati personali durante le fasi di addestramento del sistema di IA.

OpenAI impugna il provvedimento del Garante

Con procedimento iscritto al n. R.G. 4785/2025, OpenAI ha proposto opposizione al Tribunale di Roma avverso il provvedimento del Garante, sostenendo in particolare la sproporzionalità della sanzione. Nelle more di pronunciarsi nel merito, con ordinanza del 21 marzo 2025, il Tribunale di Roma ha disposto la sospensione cautelare del provvedimento del Garante privacy, pur subordinando la concessione del provvedimento cautelare alla prestazione di una cauzione.

I giudici capitolini dovranno ora approfondire la legittimità delle contestazioni mosse dal Garante. Ma non sfugge l’importanza di questa pronuncia, che andrà ben oltre al merito e alla verifica della condotta del Garante. Il giudizio, che il Tribunale di Roma avrà l’onere e l’onore di emettere, rappresenterà di fatto la posizione dell’Italia o, perlomeno, della giurisprudenza italiana rispetto al tema dell’intelligenza artificiale, inserendosi nel più esteso dibattito che vede già contrapposti Big Tech e attivisti privacy: la revisione del GDPR (il Regolamento europeo sulla protezione dei dati personali). Sebbene il Regolamento europeo sia stato già oggetto del report con cui, ogni quattro anni dal 2020, la Commissione ne verifica lo stato di applicazione, potrebbe rientrare in quel pacchetto di normative che la Commissione si propone di semplificare, secondo quanto emerge dal Work Programme 2025.

Senza dubbio, quindi, i giudici romani sono chiamati ad affrontare un tema tanto attuale quanto delicato e che, fino ad oggi, sembra essere stato affrontato in maniera invece solo accessoria nell’ambito di un’altra recente pronuncia giudiziaria.

Il caso del Tribunale di Firenze

Recentemente ChatGPT è stato infatti coinvolto in un’altra vertenza giudiziaria che, tuttavia, non l’ha visto come diretta parte in causa.

Nell’ambito di un procedimento vertente su marchi e contraffazione dinanzi al Tribunale di Firenze, ChatGPT ha fatto il suo ingresso in aula poiché era stato impiegato da uno degli avvocati per un’attività di ricerca giurisprudenziale che, tuttavia, aveva dato origine a sentenze inesistenti, poi riportate negli atti di causa. ChatGPT generava dunque risultati errati (le c.d. “allucinazioni”) e l’avvocato ometteva la verifica di tali risultati.

Il Tribunale, tuttavia, non ha ritenuto di sanzionare la condotta del difensore, poiché la menzione dei riferimenti giurisprudenziali, per quanto inesistenti, non avrebbe avuto l’effetto di mutare la strategia difensiva e, dunque, di influenzare l’organo giudicante.

Aldilà delle considerazioni di merito, vale qui la pena evidenziare come la pronuncia in esame avrebbe potuto fornire un orientamento, anche per future condotte, sull’utilizzo di questi strumenti di IA generativa in ambito professionale. 

Nel frattempo, imprese ed enti pubblici si stanno muovendo nella regolamentazione dell’utilizzo dei sistemi di IA in ambito lavorativo e istituzionale, attraverso la redazione di policy interne e l’adozione di linee guida, mostrando una forte consapevolezza della necessità di disciplinare l’uso di questi strumenti, tanto utili quanto dannosi ove impiegati senza criterio.

______

*Avv. Laura Greco, Studio Legale Giusella Finocchiaro

Per saperne di piùRiproduzione riservata ©