Civile

Il paradosso del deepfake perfetto: quando l’IA è troppo brava per essere contestata

Un lavoratore vince la causa di reintegra con screenshot WhatsApp. L’azienda grida al deepfake. Il giudice risponde: “Prove, non fantasmi”. Ma cosa succede quando il fantasma è indistinguibile dalla realtà?

di Alberto Bozzo*

La sentenza del Tribunale di Modena del 29 dicembre 2025 passerà alla storia per quello che non dice. Un responsabile commerciale licenziato produce messaggi WhatsApp per dimostrare l’innocuità dei suoi contatti con i clienti. L’azienda, disperata, evoca lo spettro dell’intelligenza artificiale: quei messaggi potrebbero essere stati “manipolati e/o creati ad hoc con l’intelligenza artificiale o altro sistema informatico”. Il giudice Andrea Marangoni liquida la contestazione come“oltremodo generica”. Fine della storia. Reintegra. Risarcimento.

Tutto giusto. Tutto sbagliato. Il problema non è questa sentenza. Il problema è la prossima.

Il Tribunale applica correttamente l’articolo 2712 del Codice Civile: le riproduzioni informatiche fanno piena prova se non disconosciute specificamente. E “specificamente” significa indicare le parti mancanti, aggiunte o contraffatte. Offrire elementi indiziari. Dire cosa non torna, non limitarsi a sussurrare che qualcosa potrebbe non tornare.

La Cassazione lo ripete da anni. Il disconoscimento generico è una “deduzione difensiva” che non impedisce al giudice di usare il documento. Serve sostanza, non paranoia.

Ma ecco il cortocircuito: l’intelligenza artificiale generativa del 2025 non lascia parti mancanti. Non produce artefatti visibili. Non sbaglia i dettagli. Un deepfake audio di qualità professionale è foneticamente indistinguibile dalla voce originale. Uno screenshot WhatsApp generato con i tool giusti rispetta font, timestamp, metadata.

Come contesti specificamente qualcosa che è stato progettato per essere incontestabile?

Il diritto processuale italiano chiede alla parte che disconosce di indicare “gli aspetti differenziali di quello prodotto rispetto all’originale”. Ma quale originale? Un messaggio WhatsApp non ha un “originale” nel senso tradizionale. È un database locale, modificabile, esportabile, ricreabile. La stessa Cassazione (ordinanza 37290/2022) ammette che quando si nega l’esistenza stessa dell’originale servono “elementi indiziari idonei ad accreditare la falsità materiale”.

Tradotto: devi dimostrare che il documento è falso prima ancora di sapere se lo è.

È come chiedere a qualcuno di provare che un quadro è un falso senza poterlo analizzare, senza accesso ai pigmenti, senza conoscere la tecnica del falsario. Solo guardandolo e dicendo: “Questo Vermeer mi sembra strano”.

I periti forensi digitali esistono. Ma costano. E soprattutto: funzionano retroattivamente. Puoi analizzare i metadata di un file, cercare incongruenze nei pixel, verificare la catena di custodia. Ma se il file è stato generato ex novo con un modello linguistico o un sistema di sintesi vocale di ultima generazione, non c’è catena di custodia da verificare. Non c’è originale da confrontare. C’è solo un artefatto digitale perfettamente coerente con se stesso.

L’azienda di Modena ha sbagliato tutto. Non ha prodotto perizie. Non ha indicato incongruenze specifiche. Non ha nemmeno proposto una versione alternativa del contenuto dei messaggi. Ha semplicemente agitato il fantasma dell’IA come un esorcismo digitale.

Ma la domanda rimane: cosa avrebbe dovuto fare?

La risposta onesta è che non lo sappiamo. Il sistema probatorio italiano è costruito su un presupposto implicito: che le prove abbiano una natura verificabile. Un documento cartaceo può essere sottoposto a perizia calligrafica. Una fotografia tradizionale conserva tracce del processo di sviluppo. Anche un documento informatico “classico” lascia impronte: metadata, hash, log di sistema.

L’IA generativa rompe questo presupposto. Non modifica documenti esistenti: ne crea di nuovi. Non altera la realtà: ne produce una alternativa. E lo fa con una fedeltà che supera la capacità di distinzione dell’occhio umano, dell’orecchio umano, e spesso anche degli strumenti forensi standard.

Il vuoto è normativo, ma prima ancora è epistemologico.

L’articolo 2712 del Codice Civile risale al 1942. Parlava di “riproduzioni fotografiche” e “cinematografiche”. È stato esteso per analogia alle riproduzioni informatiche, ma il suo impianto logico presuppone che una “riproduzione” sia, appunto, la copia di qualcosa che esiste. Un messaggio WhatsApp generato da un LLM non è la riproduzione di nulla. È una creazione originale travestita da documento.

La giurisprudenza si è adattata pragmaticamente. La Cassazione a Sezioni Unite (sentenza 11197/2023) ha chiarito che gli screenshot WhatsApp sono utilizzabili come prova documentale “tenuto conto del riscontro della provenienza e attendibilità degli stessi”.

Ma come si riscontra la provenienza di un messaggio che può essere stato scritto da un algoritmo?

Come si valuta l’attendibilità di un audio che può essere stato sintetizzato partendo da tre secondi di campione vocale?

Il caso di Modena è quasi comico nella sua semplicità. I messaggi contestati riguardavano la prenotazione di un hotel e l’invio di un catalogo colori. Contenuti banali, verificabili incrociando altre fonti (la fiera si è svolta davvero, l’hotel presumibilmente esiste, il catalogo è un documento aziendale). L’azienda non ha nemmeno provato a costruire una narrazione alternativa.

Ma immaginate uno scenario diverso. Un dipendente accusato di molestie produce messaggi WhatsApp che lo scagionano. O un manager sotto indagine per corruzione presenta email che dimostrano la sua estraneità. O un testimone chiave in un processo penale fornisce registrazioni audio che contraddicono l’accusa.

In tutti questi casi, la controparte si troverebbe nella posizione dell’azienda di Modena: dover contestare “specificamente” qualcosa che è stato progettato per resistere a ogni contestazione specifica.

Esistono strumenti di rilevamento dei deepfake. Funzionano. A volte.

I migliori sistemi di detection analizzano micro-pattern invisibili all’occhio umano: battiti di ciglia troppo regolari nei video, artefatti di compressione anomali nelle immagini, discontinuità spettrali negli audio. Ma questi strumenti sono addestrati sui deepfake di ieri. E l’IA generativa migliora più velocemente dei sistemi di rilevamento.

È una corsa agli armamenti asimmetrica. Chi produce deepfake ha accesso agli stessi paper accademici di chi li rileva. Ogni nuovo metodo di detection diventa un obiettivo di ottimizzazione per il prossimo modello generativo. OpenAI, Google, Anthropic pubblicano ricerche sulla sicurezza che vengono immediatamente studiate da chi vuole aggirare i controlli.

Il risultato è un sistema giuridico che chiede certezze a una tecnologia che produce incertezza per design.

La sentenza di Modena stabilisce un principio ragionevole: non puoi contestare una prova digitale limitandoti a evocare lo spettro dell’intelligenza artificiale. Serve sostanza. Serve specificità. Servono elementi concreti.

Ma questo principio funziona solo finché i deepfake sono riconoscibili. Finché lasciano tracce. Finché la differenza tra vero e falso è tecnicamente dimostrabile, anche se difficile da dimostrare.

Quando quella differenza scomparirà, e scomparirà presto, ci troveremo con un sistema probatorio costruito per un mondo che non esiste più.

L’azienda di Modena ha perso perché ha contestato male. La prossima azienda, quella che contesterà bene, potrebbe comunque non avere gli strumenti per vincere.

E il lavoratore che ha ragione, ma non può più provarlo, non avrà nemmeno una sentenza da impugnare.

_______

*Avv. Alberto Bozzo, Responsabile ENIA Connect - Ente Nazionale per l’Intelligenza Artificiale

Per saperne di piùRiproduzione riservata ©