Comunitario e Internazionale

Addestramento AI tra Copyright e Privacy: due recenti sentenze a confronto

Le autorità giudiziarie, in diversi ordinamenti, stanno mostrando una maggiore apertura verso l’addestramento delle AI, riconoscendone in certi casi la liceità sia sul piano del diritto d’autore sia su quello della protezione dati

di Lucia Maggi, Giuseppe Vaciago*

USA – Fair Use e Copyright: il caso K. v. Meta

La recente decisione del giudice federale Vince Chhabria – resa il 25 giugno 2025 nel caso K. v. Meta – ha stabilito che l’uso di 13 libri protetti da copyright per addestrare i modelli linguistici di Meta (tra cui LLaMA) rientra nella dottrina del “fair use”, bocciando le accuse degli autori, tra cui una famosa stand up comedian e uno scrittore, giornalista e attivita. Fondamentale nella motivazione è stata l’assenza di prove sufficienti di un effetto negativo sul mercato dei libri: secondo la Corte, infatti, i ricorrenti “hanno sviluppato un record così debole da non sollevare neanche un fatto contestato che impedisca un giudizio sommario”.

Il giudice ha riconosciuto la natura trasformativa dell’attività di addestramento dell’AI descrivendolo come un processo volto a far leggere e analizzare i testi per apprendere pattern linguistici, ma non a riprodurli e considerato l’uso delle opere diverso dall’utilizzo diretto a scopo espressivo o commerciale. Il Giudice ha, tuttavia, tenuto a precisare che la sentenza è circoscritta a questo singolo caso e che non può essere interpretata come una licenza universale a usare qualunque materiale protetto per allenare modelli AI; tutto dipende dalla qualità delle argomentazioni e dall’impatto concreto sul mercato.

Alla sentenza Meta si aggiunge un altro importante precedente recente: lo stesso trattamento legale è stato riconosciuto a favore di Anthropic, che ha addestrato Claude su milioni di libri, benché permangano questioni aperte circa l’acquisizione da fonti pirata. Questi due casi delineano una linea interpretativa favorevole all’industria AI, basata sul fatto che l’uso di testi protetti per fini trasformativi può rientrare nel fair use, a meno che gli autori non siano in grado di dimostrare di aver patito un danno reale e diretto.

Sulla base della recente giurisprudenza statunitense, quindi, non è sufficiente sostenere che i modelli AI possano generare contenuti concorrenti, bisogna dimostrarlo. Gli autori, in questo caso, sono risultati soccombenti perché non sono riusciti a fornire la prova del danno economico effettivamente patito. Tuttavia, è importante tenere presente che la Corte ha chiarito che non tutti i casi simili saranno perdenti per gli autori delle opere protette; al contrario, con prove più solide, il giudice potrebbe decidere in senso opposto.

A seguito di queste pronunce non sono mancati segnali di reazione da parte dei creatori di contenuti. Alcuni editori hanno minacciato di ritirare materiali dal web, altri spingono per modelli pay per crawl, che impone costi alle AI per accedere ai contenuti. Analogamente, associazioni di autori stanno supportando leggi come il Generative AI Copyright Disclosure Act, per imporre trasparenza e obblighi di remunerazione.

Germania – Dati Personali e Privacy: la decisione del tribunale di Colonia su Meta

In Europa il dibattito sull’addestramento delle AI con dati personali ha avuto un momento chiave con la decisione del tribunale superiore di Colonia (OLG Köln) del 23 maggio 2025. In tale pronuncia, la Corte ha respinto il ricorso d’urgenza presentato da un’associazione consumatori che mirava a impedire a Meta di utilizzare i dati degli utenti di Facebook e Instagram per addestrare i propri modelli di intelligenza artificiale.

Meta aveva annunciato l’intenzione di impiegare contenuti pubblici degli utenti (post, commenti, “like” di profili non privati) per migliorare i suoi modelli linguistici Llama e l’assistente conversazionale Meta AI, sostenendo che tali dati fossero essenziali per potenziare i sistemi AI e offrire migliori servizi. I ricorrenti obiettavano che questo trattamento, in assenza di consenso esplicito, violasse il GDPR e persino il Digital Markets Act (DMA) a causa della combinazione illecita di dati tra servizi.

Il tribunale di Colonia ha dato ragione a Meta, stabilendo che l’uso dei dati personali degli utenti pubblicamente disponibili per il training dell’AI è lecito, purché avvenga nel rispetto del GDPR. In particolare, i giudici hanno ritenuto applicabile l’art. 6(1)(f) GDPR, che consente il trattamento dei dati per il legittimo interesse del titolare, bilanciando tale interesse con i diritti degli interessati. Nel caso concreto, l’interesse di Meta a sviluppare e migliorare modelli di AI (considerato un interesse economico e innovativo reale) è stato giudicato prevalente rispetto all’impatto sui diritti degli utenti, in quanto questi ultimi avevano volontariamente reso pubblici i dati in questione.

La Corte ha sottolineato alcuni fattori decisivi a sostegno di Meta: in primis, l’adozione di misure di mitigazione del rischio privacy. Meta ha assicurato che i dati utilizzati per l’addestramento sono stati pseudonimizzati (rimozione di identificativi diretti come nomi o contatti) e limitati a informazioni già visibili pubblicamente. Inoltre, agli utenti è stato garantito un effettivo diritto di opposizione prima dell’inizio dell’addestramento, ad esempio permettendo di impostare il profilo come privato o di esercitare l’opt-out tramite apposite notifiche.

Questi elementi hanno convinto la Corte che il trattamento fosse necessario e proporzionato allo scopo. La stessa Corte ha perfino fatto riferimento al futuro AI Act europeo, evidenziando come lo stesso legislatore UE riconosca la necessità di utilizzare enormi quantità di dati per addestrare sistemi di intelligenza artificiale avanzati. Ciò sembra indicare una consapevolezza istituzionale dell’importanza di consentire adeguati dataset di training (anche allo scopo di migliorare l’accuratezza dei modelli ed evitare fenomeni come le “allucinazioni” delle AI generative). Va precisato che la pronuncia tedesca, sebbene favorevole a Meta, non rappresenta un “via libera” illimitato. Gli stessi giudici hanno rimarcato che l’addestramento di AI con dati personali senza consenso va valutato caso per caso, in base ai requisiti del GDPR.

Le aziende interessate dovranno dunque motivare con chiarezza il proprio legittimo interesse, adottare misure di minimizzazione e trasparenza, e offrire garanzie ai consumatori. In questo senso, la decisione di Colonia – circoscritta ai dati che gli utenti hanno condiviso consapevolmente su piattaforme Meta, dopo essere stati informati a giugno 2024 di questo possibile utilizzo – non implica che qualsiasi dato personale pubblicato online sia liberamente utilizzabile per addestrare IA da parte di chiunque.

Conclusioni

Le due vicende analizzate evidenziano un trend emergente: le autorità giudiziarie in diversi ordinamenti stanno mostrando una maggiore apertura verso l’addestramento delle AI, riconoscendone in certi casi la liceità sia sul piano del diritto d’autore sia su quello della protezione dati. Si profila dunque uno scenario in cui l’importanza di consentire l’utilizzo massiccio di dati per migliorare i modelli di AI viene bilanciata con le tutele esistenti, anziché bloccata da queste. Tuttavia, è fondamentale non sopravvalutare la portata di tali decisioni fuori dal loro contesto specifico.

Da un lato, la vittoria di Meta sul fronte copyright negli Stati Uniti è dipesa dalle carenze probatorie degli autori, e il giudice stesso ha lasciato intendere che con argomenti più forti (ad esempio evidenze di un impatto sul mercato) l’esito potrebbe cambiare.

Dall’altro, la decisione favorevole a Meta in Germania riguarda un ambito circoscritto, dove gli utenti avevano già acconsentito o quantomeno accettato, all’interno della piattaforma, che i loro contenuti pubblici potessero essere riutilizzati a fini di miglioramento dei servizi (circostanza rafforzata dalla possibilità di opt-out).

In sintesi, l’orientamento giurisprudenziale sembra andare a favore dell’AI, ma non si tratta di una resa incondizionata: l’addestramento dei modelli potrà continuare a espandersi solo entro confini ben delineati, nei quali i diritti degli autori e degli utenti siano adeguatamente considerati e protetti.

________

*Lucia Maggi e Giuseppe Vaciago – 42 Law Firm

Per saperne di piùRiproduzione riservata ©