Comunitario e Internazionale

Il “Napster moment” dell’intelligenza artificiale: cosa ci insegna il caso Anthropic

Per la prima volta il valore dei contenuti creativi viene quantificato anche in relazione al mercato dell’IA aprendo, così, la strada a nuovi modelli di business

di Giuseppe Accardo*

L’accordo da un miliardo e mezzo di dollari che Anthropic ha raggiunto con un gruppo di autori americani segna un momento di svolta nel dibattito globale sul rapporto tra intelligenza artificiale e diritto d’autore. La società, sviluppatrice del modello linguistico Claude, è finita al centro di una class action che la accusava di aver utilizzato libri protetti da copyright, spesso reperiti attraverso copie pirata disponibili online, per addestrare il proprio sistema di IA.

Il tribunale federale di San Francisco, investito del caso, ha fissato precise scadenze per la gestione della controversia, tra cui la consegna dell’elenco completo delle opere coinvolte e la predisposizione di moduli di rivendicazione per gli autori.

Quella che all’apparenza potrebbe sembrare una disputa economica si rivela in realtà come il primo vero terreno di scontro per definire chi possiede i dati e con quali modalità questi possano essere impiegati nei processi di addestramento. I dati, infatti, non sono più semplici informazioni, ma risorse economiche di enorme valore. Da una parte autori ed editori rivendicano il diritto a una compensazione per l’uso delle loro opere, dall’altra le aziende tecnologiche sostengono che buona parte di queste fonti rientri nel cosiddetto “commons digitale” e possano essere impiegate liberamente sotto l’ombrello del fair use.

Le conseguenze legali di questo scontro sono profonde. Negli Stati Uniti, il concetto di fair use è interpretato in maniera flessibile e si presta a letture diverse a seconda dei contesti, mentre in Europa prevale un approccio più restrittivo e protettivo nei confronti degli autori. Questo disallineamento rischia di creare un terreno incerto per le aziende che operano a livello globale. Parallelamente, sta emergendo l’ipotesi che in futuro diventino sempre più diffusi contratti di licenza specificamente dedicati all’addestramento dei modelli di intelligenza artificiale, un’evoluzione che riecheggia le dinamiche già note nel mercato del software.

Resta aperta anche la questione della responsabilità:

se un modello genera un contenuto che appare come derivato da un’opera protetta, chi deve rispondere?

L’azienda che ha sviluppato il sistema o l’utente che lo utilizza?

Inoltre, cresce la pressione verso una maggiore trasparenza tecnica. I tribunali cominciano a chiedere strumenti che consentano di risalire all’origine dei dati utilizzati nei dataset, un obiettivo che comporta sfide tecniche di enorme complessità.

Non è solo il mondo dell’editoria a osservare con attenzione questo scenario. L’intera industria creativa, dalla musica al cinema fino al design, intuisce che il maxi-risarcimento di Anthropic rappresenta un precedente economico di grande rilievo. Per la prima volta, il valore dei contenuti creativi viene quantificato anche in relazione al mercato dell’IA. Questo apre la strada a nuovi modelli di business: database autorizzati e licenze di accesso potrebbero diventare la norma, offrendo agli autori un riconoscimento economico e alle aziende tecnologiche un quadro più chiaro entro cui operare.

A livello internazionale le strategie sono divergenti. L’Unione Europea, con l’AI Act e il Data Act, sta cercando di costruire un quadro regolatorio stringente, incentrato sulla trasparenza e sulla responsabilità. Negli Stati Uniti, pur in assenza di una normativa federale specifica, i maxi-risarcimenti rischiano di generare un clima di cautela e di frenare gli investimenti. In Asia, invece, la priorità rimane la crescita dell’innovazione, anche se Cina e Giappone mostrano un’attenzione crescente alla protezione del copyright.

Molti osservatori hanno paragonato questo momento al caso Napster che, all’inizio degli anni Duemila, sconvolse l’industria musicale. Allora, la diffusione delle piattaforme di file sharing spinse le case discografiche a reinventarsi, dando vita a nuovi modelli di distribuzione e di consumo della musica. Oggi, il caso Anthropic potrebbe avere un effetto simile: spingere verso la creazione di licenze collettive, di strumenti di watermarking e tracciabilità dei contenuti, e di nuove forme di collaborazione tra creatori e imprese tecnologiche.

In questo contesto, l’accordo non chiude semplicemente una causa legale: apre piuttosto un capitolo nuovo in cui il diritto d’autore e l’intelligenza artificiale non possono più viaggiare su binari separati. Il futuro dipenderà dalla capacità di conciliare due esigenze apparentemente contrapposte, quella di riconoscere e tutelare la creatività umana e quella di permettere all’innovazione tecnologica di esprimere il proprio potenziale. È da questo equilibrio che dipenderà non solo la sostenibilità dell’industria culturale, ma anche la credibilità e la trasparenza dei sistemi di intelligenza artificiale che stanno ridisegnando la nostra società.

_______

*Giuseppe Accardo, Pollicino & Partners AI Advisory

Per saperne di piùRiproduzione riservata ©