AI e cultura: governare la rivoluzione per rafforzare pluralismo culturale e dignità del lavoro creativo
“Se vogliamo che l’AI sia compatibile con i diritti, dobbiamo intervenire contemporaneamente su regole, competenze e coordinamento”, i contenuti della proposta presentata dal Ministero della Cultura
La velocità con cui l’intelligenza artificiale è entrata nelle nostre vite è impressionante. In pochi mesi abbiamo normalizzato strumenti che generano testi, immagini, musica, video, traduzioni, sceneggiature, doppiaggi e perfino performance “virtuali”. Il mondo dello spettacolo – e più in generale quello della cultura – non è stato semplicemente sfiorato da questa trasformazione: è uno dei laboratori principali in cui l’AI viene già usata tutti i giorni.
Supporta la scrittura creativa e la pre-produzione, accelera l’editing audio-video, consente di restaurare opere danneggiate, rende più fruibili archivi e cataloghi, agevola sottotitoli e doppiaggi multilingue, apre nuove strade per l’accessibilità del patrimonio culturale.
Proprio questa rapidità, però, rende l’AI uno strumento a doppio taglio. Le potenzialità sono enormi, ma altrettanto lo sono i rischi di un uso incontrollato, cioè privo di regole chiare, limiti e responsabilità definite. Nel settore dello spettacolo il problema è particolarmente evidente: modelli addestrati su opere protette senza consenso o compenso, tecnologie che possono risultare discriminatorie o invasive, sistemi che spingono verso la standardizzazione dei contenuti e schiacciano la diversità culturale.
In un ecosistema già fragile, fatto di carriere discontinue, compensi bassi e contratti spesso sbilanciati, gli effetti si amplificano: meno controllo sulle opere, più asimmetrie nei rapporti con le piattaforme, più fatica a vedere riconosciuto il valore del lavoro creativo.
Di fronte a tutto questo, l’idea di “fermare” l’AI è una scorciatoia tanto intuitiva quanto illusoria. Bloccare la tecnologia significherebbe, di fatto, rinunciare a una leva competitiva decisiva e lasciare campo libero a chi non si pone alcun problema di diritti. La vera questione non è se usare l’intelligenza artificiale, ma come.
Serve una governance che consenta di sfruttarne le opportunità entro un perimetro di garanzie, in cui il rapporto uomo-macchina sia riequilibrato: la tecnologia deve potenziare la creatività, non sostituirla; la produzione culturale deve restare un luogo di libertà, responsabilità e riconoscimento per chi crea.
Con l’AI Act l’Europa ha iniziato a costruire questo perimetro, introducendo obblighi di trasparenza e responsabilità per i sistemi di intelligenza artificiale, in particolare quelli generativi. È un passo importante, ma non risolutivo. Gli aggiustamenti in corso sui tempi e sulle modalità di applicazione del regolamento mostrano quanto sia complesso accompagnare l’innovazione con regole stabili. Nel frattempo, però, le tecnologie non aspettano.
Affidarsi solo alla cornice europea rischia di lasciare scoperti, nel breve periodo, proprio i soggetti più vulnerabili: gli autori, gli interpreti, i lavoratori e le lavoratrici della cultura. Da qui l’esigenza di affiancare all’impianto UE una strategia nazionale che protegga opere e persone mentre il quadro europeo si consolida.
In questa prospettiva durante gli Stati Generali dello Spettacolo è stata predisposta e presentata al Ministero della Cultura una proposta di strategia su AI e cultura, pensata come strumento operativo, non come esercizio teorico. Il cuore della proposta è semplice: se vogliamo che l’AI sia compatibile con i diritti, dobbiamo intervenire contemporaneamente su regole, competenze e coordinamento.
Sul fronte delle regole, la priorità è rendere rapidamente effettivi – nel settore culturale – gli obblighi di trasparenza e tracciabilità previsti dall’AI Act. Significa sapere quali dati sono stati usati per addestrare un modello, poter ricostruire i processi con cui un contenuto viene generato, disporre di documentazione tecnica sufficiente a verificare il rispetto del diritto d’autore e delle norme vigenti. Senza questi strumenti, non c’è vero controllo: diventa impossibile contestare un uso illegittimo delle opere o chiedere una remunerazione adeguata.
Registri, standard tecnici condivisi e sandbox regolatorie dedicate alla creatività non sono dettagli burocratici, ma le condizioni minime per una innovazione che non scarichi tutti i rischi su autori e interpreti. Sfortunatamente il Digital Omnibus del 19 novembre scorso ha rallentato sensibilmente questo procedimento posticipando – tra l’altro - al 2027 il termine per l’entrata in vigore dell’art. 50 dell’AI Act.
Il secondo asse della strategia riguarda le persone. Governare l’AI non vuol dire solo regolare i modelli, ma mettere chi lavora nella cultura nelle condizioni di capire cosa succede e di far sentire la propria voce. Ciò richiede percorsi strutturati di formazione e aggiornamento, che combinino competenze tecniche e giuridiche: riconoscere bias e violazioni, leggere una clausola contrattuale sull’uso dell’immagine o della voce sintetica, negoziare condizioni di utilizzo e di compenso, comprendere quali diritti si possono esercitare e come.
Nello stesso tempo, l’AI può diventare uno strumento positivo proprio per chi crea: per valorizzare e conservare gli archivi, per sperimentare nuovi linguaggi, per raggiungere pubblici che oggi restano esclusi. La formazione deve quindi servire non solo a difendersi, ma anche a usare l’AI come leva di nuova progettualità artistica e professionale.
Il terzo elemento è il coordinamento. La frammentazione storica del settore culturale rende difficile sedersi ai tavoli che contano con una posizione riconoscibile. Serve una rete stabile tra istituzioni pubbliche, imprese, associazioni, artisti, sindacati, università, capace di elaborare proposte comuni su dati, licenze, standard etici e modelli di remunerazione.
La Legge 132/2025 ha istituito l’Osservatorio Nazionale sull’Intelligenza Artificiale, con il compito di monitorare l’impatto dell’AI su occupazione, professioni e organizzazione del lavoro, promuovere formazione e riqualificazione e supportare le politiche pubbliche. In una strategia dedicata ad AI e cultura, questo organismo può diventare il punto di ascolto strutturato per le professioni creative e il luogo in cui il settore prende la parola in modo unitario anche a livello europeo e internazionale.
L’obiettivo di fondo è chiaro: rendere questa rivoluzione tecnologica davvero antropocentrica. Mettere al centro i diritti degli artisti e di chi lavora nello spettacolo significa, in ultima analisi, difendere i diritti fondamentali di ogni persona che entra in relazione con la cultura, sia come autore sia come pubblico.
In questo scenario l’AI può essere uno strumento che amplifica la creatività, libera tempo e risorse per il lavoro umano, distribuisce meglio le opportunità, apre nuovi spazi di espressione e di partecipazione. Senza una strategia di questo tipo, rischiamo invece una trasformazione opaca e diseguale, in cui la tecnologia consolida le asimmetrie esistenti. Con una governance lungimirante, al contrario, l’AI può rafforzare – anziché erodere – pluralismo culturale e dignità del lavoro creativo.
________
*Avv. Lucia Maggi, partner di 42 Law Firm




