La stretta normativa sull’AI generativa e la prospettiva di un orizzonte disciplinato, già dal 2025
Per i fornitori di modelli di IA per finalità generali, già dal 2 agosto 2025, sono previsti obblighi di produzione documentale su architettura, potenza computazionale e provenienza dei dati per addestramento, nonché sui meccanismi adottati per limitare la generazione di contenuti illegali
L’intelligenza artificiale generativa si sta affermando come uno degli strumenti più trasformativi del nostro tempo, con applicazioni che spaziano dalla creazione di immagini e testi alla progettazione di strategie di marketing, all’assistenza legale automatizzata. Tuttavia, il suo utilizzo solleva questioni normative complesse che stanno rapidamente attirando l’attenzione di giuristi, legislatori e imprese. Il 2025 rappresenta un anno chiave per questo dibattito, in cui si intrecciano due direttrici fondamentali: da un lato l’emergere di cause giudiziarie strategiche che mettono alla prova i limiti giuridici del machine learning, dall’altro l’attuazione del Regolamento (UE) 2024/1689, noto come AI Act, il primo strumento normativo organico sull’intelligenza artificiale adottato da un’autorità sovranazionale.
Tra le controversie di maggiore rilevanza si segnala il procedimento intentato da The Walt Disney Company e altri grandi gruppi dell’intrattenimento contro Midjourney, una delle principali piattaforme di generazione automatica di immagini. Secondo gli attori, l’algoritmo avrebbe utilizzato, durante la fase di addestramento, materiali protetti da copyright, dando luogo a risultati che riproducono fedelmente personaggi e ambientazioni di opere registrate.
Questo pone in discussione la validità dell’eccezione del fair use nell’ambito dell’AI generativa, soprattutto quando l’output può danneggiare direttamente gli interessi economici e creativi dei titolari dei diritti.
Un altro caso emblematico è quello tra Reddit e Anthropic, la società sviluppatrice di Claude, un modello linguistico concorrente di GPT. In questo contesto, Reddit ha contestato la raccolta massiva non autorizzata di contenuti generati dagli utenti, sostenendo che tale scraping violi i propri termini di servizio e i diritti di licenza sulle discussioni pubblicate. Queste vertenze legali, ancora in corso, contribuiscono a delineare i confini della liceità nell’uso dei dati per l’addestramento di modelli, in un contesto normativo tuttora lacunoso in molte giurisdizioni.
Nel frattempo, l’Unione Europea ha avviato l’attuazione progressiva dell’AI Act, pubblicato nella Gazzetta Ufficiale dell’UE il 12 luglio 2024 e in vigore dal 1° agosto dello stesso anno. Il Regolamento si basa su un sistema di classificazione dei sistemi di AI secondo il livello di rischio: i sistemi a rischio inaccettabile, come quelli per il social scoring o per il riconoscimento biometrico in tempo reale negli spazi pubblici, sono ormai vietati dal 2 febbraio 2025; quelli ad alto rischio, impiegati in ambiti come la giustizia, l’istruzione o la gestione delle infrastrutture critiche, saranno soggetti a obblighi stringenti di trasparenza, documentazione tecnica, auditabilità, tracciabilità e supervisione umana, con piena attuazione prevista per il 2 agosto 2026.
Un’attenzione specifica è rivolta ai modelli generali di AI, definiti all’articolo 53 del Regolamento, che saranno sottoposti, già dal 2 agosto 2025, a obblighi di documentazione dettagliata comprendente l’architettura del modello, la potenza computazionale impiegata (espressa in FLOPS), la provenienza e la tipologia dei dati di addestramento, nonché i meccanismi adottati per limitare la generazione di contenuti illegali.
Tra gli articoli di maggiore rilevanza figurano l’articolo 10, che impone standard rigorosi di governance dei dati per garantire la rappresentatività, la qualità e l’assenza di bias sistemici, e l’articolo 13, che richiede trasparenza nei confronti degli utenti finali e delle autorità di controllo, includendo la necessità di rendere disponibile la documentazione tecnica per almeno dieci anni.
Oltre all’ormai noto articolo 5 che elenca in maniera esaustiva i sistemi considerati dal legislatore come vietati, di interesse vi è l’articolo 71 che introduce un database pubblico europeo nel quale andranno registrati i sistemi ad alto rischio prima della loro immissione sul mercato. La norma per altro dovrà essere applicata da tutti coloro che forniranno a vario titolo Intelligenza Artificiale nella giurisdizione Europea, allargando gli oneri di conformità anche alle grandi piattaforme digitali.
Il mancato rispetto delle disposizioni può comportare importanti sanzioni pecuniarie che arrivano fino al 7% del fatturato mondiale annuo dell’operatore, rendendo evidente l’importanza di un’adeguata strategia di compliance.
Per le imprese che sviluppano o integrano soluzioni di intelligenza artificiale, diventa cruciale predisporre una mappatura interna dei sistemi utilizzati, valutare il livello di rischio associato, implementare meccanismi di monitoraggio continuo, e redigere la documentazione richiesta, anche ai fini probatori in caso di contenziosi.
Gli studi legali, dal canto loro, sono chiamati a svolgere un ruolo attivo nell’accompagnare i clienti nella verifica di conformità, nella stesura di contratti che prevedano clausole di allocazione delle responsabilità in ambito AI, e nella redazione di valutazioni d’impatto, che in caso di trattamento di dati personali devono coordinarsi con l’articolo 35 del GDPR. La figura del consulente legale esperto in tecnologie emergenti sarà sempre più richiesta, anche in virtù dell’obbligo, già richiamato dall’AI Act, di garantire livelli minimi di alfabetizzazione sull’uso responsabile dell’intelligenza artificiale tra gli operatori aziendali.
In conclusione, l’anno in corso sancisce un cambio di paradigma: l’intelligenza artificiale generativa non è più un terreno sperimentale privo di regole, ma un ecosistema disciplinato da norme complesse che richiedono interpretazione, attuazione e controllo. La capacità di integrare innovazione e diritto sarà la chiave per garantire uno sviluppo sostenibile, etico e conforme, capace di tutelare tanto i diritti dei cittadini quanto la competitività delle imprese.
_______
*Giuseppe Accardo, Pollicino Advisory & Partners