AI Act, al via la consultazione sul rilevamento e l’etichettatura dei contenuti generati artificialmente
I risultati orienteranno la Commissione nella redazione delle linee guida e di un codice di condotta per dimostrare la conformità dei sistemi di IA generativa agli obblighi di trasparenza delineati dall’articolo 50 dell’AI Act
Il 4 settembre 2025 la Commissione Europea ha avviato una consultazione pubblica finalizzata a raccogliere contributi da una vasta gamma di stakeholder, tra cui, a titolo esemplificativo, fornitori e utilizzatori di modelli e sistemi di IA interattiva e generativa, fornitori e utilizzatori di sistemi di categorizzazione biometrica e di riconoscimento delle emozioni, organizzazioni del settore pubblico e privato che impiegano tali sistemi di IA, nonché istituzioni accademiche e di ricerca, organizzazioni della società civile, governi, autorità di vigilanza e cittadini.
L’iniziativa è volta a orientare la Commissione nella predisposizione delle linee guida e di un codice di condotta relativi al rilevamento e all’etichettatura dei contenuti generati o manipolati artificialmente. Come comunicato dalla Commissione, il codice definirà le modalità attraverso le quali i fornitori e i deployer di sistemi di IA generativa potranno dimostrare la conformità agli obblighi di trasparenza delineati dall’articolo 50 dell’AI Act, che entreranno in vigore il 2 agosto 2026.
Gli obblighi stabiliti dall’AI Act mirano a garantire che le persone possano riconoscere quando interagiscono con sistemi di intelligenza artificiale o con contenuti da essi generati o manipolati, così da ridurre i rischi di impersonificazione, inganno o antropomorfizzazione e al tempo stesso rafforzare la fiducia e l’integrità dell’ecosistema informativo.
Si prevede che i fornitori di sistemi di IA che interagiscono direttamente con gli individui debbano informare chiaramente che l’interazione avviene con una macchina, salvo che ciò risulti già evidente a una persona ragionevolmente attenta; che i contenuti generati o alterati artificialmente siano resi riconoscibili mediante marcatori leggibili automaticamente; che i deployer di tecnologie per il riconoscimento delle emozioni o la categorizzazione biometrica avvisino le persone coinvolte del loro utilizzo; e, infine, che chi impiega sistemi capaci di generare o manipolare deepfake, o testi destinati a informare il pubblico su temi di interesse generale, dichiari la natura artificiale di tali contenuti, salvo nelle ipotesi espressamente escluse.
La consultazione, disponibile unicamente in lingua inglese, resterà aperta per quattro settimane, dal 4 settembre al 2 ottobre 2025 (ore 23:59 CET) ed è condotta tramite la compilazione di un questionario articolato in cinque sezioni contenenti domande relative a:
(i) sistemi di IA interattivi
(ii) contenuti sintetici
(iii) sistemi di riconoscimento delle emozioni e di categorizzazione biometrica
(iv) deepfake e testi destinati a informare il pubblico su questioni di interesse generale
(v) attuazione complessiva dell’articolo 50 AI Act
La Commissione ha chiarito che il processo di redazione del codice prenderà avvio nell’ottobre 2025 e avrà una durata stimata di circa dieci mesi. L’attività sarà coordinata dall’AI Office presso la Commissione Europea, con il coinvolgimento di esperti indipendenti e l’istituzione di due gruppi di lavoro tematici, guidati da presidenti e vicepresidenti nominati dall’AI Office stesso, con la partecipazione degli stakeholder ritenuti idonei.
Pur costituendo un passo rilevante verso la trasparenza e la tutela degli utenti, il codice potrebbe non risolvere alcune criticità legate all’attuazione dell’art. 50. Ad esempio, l’efficacia delle etichettature dipenderà dalla loro effettiva trasparenza, in particolare relativamente alla resistenza a manipolazioni o rimozioni. Inoltre, vi è il rischio che un eccesso di avvisi possa sminuire l’importanza di queste informazioni per il pubblico. In questo senso, l’implementazione di tali obblighi rappresenta una sfida centrale anche per la definizione di un codice di condotta, che quindi è chiamato a rendere le regole dell’art. 50 uno strumento di trasparenza in considerazione dell’uso diffuso dei sistemi di AI.
_______
*Giovanni De Gregorio, Rebecca Pupella, Pollicino & Partners AI Advisory