AI Literacy, in vigore i nuovi obblighi formativi introdotti dall’AI ACT
Provider e deployer devono garantire un “livello sufficiente” di AI literacy tra il proprio personale e le persone che, a vario titolo, gestiscono o utilizzano tali sistemi; sono inclusi quindi dipendenti, ma anche collaboratori esterni, fornitori di servizi, clienti o partner
L’utilizzo di sistemi di intelligenza artificiale (AI) si sta estendendo in molteplici settori, dalla sanità alla finanza, e più ampiamente nella vita quotidiana. In questo contesto, l’AI literacy – ovvero l’alfabetizzazione all’intelligenza artificiale – emerge come una competenza fondamentale, non solo per gli sviluppatori e i tecnici, ma per tutti coloro che utilizzano e interagiscono, direttamente o indirettamente, con sistemi di AI.
Non si tratta solo di una tendenza o di una questione sociale. Dal 2 febbraio 2025, l’AI literacy è diventata un requisito normativo come introdotto dall’Articolo 4 del regolamento europeo che disciplina l’uso dell’intelligenza artificiale, anche noto come AI Act. Ne consegue che le organizzazioni pubbliche o private che sviluppano o utilizzano sistemi di AI sono già tenute ad implementa percorsi di formazione per l’alfabetizzazione.
L’AI literacy è definita all’articolo 3(56) dell’AI Act come le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare. In altre parole, non basta saper usare un sistema di AI, ma occorre anche conoscerne le implicazioni etiche, legali e sociali, per esempio, quando si utilizza uno strumento come ChatGPT per generare contenuti.
Più in particolare, l’Articolo 4 stabilisce che i provider (fornitori) e i deployer (utilizzatori) di sistemi di AI devono adottare misure per garantire un “livello sufficiente” di AI literacy tra il proprio personale e le persone che, in vario modo, gestiscono o utilizzano tali sistemi per conto dell’organizzazione. Questo include dipendenti, ma anche collaboratori esterni, fornitori di servizi, clienti o partner.
Nella definizione a predisposizione di attività volte all’alfabetizzazione, occorre tenere conto di variabili quali le conoscenze tecniche, l’esperienza, il livello di istruzione e il contesto di utilizzo. Ne consegue che gli attori pubblici e privati dovranno quindi calibrare i propri programmi di formazione e sensibilizzazione in base al contesto di riferimento, guardando, ad esempio, al tipo di sistema utilizzato o al ruolo delle persone coinvolte. In questo caso, occorre fare riferimento al risk-based approach adottato dall’AI Act, richiedendo quindi alle organizzazioni di adattare i loro programmi di alfabetizzazione in base alla pericolosità potenziale dei sistemi impiegati. Un chatbot per il customar care richiederà un livello di preparazione diverso rispetto a un sistema di credit scoring.
Il regolamento non impone un formato unico di formazione. L’articolo 4 inoltre non prevede obblighi rigidi, la certificazione delle competenze o una certa struttura di governance. Ogni organizzazione può decidere in autonomia il formato più adatto, ma risulta fondamentale documentare tali iniziative che dovrebbero a coprire la comprensione generale dei sistemi di AI, il ruolo dell’organizzazione, e la valutazione del rischio, con riferimenti agli aspetti legali e ai principi etici stabiliti dal regolamento europeo.
A partire dal 3 agosto 2026, l’attuazione dell’Articolo 4 sarà sottoposta alla sorveglianza delle autorità nazionali di vigilanza del mercato, che saranno nominate entro agosto 2025. Anche se il regolamento prevede un approccio proporzionale, le organizzazioni che ignorano del tutto l’obbligo di garantire un’adeguata AI literacy potrebbero incorrere in sanzioni basate sulle leggi nazionali che gli Stati membri dovranno adottare entro il 2 agosto 2025. In particolare, se un malfunzionamento o una decisione sbagliata derivano da una carenza formativa, la responsabilità potrebbe ricadere sull’organizzazione.
È quindi essenziale muoversi già ora per evitare rischi futuri, anche perché l’obbligo formale è già in vigore dal febbraio 2025, benché le sanzioni siano differite nel tempo.
Se da un lato l’AI literacy diventa un requisito normativo, dall’altro rappresenta un’opportunità strategica. Le organizzazioni che investono oggi in cultura e formazione sull’AI saranno domani più preparate ad affrontare le sfide dell’innovazione, a proteggere i propri clienti e a prevenire rischi legali, reputazionali ed economici. L’alfabetizzazione in questo caso non è una scelta, ma una nuova di responsabilità per attori pubblici e privati, nonchè più ampiamente per l’educazione civica digitale.
_______
*Giovanni De Gregorio, Oreste Pollicino - Pollicino AIdvisory and Partners, Católica Global School of Law, Bocconi University