Comunitario e Internazionale

L’Europa rallenta sull’IA: il divario tra roadmap normativa e capacità operativa

Al vaglio il posticipo dell’entrata in vigore degli obblighi relativi alle applicazioni ad alto rischio: le regole non scatterebbero più a partire da una data fissa (come agosto 2026), ma diverrebbero applicabili solo dopo la disponibilità di “standard armonizzati, specifiche comuni o linee guida della Commissione”

di Riccardo Perlusz*

A poco meno di otto mesi dall’ultimo traguardo nella roadmap, scandita dall’articolo 113 del regolamento UE 2024/1689 (AI Act), imprese e agenzie di governo si trovano a confrontarsi con le difficoltà attuative di una norma, per altro già entrata nei libri di “storia del diritto”. La prossima scadenza rappresenta infatti un momento — se non “il momento” — critico per l’intera architettura legislativa sull’Intelligenza Artificiale costruita in Europa. Le disposizioni del regolamento diventeranno infatti integralmente applicabili e i sistemi “ad alto rischio”, definiti nell’Allegato III, vedranno entrare in vigore tutte le regole specifiche loro dedicate. Non poca cosa, perché questo passaggio si traduce in obblighi più stringenti e in procedure di valutazione e certificazione per i fornitori di sistemi di IA, per gli importatori, per i distributori e, in ultimo, per coloro che utilizzano motori applicativi di Intelligenza Artificiale per generare o fornire servizi, i cosiddetti deployer ex articolo 3 punto 4 su cui gravano inoltre gli obblighi dell’articolo 26.

In pratica, dopo il 2 agosto 2026, chi impiega sistemi di IA classificabili a basso rischio come parte della propria offerta prodotto o servizio, dovrà assicurarsi di applicare obblighi di trasparenza, informazione e valutazione dei rischi.

Chi invece sviluppa, distribuisce o utilizza un sistema di IA classificabile ad alto rischio dovrà rispettare requisiti per la valutazione di conformità di cui al Capo III Sez. 2 e di certificazione, più rigorosi e di cui si è già ampiamente scritto.

Oltre ad una valutazione d’impatto sui diritti fondamentali prevista nei casi disciplinati dall’articolo 27, l’azienda sarà oltremodo tenuta agli obblighi di documentazione (articolo 11), trasparenza (articolo 13), attuazione di misure di mitigazione dei rischi (articolo 9), supervisione umana (articolo 14), nonché alla verifica della robustezza della soluzione e delle misure idonee a garantirne la sicurezza informatica (articolo 15) per un impegno tecnico-organizzativo tutt’altro che trascurabile.

Ad una prima valutazione, il perimetro delle applicazioni considerate ad alto rischio sembrerebbe limitato e dunque interessare solo marginalmente il mondo dell’Information Technology non pubblico. In realtà non è affatto così.

L’AI Act all’articolo 6 classifica un sistema come ad alto rischio sulla base di due criteri. Il primo riguarda i sistemi di intelligenza artificiale utilizzati come componenti di sicurezza di prodotti già soggetti a valutazione di conformità secondo la normativa verticale europea. Rientrano in questa categoria, ad esempio, i dispositivi medici (Regolamenti UE 2017/745 e 2017/746), i macchinari industriali (Regolamento UE 2023/1230) e i veicoli a motore (Regolamenti UE 2018/858 e 168/2013).

La seconda categoria comprende invece quei sistemi che ricadono in uno dei casi d’uso sensibili indicati nell’Allegato III del Regolamento, ossia sistemi considerati intrinsecamente ad alto rischio per il loro potenziale impatto sui diritti fondamentali o sulla sicurezza pubblica. In questa categoria troviamo i sistemi di identificazione biometrica e riconoscimento facciale, i sistemi utilizzati dalle autorità di polizia, nell’ambito della giustizia, nei controlli di frontiera e nella gestione delle pratiche di immigrazione; le IA impiegate per decidere accessi o ammissioni a istituti di istruzione o formazione professionale (test di ammissione, esami, valutazioni, assegnazioni), dunque principalmente nell’ambito della Pubblica Amministrazione.

Ma in base al dettato normativo, vi rientrano anche i prodotti e servizi di IA che controllano o assistono la gestione e l’operatività di infrastrutture critiche quali trasporti, rete elettrica, rete idrica, gas, riscaldamento e reti energetiche; così come le applicazioni di gestione del lavoro — sistemi di selezione e reclutamento, valutazione dei candidati, promozioni, pianificazione del lavoro, monitoraggio delle prestazioni — e, ancora, le IA utilizzate nei servizi essenziali pubblici e privati per decisioni su credito, assicurazioni, prestazioni sociali, accesso ai servizi sanitari, ai servizi pubblici e ai sussidi.

Salvo le eccezioni disciplinate dall’articolo 6 comma 3, in virtù delle quali un sistema rientrante in un’area dell’Allegato III può tuttavia non essere considerato ad alto rischio, si tratta comunque di un perimetro di impiego molto ampio, che trascina negli obblighi più stringenti un numero considerevole di soggetti privati potenzialmente coinvolti.

Fatta questa non breve premessa, due aspetti meritano tuttavia particolare attenzione. La metrica della architettura di conformità, dettata in modo stringente dall’articolo 40, è costituita dagli standard tecnici definiti nelle norme europee: regole di processo tecnico-industriali elaborate dagli organismi di normazione ufficiali (CEN, CENELEC, ETSI) per tradurre gli obblighi giuridici del regolamento in requisiti tecnici operativi e verificabili.

Ne deriva per altro l’onere, previsto dall’articolo 40 comma 2 del regolamento, per le stesse agenzie e gli organi di governo comunitari, di definire tali standard al fine di consentire un percorso di certificazione e di poter predisporre le infrastrutture necessarie all’enforcement del regolamento.

Per i sistemi di IA ad alto rischio di cui all’allegato III, laddove gli standard tecnici di cui all’articolo 40 (o dove applicabili, le specifiche comuni di cui all’articolo 41) coprano effettivamente tutti i requisiti dell’AI Act per i sistemi ad alto rischio (gestione del rischio, qualità dei dati, logging, trasparenza, cybersecurity, ecc.) e questi vengano applicati senza deviazioni, dimostrandone l’adozione tramite adeguata e robusta documentazione tecnica, è possibile effettuare la valutazione di conformità tramite il solo controllo interno di cui all’Allegato VI del Regolamento, arrivando ad apporre il marchio CE di conformità senza dover passare quindi da una verifica di terza parte. Bene ricordare che quest’ultima, nella disciplina europea, è assegnata unicamente ad un soggetto qualificato, denominato “Organismo Notificato”, regolato al Capo III sez. 4 del Regolamento stesso.

Tuttavia, se mancano standard applicabili o se vengono adottate deviazioni come indicato all’articolo 3 punto 1 e punto 23 o se il sistema rientra nelle categorie “critiche” quali i dispositivi medici o i macchinari già regolamentati da normative settoriali (eg. MDR, IVDR, ecc.), l’autovalutazione non è più sufficiente e sarà necessario ricorrere alla valutazione tecnica terza di sopracitati organismi.

Qui emerge tuttavia l’impasse che, allo stato attuale, sembrerebbe non trovare soluzione in tempi brevi.

Poiché gli standard sull’IA sono ancora in fase di sviluppo e devono essere completati, e poiché non risultano designati soggetti dotati dei requisiti tecnici ex. articolo 31 necessari (si veda il notified bodies information system NANDO), le eventuali verifiche di conformità — sia basate sugli standard tecnici, sia demandate agli organismi notificati — non sembrerebbero realisticamente attuabili in tempi utili per consentire di onorare gli obblighi definiti dal regolamento stesso. Ciò anche in ragione di una evidente complessità tecnica e procedurale relativa a prodotti applicativi allo stato già in esercizio, spesso di rilevante dimensione in termini di numero di linee di codice usato e per standard documentali usati in fase di disegno e sviluppo delle soluzioni, che richiedono quindi tempi non brevi per la loro analisi e riadattamento.

Non sorprende, quindi, che la Commissione si sia attivata per semplificare alcune fasi attuative dell’AI Act e riallineare la traiettoria del regolamento mediante una recente proposta legislativa denominata “Digital Omnibus” (COM(2025) 836), che introduce per altro emendamenti a diverse normative comunitarie in ambito digitale, oltre al regolamento AI Act, quali il GDPR, DMA, DSA e NIS2.

La proposta mirerebbe a rendere l’AI Act più “attuabile, prevedendo una sincronizzazione più stretta tra standard tecnici e obblighi di conformità ed introducendo forme di centralizzazione o semplificazione di alcuni processi amministrativi (registrazione, dichiarazioni, compliance) al fine di ridurre gli oneri burocratici.

Nel dettaglio è stato quindi proposto il posticipo dell’entrata in vigore degli obblighi relativi alle applicazioni ad alto rischio: le regole non scatterebbero più automaticamente a partire da una data fissa (come agosto 2026), ma diverrebbero applicabili solo dopo la disponibilità di “standard armonizzati, specifiche comuni o linee guida della Commissione”. È previsto tuttavia un “termine ultimo”: per i sistemi dell’Allegato III la data massima proposta sarebbe il 2 dicembre 2027; per i prodotti regolamentati (Allegato I) il 2 agosto 2028. Inoltre, a vantaggio delle piccole e medie imprese (SME), la proposta prevede inoltre misure di semplificazione nel processo di certificazione della conformità, tenendo ben conto degli oneri a cui le imprese oggettivamente andrebbero incontro. Bene precisare tuttavia che trattandosi di una proposta, la discussione parlamentare e la fase di trilogo, potranno portare ad ulteriori emendamenti o modifiche.

In questo scenario in continua evoluzione, è evidente che la capacità delle istituzioni e degli operatori di colmare rapidamente le lacune normative e infrastrutturali sarà determinante per garantire che l’AI Act passi dalla carta, all’effettiva operatività, preservando al contempo innovazione, sicurezza e diritti fondamentali. Siamo in un contesto globale di elevata competitività in cui è in gioco non solo la supremazia tecnologica ma anche la salvaguardia di quelle regole che hanno costituito le fondamenta della nostra società moderna. Coniugare innovazione e diritti è una sfida che l’Europa in nessun caso può permettersi di perdere.

_______

*Dott. Riccardo Perlusz, Pollicino & Partners AIDVISORY

Per saperne di piùRiproduzione riservata ©