Comunitario e Internazionale

La Commissione Europea vara la proposta per il Regolamento europeo sull'intelligenza artificiale

La proposta di regolamento verte sull'introduzione di una metodologia risk based: i sistemi AI che comportano "rischi inaccettabili" verranno vietati

immagine non disponibile

di Gianluca Fasano*

La strategia per trasformare l'Europa in un hub globale ruota attorno al fulcro della fiducia, vale a dire che per consentire lo sviluppo dei sistemi di intelligenza artificiale (AI) è indispensabile lavorare sulla loro affidabilità. Vero è che i vantaggi dei sistemi di AI sono oramai evidenti per tutti noi, nel campo dell'assistenza sanitaria, dei sistemi di trasporto pubblici e privati, per facilitare l'accesso all'informazione, all'istruzione e alla formazione e tanto altro. Tuttavia non sono assenti i rischi, soprattutto in termini di sicurezza e di rispetto dei diritti fondamentali.

Per rispondere a queste sfide, è indispensabile la costruzione di un quadro normativo che dia certezza alle imprese e sicurezza alle persone, in cui sia i vantaggi che i rischi siano adeguatamente affrontati. In tale scenario, la Commissione europea ha approvato la proposta del "Regolamento sull'approccio europeo per l'intelligenza artificiale" (Regulation on a european approach for artificial intelligence), che verrà sottoposta a Consiglio e Parlamento europeo per l'adozione definitiva.

La proposta di regolamento verte sull'introduzione di una metodologia risk based attraverso cui si definiscono un set di strumenti e azioni necessari per poter affrontare i rischi derivanti da usi specifici dell'AI. In particolare, vengono previsti quattro diversi livelli di rischio, in funzione dei quali variano le misure di mitigazione:
rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo.I sistemi di intelligenza artificiale che comportano "rischi inaccettabili" rappresentano una chiara minaccia per la vita e alla sicurezza delle persone, per cui verranno vietati.

Ad esempio, le applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l'assistenza vocale che incoraggiano comportamenti pericolosi dei minori).Per i sistemi ad alto rischio vengono previsti requisiti obbligatori che riguardano la qualità dei set di dati utilizzati, la documentazione tecnica e la tenuta dei registri, la trasparenza verso gli utenti, la supervisione umana e la robustezza informatica.

In dettaglio, prima di immettere un sistema di intelligenza artificiale ad alto rischio sul mercato dell'UE i fornitori dovranno sottoporlo a una valutazione di conformità – anche effettuata da soggetti indipendenti - al fine di dimostrare che il sistema è conforme ai requisiti obbligatori. E nel caso in cui il sistema stesso o il suo scopo subiscano modifiche sostanziali, la valutazione dovrà essere ripetuta.

Per i sistemi a rischio limitato, come ad esempio nel caso di uso di chatbot, vengono imposti requisiti di trasparenza specifici di modo che gli utenti siano consapevoli che stanno interagendo con una macchina. Infine, per i sistemi a rischio minimo l'uso è permesso senza ulteriori obblighi, salva la scelta dei fornitori di tali sistemi di applicare comunque i requisiti per un'AI affidabile o aderire a codici di condotta.

Una regolamentazione specifica viene proposta per i sistemi di identificazione biometrica a distanza, in particolare per quelli che operano in tempo reale in spazi accessibili al pubblico. Questo tipo di tecnologia pone rischi particolari per la dignità umana, per il rispetto della vita privata e familiare, per cui ne è sancito - in linea di principio - un divieto generale, salvo poche eccezioni rigorosamente definite, quali, ad esempio, l'uso per la ricerca mirata di potenziali vittime di reati (compresi i bambini scomparsi), la risposta alla minaccia imminente di un attacco terroristico o l'identificazione di autori di reati gravi.

La strategia europea per un'AI affidabile non è fatta solo con regole ma anche di cooperazione. In effetti, come per molti altri fenomeni che travalicano i confini dei singoli Stati, anche nell'AI il coordinamento tra le azioni di tutti gli Stati membri è di fondamentale importanza, rappresentando un componente chiave per condurre l'Europa in una posizione di leadership globale. E così, il Piano di coordinamento, pubblicato per la prima volta nel 2018, oggi viene aggiornato al fine di garantire che tutti gli sforzi siano allineati con la strategia europea sull'AI e il Green Deal europeo.In tale contesto un ruolo fondamentale sarà svolto dai singoli Stati membri, i quali saranno chiamati a designare un'autorità nazionale competente per sorvegliare l'applicazione e l'attuazione del regolamento e che rappresenterà il singolo Stato nel Comitato europeo per l'intelligenza artificiale.

L'iniziativa della Commissione è indubbiamente ambiziosa: rendere l'Europa un ambiente sicuro e favorevole allo sviluppo dell'IA, in grado sia di attrarre investimenti e creare innovazione sia di garantire la sicurezza dei diritti fondamentali delle persone. Ma un primato lo si può già assegnare dacché la proposta di regolamento sull'AI rappresenta il primo quadro giuridico in assoluto sul tema, e per tale ragione consentirà all'Europa di assumere un ruolo di primo piano nella definizione del gold standard globali.

_____

*A cura dell' Avv. Gianluca Fasano, Istituto di Ricerca ISTC-CNR

Per saperne di piùRiproduzione riservata ©