L’AI alla prova della competizione geopolitica tra regolazione forte e promozione del “laissez-faire”
L’AI è ormai il nuovo terreno su cui si disegnano le sfide della geopolitica e della sovranità digitale: tra tutela dei diritti, slancio innovativo, interesse nazionale e soft power, la partita è appena iniziata
Negli ultimi anni, l’intelligenza artificiale (AI) è diventata non solo un motore di trasformazione tecnologica ed economica, ma anche il terreno su cui si gioca una nuova competizione geopolitica. L’avanzamento accelerato delle sue capacità ha catturato l’attenzione dei policy maker, alimentando una corsa senza precedenti a livello mondiale tra regolazione e promozione dell’AI. Dal 2016 a oggi, il numero di leggi AI-related approvate globalmente è passato da una singola iniziativa alle 40 del 2024, con un totale di 204 atti normativi in 39 Paesi: dati che raccontano di una vera e propria gara a chi saprà meglio governare – e sfruttare – il potenziale rivoluzionario dell’AI, in uno scenario multipolare dove il confronto tecnologico si gioca anche sul piano legislativo e regolatorio.
L’America’s AI Action Plan: la strategia “business-first” di Trump
Il documento più recente e di maggiore impatto mediatico è senza dubbio l’America’s AI Action Plan varato dall’Executive Office del Presidente Trump il 10 luglio scorso con l’obiettivo dichiarato sin dalla copertina di “winning the race”. Con l’abrogazione dell’Executive Order 14110 di Biden, già molto possibilista e orientato a incentivare la crescita dell’AI, la nuova strategia statunitense si fonda su tre pilastri essenziali: accelerazione dell’innovazione, costruzione di infrastrutture dedicate e leadership globale in materia di sicurezza.
Trump punta su una deregulation spinta, eliminando barriere burocratiche e “ideologiche”, come i riferimenti a diversity, equity, inclusion e cambiamento climatico nei framework federali, a favore di un’AI dichiaratamente “neutrale” e “obiettiva”. Viene incentivato lo sviluppo di modelli open-source/open-weight, con l’obiettivo di dettare standard globali e limitare la dipendenza dai grandi player proprietari. Il piano prevede “regulatory sandboxes” per testare rapidamente soluzioni AI nei settori chiave, politiche di riqualificazione per i lavoratori e forti investimenti in robotica, automazione e infrastrutture di ricerca. Si promuove l’adozione massiccia di AI anche nella pubblica amministrazione e nella Difesa, la protezione della proprietà intellettuale e la lotta ai deepfake tramite azioni legali e standard federali diforensics.
Il piano spinge per permessi “fast-track” nella costruzione di data center, fabbriche di chip e nuovi impianti energetici, spesso su terreni federali. Centrale la riforma della rete elettrica, la rilocalizzazione della manifattura dei semiconduttori, la realizzazione di data center ad alta sicurezza e la formazione di tecnici specializzati tramite apprendistati e partnership scuola-impresa.
La cybersecurity viene rafforzata tramite un AI-ISAC dedicato e standard federali per la sicurezza delle infrastrutture critiche, oltre a linee guida “secure by design” per rendere affidabile e resiliente tutta la filiera AI.
Sul fronte geopolitico, l’obiettivo è esportare l’intero “stack AI made in USA” agli alleati, per ridurre la dipendenza globale dalla tecnologia cinese, presidiare i forum internazionali e mantenere la supremazia americana sugli standard. I controlli su export di chip e tecnologie AI diventano più stringenti, con tariffe e regole sulle filiere globali estese anche agli alleati.
L’aspetto realmente disruptive del piano Trump è la centralità del mercato nella governance dell’AI: la strategia è “business-first”, volta a rimuovere vincoli regolatori, accelerare permessi e investimenti, esportare aggressivamente tecnologia, riformare la formazione del lavoro.
Il modello giapponese: centralità della governance, etica e cooperazione
L’ultimo atto propriamente legislativo significativo è invece la Legge per la promozione della ricerca, sviluppo e utilizzo delle tecnologie collegate all’Intelligenza Artificiale, approvata dalla Dieta giapponese appena prima dell’estate. Si tratta di una legge quadro che definisce i principi base, le responsabilità dei vari attori, promuove un coordinamento nazionale affidato a un apposito “AI Strategy Headquarters” presso il governo.
La legge riconosce l’AI come infrastruttura strategica per la società e la sicurezza nazionale, e punta a rafforzare la competitività industriale nipponica. Si promuove un ciclo integrato dalla ricerca di base all’adozione industriale, con responsabilità condivise tra Stato, enti locali, aziende, università e cittadini, e forte enfasi su trasparenza, etica e gestione del rischio. Il Giappone intende giocare un ruolo proattivo negli standard internazionali, promuovendo la cooperazione globale e la revisione periodica della normativa, adattando la governance ai rapidi cambiamenti tecnologici e internazionali. Spiccano la pianificazione centralizzata guidata dal Primo Ministro, la trasversalità (l’AI è abilitante per ogni settore) e l’integrazione multidisciplinare tra saperi umanistici e scientifici. La collaborazione pubblico-privato-accademia è obbligatoria, così come la promozione di alfabetizzazione diffusa su AI tra tutta la popolazione.
Il puzzle globale: l’AI Act nel Risiko di regolazione e deregolazione
L’AI Act europeo, come primo tentativo di regolamentazione onnicomprensiva dell’intelligenza artificiale, rappresenta senza dubbio un punto di riferimento globale, ma non costituisce né l’unico modello né necessariamente il migliore. A livello internazionale, si assiste infatti a una vera e propria competizione ideologica su quale approccio normativo adottare verso l’AI, con il mondo diviso tra fautori della regolazione stringente e sostenitori della deregolazione. Anche all’interno di questa dicotomia si possono individuare molteplici varianti: l’AI Act UE è l’esempio più estremo di regolamentazione generale di product safety per l’AI, estesa a tutti i possibili utilizzi di questa tecnologia trasversale (un po’ come se si volesse disciplinare tutte le applicazioni dell’energia elettrica con un’unica legge), secondo il tipico approccio europeo basato sull’analisi del rischio. Solo alcune proposte legislative sudamericane – come quelle di Argentina, Cile e Perù – si stanno muovendo in direzione simile, gareggiando tra loro per essere i primi a legiferare in materia.
Altri Paesi hanno invece scelto strade diverse: c’è chi, come la Cina, ha adottato normative specifiche limitate ai modelli di AI generativa (con le regole ad interim del 2023), o chi – come Indonesia e India – valuta una regolamentazione settoriale in ambiti circoscritti quali sanità, istruzione, mobilità e agricoltura. Altri ancora, come le recenti esperienze di Taiwan, Corea del Sud e del Giappone (oltre al precedente Executive Order di Biden negli USA), preferiscono incentivare sviluppo e innovazione piuttosto che concentrarsi solo sul contenimento dei rischi. Brasile e Canada, dal canto loro, puntano a una governance del digitale più che a una normativa di prodotto.
Sul fronte opposto, quello della deregolazione, si oscilla tra l’assenza totale di norme – situazione comune a molti Paesi in via di sviluppo – e il ricorso quasi esclusivo a strumenti flessibili di soft law e autoregolamentazione. L’esempio più emblematico è il Regno Unito, che, anche attraverso cambi di governo, ha mantenuto una posizione dichiaratamente alternativa rispetto all’Unione Europea, scegliendo un modello pro-innovation, contestuale e adattivo, fondato su un’analisi reale e verificabile dei rischi, proporzionata e sempre aggiornabile, sostenendo iniziative sperimentali e regolamentazione solo quando davvero necessaria sulla base di risultati empirici. Numerose giurisdizioni hanno adottato approcci simili, preferendo codici etici e principi standard (come Singapore, Indonesia, Messico, Colombia), oppure strategie “welcoming and flexible” per attrarre capitali e talenti nel settore AI, come fanno oggi gli Stati Uniti di Trump, Australia, Arabia Saudita ed Emirati Arabi Uniti, dove si afferma esplicitamente l’opportunità di comprendere a fondo una nuova tecnologia prima di regolarla.
Il panorama globale si articola così tra regolazione forte e promozione “laissez-faire”, con molteplici modelli in competizione e una crescente consapevolezza che la leadership futura – non solo tecnologica, ma anche economica, sociale e normativa – passerà dalla capacità di governare responsabilmente il cambiamento in atto. L’AI è ormai il nuovo terreno su cui si disegnano le sfide della geopolitica e della sovranità digitale: tra tutela dei diritti, slancio innovativo, interesse nazionale e soft power, la partita è appena iniziata.
_______
*A cura di Filiberto Emanuele Brozzetti, Of Counsel, Baker McKenzie