Professione e Mercato

ChatGPT: "utile servitore o pericoloso padrone"?

All'inizio di questo mese, Open AI supportato da Microsoft ha svelato la quarta iterazione del suo programma d'intelligenza artificiale GPT (Generative Pre-trained Transformer),che non ha tardato a palesare maggiori rischi rispetto alla versione precedente, come evidenziato da una recente analisi di NewsGuard

di Luana Lo Piccolo *

"La tecnologia è un utile servitore ma un pericoloso padrone", il premio nobel per la
pace Christian Lange ci aveva visto lungo.

L'umanità è diventata lo strumento dei suoi strumenti? Stiamo affrontando il punto ciecodel pregiudizio algoritmico? Stiamo facendo qualcosa per impedire a Terminator dicreare un futuro cibernetico distopico in cui i cittadini stanno via via perdendo i propridiritti?

All'inizio di questo mese, Open AI supportato da Microsoft ha svelato la quarta iterazione del suo programma d'intelligenza artificiale GPT (Generative Pre-trained Transformer),che non ha tardato a palesare maggiori rischi rispetto alla versione precedente, come evidenziato da una recente analisi di NewsGuard.

Molteplici le criticità. Si pensi ai bias generati da dati contenenti informazioni errate opropaganda. Al mancato fact-checking delle informazioni, o addirittura alla diffusione intenzionale di contenuti falsi per scopi palesemente dannosi.

Per non parlare dell'incapacità di comprendere il contesto di una situazione finendo col produrre risposte inappropriate anche su argomenti sensibili come la salute mentale; si pensi al caso dell'uomo belga che si è tolto la vita dopo sei settimane di conversazioni angoscianti con un chat bot di nome Eliza.

Oltre all'incapacità di distinguere la realtà dalla finzione che ha portato, ad esempio, all'accusa di plagio rivolta ad Alphabet dopo che GoogleBard ha pasticciato un fatto storico in un video di marketing pubblico inteso a promuovere la raffinatezza dello strumento.

E non da ultima la presunta violazione dei fruitori, tant'è che il garante della privacy italiano ha ordinato il divieto diChatGPT fino a quando OpenAI non rispetterà il regolamento generale sulla protezionedei dati (GDPR). E vogliamo parlare degli annunci che Microsoft ha deciso di inserirenella nuova chat di Bing con GPT-4?

Non possiamo continuare a ignorare i danni che algoritmi tossici e risposte imprecise o irregolari dei sistemi d'intelligenza artificiale generativa stanno creando. Con mossa strategica Elon Musk, Steve Wozniak, Marc Rotenberg e altri leader tecnologici hanno firmato la lettera aperta pubblicata da Future of Life Institute (FLI) - organizzazione no-profit finanziata dalla Musk Foundation, dal gruppo londinese Founders Pledge e dalla Silicon Valley Community Foundation - che chiede una pausa di sei mesi nello sviluppo di sistemi più potenti del GPT-4. La lettera tace sui problemi normativi.

Nel frattempo a Bruxelles, il gruppo di difesa dei consumatori BEUC ha chiesto alle autorità dell'UE e nazionali di indagare su ChatGPT e chatbot simili.

I reclami arrivano anche nell'altra sponda dell'Atlantico dove il Centro no profit per l'intelligenza artificiale e la politica digitale (CAIDP) ha chiesto alla Federal Trade Commission statunitense diesaminare OpenAI e ordinare una pausa alle versioni di ChatGPT.

E in questo scenario non poteva mancare l'avviso di Europol sul potenziale rischio che ChatGPT potrebbesfornare disinformazione su larga scala ed essere utilizzato da criminali informatici.

L'awareness arriva anche in Parlamento Europeo, che attualmente sta finalizzando la sua posizione sulla proposta di regolamento sull'intelligenza artificiale, nota come AIAct.

Entrambi i relatori del file, l'italiano Brando Benifei (S&D) e il rumeno DragoșTudorache (RE), stanno infatti spingendo per considerare modelli generativi d'intelligenza artificiale come ChatGPT sistemi ad alto rischio.

Ma una legislazione che limiti la capacità della tecnologia di interferire con i nostri diritti non è sufficiente ad arginare il problema.

C'è l'impellente bisogno di investire in un'importante alfabetizzazione digitale che consenta un uso sicuro ed efficace di questimo delli di intelligenza artificiale.

Vogliamo lasciare che continuino ad intossicare i nostricanali d'informazione con propaganda e menzogna e ci schiavizzino, o vogliamoschierarci dalla parte di una cultura dell'innovazione che responsabilizzi le grandiaziende tecnologiche e sponsorizzi un'intelligenza artificiale che resti "utile servitore" di noi cittadini?

di Luana Lo Piccolo, Senior Legal Campaigner at Ekō

Per saperne di piùRiproduzione riservata ©