Professione e Mercato

Pensare all’intelligenza artificiale: “outcome thinking” vs “process thinking”, due visioni a confronto

La prima visione si concentra sull’efficacia dell’AI: importante è raggiungere gli obiettivi desiderati a prescindere da altre considerazioni, compreso il funzionamento. Diversamente, il “process thinking”, pone particolare attenzione proprio al funzionamento, ovvero, come l’AI è alimentata da dati e algoritmi

Business man select A.I. (Artificial Intelligence) for company management

di Giulia Gentile*

Quando si pensa all’intelligenza artificiale, emergono due approcci teorici secondo Richard Susskind, autore del recente volume “How to Think About AI: A Guide for the Perplexed”: un primo che presta attenzione ai risultati della tecnologia (o outcome thinking), e un secondo che si focalizza sui processi di funzionamento (o process thinking).

La prima visione si concentra sull’efficacia dell’intelligenza artificiale. Se quest’ultima raggiunge gli obiettivi desiderati, altre considerazioni (ivi incluso il funzionamento della tecnologia) passano in secondo piano.

Diversamente, l’approccio process thinking pone particolare attenzione alle operazioni e alla struttura dell’intelligenza artificiale. Centrale per questo modo di pensare è il proprio funzionamento della tecnologia, ovvero come essa venga alimentata da dati e algoritmi. Ne segue che forme di intelligenza artificiale che non si basino su processi corretti non dovrebbero essere utilizzate.

L’autore definisce la prima prospettiva pragmatica, mentre la seconda purista. In tal modo, Susskind sembra esprimere una velata preferenza per il primo approccio. Spiega la sua visione in tal modo: i medici o gli avvocati che si interfacciano con l’intelligenza artificiale non sono interessati a come funzionano, ma si preoccupano piuttosto di curare i pazienti, rappresentare i loro clienti, e così via.

Questo punto di vista è tanto attraente quanto utilitario. È una prospettiva che forse, inconsciamente o no, viene applicata ad altre forme di tecnologia. Si pensi all’aeroplano o all’automobile. Gli autisti e i piloti non conoscono necessariamente i dettagli del funzionamento di questi veicoli, il che non ne impedisce l’utilizzazione. Sorgono tuttavia dei quesiti.

Il primo è se l’approccio basato sull’outcome thinking sia effettivamente sostenibile non solo rispetto all’intelligenza artificiale, ma anche ad altre tecnologie in linea generale, alla luce delle loro esternalità.

Si pensi proprio ad uno degli esempi appena discussi: l’automobile. L’autista medio potrebbe non conoscere come il veicolo funzioni, e, ciò nonostante, guida. Tuttavia, come qualsiasi tecnologia, anche le automobili possono non funzionare correttamente. Si immagini un conducente di un’automobile che ha un appuntamento. Mentre è alla guida l’auto va in panne; l’autista non sa come la macchina funzioni, e non sa far partire nuovamente il veicolo. Il nostro conducente dovrà aspettare che un esperto (i.e. un meccanico) arrivi in soccorso e lo aiuti a risolvere il problema, aumentando il suo ritardo all’appuntamento. Di fatto, l’ignoranza sui meccanismi di funzionamento ha impedito al conducente di raggiungere la propria destinazione in tempo (l’obiettivo principale per il quale l’auto era stata utilizzata). Ora si pensi ad un giudice o un avvocato che si trovi davanti un’intelligenza artificiale difettosa, e che non conosca il funzionamento di tale tecnologia. Non avremo risultati migliori rispetto a quelli del nostro autista, con potenziali esternalità negative per parti terze.

Si pensi anche alla seguente constatazione: offuscare l’intricata serie di meccanismi sui quali si basa una tecnologia impedisce di poter analizzare nel complesso l’impatto di tali strumenti, e di prendere decisioni consapevoli. Ritorniamo alla nostra automobile. È ora ben risaputo che le automobili inquinano l’ambiente a causa della combustione del carburante (specialmente le auto diesel), e che contribuiscono ad uno stile di vita sedentario che può avere effetti negativi sulla salute. Alcune auto hanno migliori freni di altre, o dei motori più efficienti. E così via. Alla luce di queste considerazioni, un consumatore potrebbe decidere di comprare un’automobile piuttosto che un’altra, o forse di ridurne l’uso nella vita quotidiana per non contribuire al cambiamento climatico o per migliorare il proprio stato fisico. Dunque, possedere un certo livello di conoscenza del funzionamento di qualsiasi tecnologia sembra utile per meglio decidere se e come utilizzarla. Ne segue che l’assenza di conoscenza di come l’intelligenza artificiale funzioni non sembra esser neutra; al contrario, può portare a scelte o utilizzi erronei con possibili effetti negativi.

Un’ulteriore questione concerne la relazione tra risultati e processo: si può effettivamente separare il processo dal risultato quando si considerano i benefici di una tecnologia?

Ritornando all’esempio dell’automobile, il modo in cui tale veicolo è costruito e assemblato determina anche il suo funzionamento. Se un’automobile ha un pezzo difettoso, questo può compromettere la sicurezza del conducente. Un’automobile che presenti un difetto può anche causare danni a persone terze nel caso di incidenti. Di certo non un risultato ideale. In maniera simile, anche un’intelligenza artificiale difettosa potrebbe mettere in pericolo chi la usa.

Una sfida per la creazione di intelligenza artificiale funzionante riguarda l’utilizzo dei dati. Ad esempio, un utente che si interfacci con un large language model verrà esposto al tipo di dati che quel modello ha ottenuto per il suo training. Se tuttavia i dati utilizzati sono incorretti (potremmo dire, ‘difettosi’), i risultati prodotti da quella tecnologia saranno altrettanto incorretti. Esempi di utilizzo dei risultati di large language model incorretti abbondano, specialmente nel settore legale: basti ricordare i procedimenti sanzionatori cominciati contro due avvocati, uno negli Stati Uniti e uno in Australia, che hanno prodotto in giudizio memorie con autorità fittizie create da ChatGPT.

Una governance di tipo procedurale sembra dunque offrire garanzie di protezione contro una tecnologia complessa e controversa quale l’intelligenza artificiale: risultati effettivi sono possibili solo alla luce di processi equi e rigorosi. La cooperazione tra giuristi e tecnologi risulta essenziale in tale contesto, in modo da connettere le esigenze della tecnologia con quelle della legge e delle regole che ci governano e ci legano gli uni agli altri nella società.

_______

*Giulia Gentile, Pollicino & Partners Advisory, Università dell’Essex

Per saperne di piùRiproduzione riservata ©