Civile

Intelligenza artificiale e governo d’impresa, un indirizzo europeo sulla responsabilità

Serve trasparenza sulla tecnologia utilizzata e un quardo giuridico comune sull’imputabilità degli atti

di Sergio Locoratolo*

Il ruolo dell’intelligenza artificiale nelle realtà imprenditoriali e, per l’effetto, nelle vicende giudiziarie che a vario titolo investono il mondo dell’impresa, è ormai acclarato. A partire dalla evidenti interazioni tra il sistema di alert introdotto dalla recente riforma della crisi d’impresa, con l’utilizzo di strumenti tesi a potenziare le performance del modello predittivo ed estimativo del rischio di insolvenza.

A ciò aggiungasi che l’intelligenza artificiale già costituisce un punto fermo nella valutazione “esterna” del funzionamento dell’impresa societaria, soprattutto in ambito bancario e finanziario, come parametro essenziale ai fini del ricorso al capitale di finanziamento.

Gli effetti sulla corporate governance

Sotto altro profilo, come evidenziato dalla dottrina più attenta (Abriani), l’intelligenza artificiale produrrà effetti anche sulla corporate governance. In diverse direzioni. Innanzitutto, già in relazione al procedimento deliberativo stanno emergendo le prime sperimentazioni di modalità di voto basate sulle tecnologie di blockchain o di verbalizzazione della partecipazione dei soci in assemblea fondate su sistemi di smart contracts.

Inoltre, appare primario il ruolo che l’intelligenza artificiale si ritaglierà come mezzo di ausilio nell’attività gestoria, ovvero come elemento nella costruzione degli assetti organizzativi, amministrativi e contabili delle società. E ciò consiste essenzialmente nella possibilità che gli amministratori avranno di ricorrere al sostegno di algoritmi a supporto dei processi decisionali e, dunque, di influire direttamente sulla conduzione delle imprese.

In tal senso, l’utilizzo dell’intelligenza artificiale potrà manifestarsi in termini più evidenti anche nella selezione a monte degli amministratori, nella determinazione della remunerazione dei dirigenti, nella gestione dei rischi e nel miglioramento delle funzioni di conformità, nelle relazioni con gli investitori.

I casi

Fino ad arrivare, ed è questo il tema più spinoso, nell’ acquisire un ruolo di affiancamento dei gestori all’interno dei Cda e, nei casi, più estremi, di sostituzione integrale degli stessi nel board. Non mancano sporadici precedenti in tal senso.

Dal primo caso di Vital, una società di Hong Kong specializzata in medicina rigenerativa, che nel 2014 ha nominato quale membro del proprio Cda un algoritmo con il compito di analizzare enormi quantità di dati sulla situazione finanziaria, le sperimentazioni cliniche e la proprietà intellettuale delle future società e dotato del diritto di voto sulle opzioni di investimento della società.

Alla finlandese Tieto, società di software, che nel 2016 ha nominato un’intelligenza artificiale come membro del team direttivo della sua unità di data-driven business. Alicia, questo il nome dell’algoritmo, era dotato di un sistema di interazione che gli consentiva di avere uno scambio con gli altri componenti del team e di esprimere proprie valutazioni.

Il problema della responsabilità

Come è evidente, il tema principale che attiene all’utilizzo dell’intelligenza artificiale in sostituzione o in affiancamento degli amministratori è quello della responsabilità. Il che impone, da un lato, e prioritariamente, che l’intelligenza artificiale utilizzata nelle società sia assistita dal più assoluto principio di trasparenza relativamente al processo creativo e alla tecnologia abilitante degli algoritmi utilizzati.

Per altro verso, è dirimente definire la esatta imputazione della responsabilità collegata all’utilizzo dell’intelligenza artificiale. Perché, contrariamente a quanto avviene nei Paesi di common law, nell’ordinamento italiano allo stato non è possibile separare il principio della responsabilità da quello della sua imputazione ad un soggetto di diritto, ovvero quello della personalità giuridica.

Solo un soggetto con capacità di agire può rispondere degli atti giuridici compiuti. E ciò non può che valere anche per l’intelligenza artificiale, dov’è ancora lontano il ricorso alla elaborazione della cosiddetta “personalità artificiale”.

Fino a quel momento, se mai ci sarà, sarebbe opportuno cominciare ad avviare un percorso unitario, in ambito europeo, che sulla base del Libro bianco della Commissione in tema di intelligenza artificiale del febbraio 2020, provasse ad elaborare un sistema di indirizzi comuni. E ciò per determinare un nuovo quadro giuridico in tema di responsabilità dell’intelligenza artificiale che sia orientato al futuro, a tutela dei cittadini e delle imprese europee.

*D ocente di diritto commerciale nell’Università degli Studi di Napoli Federico II e componente del comitato tecnico scientifico dell’Istituto per il governo societario

Per saperne di piùRiproduzione riservata ©