Responsabilità

Il diritto civile alla prova dell’intelligenza artificiale

Il concetto di colpa si evolve e tende sempre più a configurarsi come mancata adozione di misure idonee a governare i rischi

Future innovative concept of efficient and fair justice system with closeup robotic hand signing legal document as artificial intelligence in transparent judicial proceedings by AI judge. Equilibrium

di Antonio Albanese*

Di fronte alla rapidità con la quale si susseguono le innovazioni tecnologiche è diffusa la sensazione che il diritto faccia fatica a stare al passo con i tempi.

Questa percezione corrisponde alla realtà, ma non assume una connotazione necessariamente negativa.

È naturale e, per certi versi, giusto che il diritto si occupi di ciò che accade e non si (pre)occupi troppo di ciò che potrebbe accadere. Solo nelle loro manifestazioni concrete, infatti, le attività umane (o che l’uomo delega a sistemi autonomi) mostrano gli interessi da proteggere e da bilanciare nelle situazioni in cui entrano in conflitto.

Per questo motivo, i tentativi di regolare anticipatamente fenomeni non ancora ben definiti ha talvolta prodotto discipline artificiose e velleitarie.

Va peraltro detto che lo sviluppo e l’utilizzo di nuove tecnologie non cade in un vuoto normativo. In aggiunta alle regole recentemente introdotte dal Regolamento europeo sull’intelligenza artificiale, un importante contributo alla soluzione dei conflitti è infatti offerta dal diritto civile, che tutela le singole persone rispetto a comportamenti illeciti, orientando al tempo stesso le scelte imprenditoriali verso obiettivi di maggiore sicurezza.

In questo senso le norme sulla responsabilità costituiscono un sistema efficiente e razionale di disincentivi, in grado di governare lo sviluppo tecnologico, coniugando il diritto al risarcimento dei singoli danneggiati con l’interesse collettivo a favorire l’innovazione.

Già prima del verificarsi di eventuali danni da risarcire, queste regole costituiscono infatti criteri di valutazione, che vengono assunti all’interno dei processi aziendali, influenzando le scelte organizzative e gestionali delle imprese, che utilizzano o forniscono le nuove tecnologie, attraverso la valutazione e gestione dei relativi rischi nell’interesse di shareholders e di stakeholders.

Ovviamente si tratta di regole elaborate in epoche lontane per ipotesi diverse e si tratta quindi di verificare in che misura sono adeguate a disciplinare le nuove fattispecie e quali siano i correttivi da apportare.

Al riguardo, si possono, tuttavia intravedere alcune linee evolutive.

Una prima tendenza che caratterizzerà sempre più la responsabilità civile è il declino della colpa come criterio di imputazione basato sulla prevedibilità ed evitabilità del danno o sulla violazione di regole a carattere cautelare, che cristallizzano massime di esperienza già consolidate.

Questo modo di intendere la colpa è tipico della cultura individualistica di fine 800, che poneva al centro la volontà e la libertà dell’individuo.

Nella attuale società dei consumi di massa le persone sono parte di un sistema complesso, che le mette sempre più in connessione tra loro anche grazie alle nuove tecnologie. Le condotte di ciascuno possono così determinare conseguenze spesso imprevedibili.

In questo scenario anche il concetto di colpa si evolve e tende sempre più a configurarsi come mancata adozione di misure idonee a governare i rischi.

Un esempio in tal senso si può trarre dalla norma che impone agli amministratori di società di adottare adeguati assetti organizzativi, anche al fine di individuare per tempo eventuali rischi e di mitigarne le conseguenze. Là dove una impresa utilizzi nei propri processi decisionali strumenti di valutazione basati su algoritmi o sistemi di intelligenza artificiale, dovrà adottare procedure di controllo idonee a identificare per tempo eventuali malfunzionamenti o bias.

Non c’è una sfera di cristallo per prevedere che cosa accadrà, soprattutto con sistemi di intelligenza artificiale capaci di autoapprendimento che si evolvono in modo autonomo, ma gli amministratori potranno essere ritenuti responsabili per la mancata predisposizione di un adeguato assetto organizzativo che abbia cagionato danni alla società, ai soci o a terzi.

Un’altra linea di tendenza è l’adattamento di alcune fattispecie di responsabilità oggettiva già esistenti alla nuova tassonomia di possibili danni cagionati da sistemi di intelligenza artificiale.

In tal senso è prevedibile una espansione della responsabilità del produttore per danni cagionati da difetti dei suoi prodotti. L’introduzione di tecnologie in grado di ridurre i rischi legati a errori umani genera, infatti, una crescente aspettativa sociale di prodotti più sicuri con conseguente aumento delle ipotesi in cui macchine e strumenti dotati di intelligenza artificiale potranno essere considerati difettosi, in quanto non offrono la sicurezza che ci si può legittimamente attendere.

In tal senso la proposta di riforma della direttiva sulla responsabilità da prodotti difettosi equipara espressamente al produttore di beni mobili il soggetto che ha sviluppato il software o l’autore dell’algoritmo su cui questo si basa.

Anche in questo contesto, trova quindi conferma il ruolo fondamentale che il diritto civile svolge nel promuovere lo sviluppo di nuove tecnologie non solo più efficienti, ma anche più sicure per l’uomo.

______

*A cura di Antonio Albanese - Professore ordinario di diritto civile nell’Università cattolica del Sacro Cuore e Of Counsel dello studio legale Bonelli Erede

Per saperne di piùRiproduzione riservata ©