Neurotecnologia e diritto: focus sulla responsabilità di prodotto
L’attuale quadro normativo sulla responsabilità di prodotto è assolutamente impreparato a cogliere le sfide uniche e senza precedenti associate alle neurotecnologie. In questo articolo Harry Lambert esplora le tre aree chiave in cui i limiti del CPA 1987 (Consumer Protection Act) diventano evidenti
INTRODUZIONE
(di Nicoletta F. Prandi)
La crescente diffusione di dispositivi fai-da-te che agiscono sul sistema nervoso del consumatore, per rafforzare facoltà cognitive (la memoria e l’apprendimento) o per favorire il sonno e il rilassamento, pone sfide inedite al legislatore:
come tutelarci da danni in apparenza intangibili, ma nella sostanza ben presenti a livello cerebrale e psicologico?
È il tema affrontato in questo nuovo articolo da Harry Lambert, che ci pone davanti a questioni cruciali per l’ambito del diritto, messo alla prova, con ritmo inarrestabile, dai progressi continui delle neurotecnologie.
Se un’ustione provocata da un tostapane difettoso è un fatto oggettivo, lo sono senz’altro meno i possibili disagi cognitivi derivanti da device neurotecnologici difettosi o dall’uso incontrollato di questi prodotti. I danni possono includere ansia da prestazione cronica, disturbo ossessivo-compulsivo, microlesioni cerebrali e altro ancora.
La recente cancellazione, da parte della Commissione EU, dell’iter di approvazione per l’AI Liability Act, pensato per proteggere i consumatori da prodotti con algoritmi difettosi, complica il quadro complessivo. Eppure, ricorda Lambert, le soluzioni innovative possono fare la differenza: come una legislazione ‘su misura’, lontana dal tradizionale approccio one size fits all.
_______
NEUROTECNOLOGIA E DIRITTO: LA RESPONSABILITÀ DI PRODOTTO
(di Harry Lambert)
L’attuale quadro normativo sulla responsabilità di prodotto è tristemente impreparato a cogliere le sfide uniche e senza precedenti associate alle neurotecnologie. Questo articolo esplora le tre aree chiave in cui i limiti del CPA 1987 (Consumer Protection Act, cha ha implementato la direttiva europea 85/374/CEE) diventano evidenti se applicate in questo contesto:
- I. l’intrinseca plasticità del cervello e i conseguenti rischi insidiosi e a lungo termine dell’uso delle neurotecnologie, soprattutto nei bambini;
- II. le difficoltà nell’affrontare le violazioni dei diritti dei consumatori che non si manifestano come lesioni fisiche tradizionali;
- III. la natura evolutiva degli algoritmi di apprendimento automatico integrati nelle neurotecnologie e le conseguenti sfide nel definire e dimostrare i difetti ai sensi del CPA 1987.
LA PLASTICITÀ DEL CERVELLO: UNA MINACCIA INSIDIOSA
Il CPA 1987 affronta in modo efficace la tutela dei consumatori per prodotti convenzionali, come sono, ad esempio, tostapane e bollitori; tuttavia, se un tostapane o un bollitore ci feriscono, il fatto è inequivocabile. La responsabilità di prodotto regolamenta i difetti dimostrabili che causano danni dimostrabili che, in genere, si verificano al primo utilizzo o subito dopo. La garanzia di un prodotto è concettualmente radicata proprio in tale paradigma.
La definizione stessa di difetto, poi, si basa su una valutazione istantanea e si focalizza sulla sicurezza e sulla funzionalità di un prodotto quando viene immesso sul mercato. Ancora una volta, ricordiamo, per i tostapane è un approccio perfetto.
Tuttavia, se ci sono di mezzo le neurotecnologie, l’impatto del prodotto è notevolmente diverso. I suoi effetti dannosi possono essere graduali, nascosti e non rilevabili nell’immediato. Ad esempio, l’accumulo di microlesioni da neurostimolazione invasiva potrebbe non produrre sintomi fino a quando non si verifica un danno significativo. Lo stesso vale per i sottili squilibri dei neurotrasmettitori, che all’inizio potrebbero non manifestarsi con sintomi evidenti, ma che possono portare a disturbi dell’umore o disfunzione cognitiva nel tempo.
Il feedback continuo da dispositivi neurotecnologici per il potenziamento cognitivo può anche creare un’iperconsapevolezza delle proprie prestazioni cerebrali, portando ad ansia da prestazione cronica, stress o DOC (disturbo ossessivo-compulsivo).Ecco perché le inside di un uso prolungato delle neurotecnologie sono amplificate dalla plasticità intrinseca del cervello.
Un aspetto sottolineato dal recente rapporto dell’Unicef «Neurotecnologia e bambini», che evidenzia come «i rischi derivanti dall’uso improprio delle neurotecnologie sono particolarmente significativi per i bambini perché l’infanzia è un periodo critico per lo sviluppo del cervello e per la formazione dell’identità».
Un cervello in fase di sviluppo è molto malleabile, poiché si rimodella e si riprogramma di continuo in risposta alle esperienze vissute. Un uso continuo di device neurotecnologici, anche quelli in apparenza innocui come i giochi per allenare la memoria o le cuffie indossabili, potrebbe alterare in modo sottile i percorsi neurali e i processi cognitivi per periodi prolungati, portando a conseguenze impreviste e potenzialmente dannose a lungo termine.
Qui si arriva a un primo punto importante: separare questi effetti dai tratti innati del bambino e distinguerli dalle possibili manipolazioni, con le neurotecnologie diventa difficile, se non impossibile. Inoltre, sarebbe difficile, se non impossibile, dimostrare che questi effetti derivano direttamente da un difetto del prodotto, secondo quanto previsto dal CPA 1987.
Il CPA, citando solo i danni tangibili (come lesioni, incendi o inondazioni) offre strumenti sostanzialmente inadatti a valutare il danno cumulativo che le neurotecnologie possono determinare. Servono soluzioni innovative.
DANNI PERSONALI, SE NON LI NOMINO NON ESISTONO
La lenta erosione della privacy mentale, la sottile diminuzione delle capacità cognitive o la manipolazione del comportamento non sono i tipi di danno contemplati dal CPA 1987.
Anche la dipendenza dall’uso dei device non è considerata una condizione psichiatrica riconosciuta, come avviene con le sostanze stupefacenti.
Le ricerche scientifiche condotte fino a oggi, inoltre, hanno dimostrato che le neurotecnologie possono alterare progressivamente l’identità e il comportamento, plasmando i processi cognitivi, le risposte emotive e l’autopercezione, sollevando profonde questione etiche sull’autonomia individuale.
Facendo un esempio semplice, se un device neurotecnologico abilita un inserzionista a farsi pubblicità con il neuromarketing e influenza la mia capacità di decidere di passare dal prodotto di una marca ad un altra, questo non è un danno perseguibile ai sensi del CPA 1987. Un altro punto importante è che il CPA non è dotato nemmeno del vocabolario necessario per contemplare i rischi che potrebbero verificarsi.
APPRENDIMENTO AUTOMATICO
Anche l’intelligenza artificiale pone delle sfide inedite al CPA 1987. La prima sfida è legata alla natura in continua evoluzione dell’apprendimento automatico. Gli algoritmi apprendono e migliorano dai dati raccolti durante il loro utilizzo. Se commettessero un errore iniziale, poi corretto in corsa, le prestazioni sarebbero migliorate e gli impatti negativi del malfunzionamento iniziale sarebbero ridotti al minimo. L’IA funziona così.
L’architettura informatica di questi sistemi ci costringe, allora, a porci la domanda fondamentale:
un errore iniziale in un algoritmo di apprendimento automatico, successivamente corretto, è davvero un difetto?
Oppure fa solo parte del processo di apprendimento?
Da una parte, gli errori inziali possono essere considerati dei difetti, che significano delle imperfezioni nella progettazione del modello. Dall’altra, sono momenti di apprendimento fondamentali per il modello stesso, addirittura necessari per migliorarlo nel tempo.
Definire un difetto in una tecnologia per sua natura evolutiva è complicato e, nel caso del CPA 1987, non è possibile con gli standard contemplati.
Il CPA 1987 si basa su un concetto, ciò che «le persone hanno generalmente il diritto di aspettarsi». Di nuovo, ciò che le persone hanno generalmente il diritto di aspettarsi da un tostapane è una cosa fondata sull’esperienza comune. I diritti e le aspettative in relazione a una BCI (interfaccia cervello-computer) saranno più difficili da discernere e da definire.
La tecnologia si sta muovendo velocemente: ChatGPT ha impiegato un mese per raggiungere 100 milioni di utenti, il treno a vapore ci ha messo un po’ di più. Se Ray Kurzweil ha ragione e quindi raggiungeremo la singolarità (un punto in cui la tecnologia evolve più rapidamente della capacità di adattamento dell’umanità), allora per gli esperti e per i giuristi tenere il passo con gli standard del diritto sarà qualcosa al di là dell’umana comprensione.
E quindi è opportuno chiedersi se ciò che «le persone hanno generalmente il diritto di aspettarsi» sia ancora un concetto moralmente o legalmente rilevante.
I tribunali potrebbero concentrarsi sempre di più sugli aspetti del diritto che non sulle persone in generale, portandoci a domandarci se ciò che è lecito aspettarci da un prodotto sia anche ragionevole.
SOLUZIONI INNOVATIVE
Le recenti iniziative europee, come l’EU AI Act, rappresentano chiari miglioramenti nel panorama della governance tecnologica, anche se risultano insufficienti per gestire le sfide delle neurotecnologie.
Servono soluzioni che vadano oltre i paradigmi tradizionali.
Nell’ambito del lavoro intrapreso dal nuovo Governo in UK per riformare le leggi sulla responsabilità di prodotto, come parte del Product Safety and Metrology Bill, i seguenti punti possono essere un trampolino di lancio per il dibattito, per il miglioramento e il perfezionamento dei regolamenti.
I. Un passo significativo sarebbe quello di modificare il CPA 1987 per incorporare una comprensione più sfumata di ciò che costituisce un «difetto». Ciò comporterebbe l’allontanamento da una valutazione istantanea nel momento della messa in commercio e l’integrazione di criteri di valutazione in corso, che considerino le esperienze degli utenti a lungo termine e i potenziali effetti ritardati dell’uso delle neurotecnologie nonché dell’apprendimento automatico.
Tale adattamento faciliterebbe un’interpretazione più ampia della responsabilità, consentendo il riconoscimento del danno cumulativo che queste tecnologie possono infliggere nel tempo, nonché l’evoluzione degli standard di cura.
II. L’attuale limitazione decennale della garanzia non riesce a tenere conto degli impatti che si hanno quando gli effetti avversi si rendono evidenti solo molto più tardi. Rimuovendo questa restrizione, si potrebbero ritenere i produttori responsabili delle conseguenze a lungo termine dei loro prodotti, promuovendo così uno standard più elevato di sicurezza e prudenza nello sviluppo e nell’uso delle neurotecnologie.
III. La valutazione del difetto non deve basarsi sulle aspettative dei consumatori, in un contesto in cui la tecnologia si evolve così rapidamente. Invece, l’attenzione dovrebbe concentrarsi su parametri di sicurezza quantificabili e specifici propri del settore.
IV. Andando in scia all’EU AI Act, i produttori dovrebbero anche essere tenuti a fornire informazioni complete sui potenziali rischi e sugli effetti collaterali delle neurotecnologie, compresi gli effetti incerti o latenti. Ciò aumenterebbe la trasparenza e consentirebbe ai consumatori di prendere decisioni informate in merito al loro utilizzo.
V. Si dovrebbe prendere in considerazione di replicare la distinzione MHRA (Medicines and Healthcare products Regulatory Agency) tra dispositivi medici e non medici, per la quale sorgono considerazioni molto diverse. Come punto di partenza, è necessaria maggiore cautela con i dispositivi medici ma, allo stesso modo, un rischio maggiore può essere giustificabile; è importante riconoscere che molti pazienti hanno urgenti esigenze terapeutiche e una breve durata della vita, il che può rendere i rischi di sviluppo più accettabili in questi casi rispetto ai dispositivi non medici in cui la posta in gioco è significativamente inferiore.
Come notano Tristan Harris e Aza Raskin del center for Human Technology, nuove tecnologie comportano nuove responsabilità. Quindi, nella pratica si arriva al prossimo punto seguente.
VI. Serve aggiornare i quadri regolatori che definiscono cosa sia un danno. Senza questo passaggio, la tutela legale per gli individui la cui autonomia o i cui processi cognitivi sono sottilmente alterati o manipolati dalle neurotecnologie crea un gap di responsabilità, che deve essere affrontato con soluzioni politiche innovative. Ciò richiede non solo cambiamenti legislativi, ma anche investimenti sostanziali nella ricerca focalizzata sugli impatti a lungo termine delle neurotecnologie e lo sviluppo di quadri più sfumati per la valutazione della sicurezza e della responsabilità, in particolare per le popolazioni vulnerabili come i bambini.
Potrebbe ben essere che le sfide specifiche presentate da questo settore, che vede la tecnologia interagire per definizione con il nostro sistema neurologico, richiedano un approccio legale più personalizzato, che vada oltre la legislazione one size fits all.
Come è stato esplorato nello scorso articolo, abbiamo molto da imparare dai Paesi latino-americani.
In conclusione, poiché le neurotecnologie continuano a progredire e sono destinate a permeare sempre più le nostre vite, è fondamentale che i nostri quadri normativi si adattino a questi sviluppi. Adottando approcci innovativi per la tutela dei consumatori possiamo salvaguardare la salute pubblica, assicurandoci che il progresso della tecnologia non vada oltre la dimensione delle nostre responsabilità etiche e legali. Un atteggiamento proattivo è essenziale per creare un futuro in cui le neurotecnologie migliorino il potenziale umano, senza comprometterne la sicurezza o l’autonomia.
______
* Fabrizio Ventimiglia, Avvocato penalista, Presidente CSB e Founder Studio Legale Ventimiglia; Nicoletta Prandi, Giornalista ed Autrice; Prof. Harry Lambert, barrister, founder Cerebralink e The Center for Neurotechnology and Law