Neurotecnologie e lavoro: i rischi di discriminazione e di licenziamento illegittimo
Il quadro normativo attuale presenta lacune evidenti che potrebbero essere colmate solo con l’introduzione radicale di nuovi «neurodiritti». Alla base permangono anche le incertezze sull’affidabilità tecnologica degli algoritmi complessi, i veri protagonisti di scenari ancora in evoluzione
INTRODUZIONE
(di Nicoletta F. Prandi)
Dei cinque quesiti posti nei referendum dell’8 e 9 giugno prossimi, quattro riguardano il lavoro, ambito al quale è dedicato questo articolo di Harry Lambert. La coincidenza rappresenta un invito a riflettere su quanto possano essere abissali le distanze tra una realtà in piena accelerazione tecnologica e la percezione individuale e collettiva del diritto, prima ancora della sua effettiva regolamentazione.
Anche attraverso una casistica puntuale di sentenze emesse dalla CEDU, la Corte Europea dei Diritti dell’Uomo, Lambert illustra i rischi di licenziamento illegittimo e di discriminazione in cui si può incorrere con l’uso incontrollato (o volontariamente abusante) delle applicazioni neurotech per il controllo del lavoro e dei lavoratori.
Ci aiuta, così, a tracciare un confine ideale, da non oltrepassare anche quando l’intento di tutela del lavoratore è legittimo - ad esempio monitorare i livelli di stanchezza di un autista, per salvaguardare la sua sicurezza e quella altrui.
Come evidenziato nel testo, il quadro normativo attuale presenta lacune evidenti, che potrebbero essere colmate solo con l’introduzione radicale di nuovi «neurodiritti». Alla base permangono anche le incertezze sull’affidabilità tecnologica degli algoritmi complessi, i veri protagonisti di scenari ancora in evoluzione. Il loro impatto sul quotidiano, però, esercita già effetti che chiedono nuove rotte legislative.
________
NEUROTECNOLOGIE E LAVORO: I RISCHI DI DISCRIMINAZIONE E DI LICENZIAMENTO ILLEGITTIMO
(di Harry Lambert)
Questo articolo analizza l’impatto delle applicazioni neurotecnologiche sul diritto del lavoro: l’attenzione si concentra sui due aspetti, i rischi di licenziamento illegittimo e di discriminazione. Sono illustrati scenari concreti, in modo da analizzare se un quadro normativo nato in epoca analogica possa dimostrarsi inadeguato per l’era neurotech.
Il rischio di licenziamento illegittimo
Come abbiamo visto nel terzo articolo di questa serie, i cittadini possono far valere i diritti garantiti dalla CEDU (Convenzione Europea dei Diritti dell’Uomo) solo nei confronti di un’«autorità pubblica».
La maggior parte dei datori di lavoro, però, sono enti privati. Tuttavia, laddove l’atto di licenziamento costituisca una violazione dei diritti garantiti dalla CEDU, il Tribunale dell’Unione Europea potrebbe essere obbligato a stabilire che il licenziamento era ingiusto.
Ecco come ciò potrebbe essere rilevante in caso di neurotecnologie utilizzate nei luoghi di lavoro.
Il rifiuto di indossare una BCI (interfaccia cervello-computer)
Supponiamo che un’azienda di autotrasporti introduca l’uso di dispositivi indossabili neurotech, per monitorare la stanchezza e misurare in tempo reale i livelli di affaticamento degli autisti. Un autista ritiene che tale monitoraggio costituisca un’intrusione inaccettabile nella sua privacy e, così, si rifiuta di indossare il dispositivo. Il datore di lavoro ammonisce il dipendente, ma questi non cambia idea. Il datore di lavoro avvia un procedimento disciplinare e lo licenzia. Il ripetuto rifiuto di conformarsi a un’istruzione del management è correlato alla condotta del dipendente: sez. 98 (2) (a) ERA (Employment Rights Act).
La correttezza della decisione di licenziamento, in tutte le circostanze, dipenderà normalmente dalla legittimità e ragionevolezza dell’istruzione disobbedita e dalla irragionevolezza della disobbedienza del dipendente (Union of Construction, Allied Trades and Technicians contro Brain [1981] ICR 542 per Donaldson LJ a p. 550F-H).
Una serie di casi legati ai programmi di vaccinazione contro il Covid ci aiutano a immaginare come potrebbe essere influenzata la valutazione sulla ragionevolezza del rifiuto. Nel caso A. contro S.G. Nursing Home Limited (data della sentenza: 10 gennaio 2022), il primo caso del genere, un’assistente sociale presso una casa di cura è stata licenziata per essersi rifiutata di sottoporsi al vaccino contro il Covid. La donna ha presentato un ricorso per licenziamento illegittimo. Il Vice Presidente della Corte ha ammesso che i diritti della ricorrente erano stati violati ma la Corte d’Appello ha ritenuto che l’obbligo di vaccinazione fosse una misura proporzionata e necessaria in una società democratica, per raggiungere l’obiettivo legittimo di proteggere i residenti delle case di cura nel mezzo di una pandemia. Il rigetto era giusto.
Considerazioni analoghe sono state sollevate nel caso W. contro Svezia (ricorso n. 46210/99), un caso della Corte di Strasburgo in cui la ricorrente, addetta alle pulizie presso una centrale nucleare, è stata costretta a sottoporsi a test antidroga e alcoltest obbligatori.
La Corte di Strasburgo ha rilevato che i diritti della ricorrente erano stati violati. Tuttavia, una centrale nucleare richiede un elevato livello di sicurezza e i test obbligatori sono un mezzo proporzionato per perseguire tale obiettivo legittimo. Pertanto, il contesto è fondamentale. Molto dipenderà dalla natura del lavoro svolto dal dipendente e dalle metriche che il datore di lavoro intende monitorare.
Il rifiuto dell’autista nell’esempio precedente sembra costituire, con buona probabilità, un legittimo motivo di licenziamento. Quello degli autotrasporti è un settore critico per la sicurezza e la stanchezza può mettere seriamente in pericolo gli altri utenti della strada. Il monitoraggio tramite BCI, allora, sembra essere un mezzo proporzionato per perseguire un obiettivo legittimo.
Tuttavia, in un contesto d’ufficio, il monitoraggio della stanchezza potrebbe benissimo costituire un’interferenza ingiustificata con i diritti di un dipendente, perché non sussistono analoghe preoccupazioni in materia di sicurezza.
A prima vista, sembra ragionevole che un datore di lavoro verifichi che i propri dipendenti si concentrino sui compiti assegnati.
Eppure dobbiamo farci questa domanda: anche se l’obiettivo è legittimo, l’uso delle BCI sarebbe proporzionato laddove esistano alternative meno invasive?
Inoltre, poiché la tecnologia alla base delle BCI è ancora in fase di sviluppo, potrebbero esserci preoccupazioni sull’affidabilità della decodifica dei dati cerebrali, soprattutto se chi commercializza BCI esagera in modo irrealistico le capacità del proprio dispositivo di monitorare accuratamente gli stati cognitivi o emotivi.
Il monitoraggio occulto
Si possono tracciare interessanti parallelismi anche con la giurisprudenza sulla sorveglianza sul posto di lavoro. È vero che potrebbe apparire inverosimile (è difficile immaginare un manager che applichi di nascosto una BCI indossabile sulla testa di un dipendente, figuriamoci impiantarne uno nel suo cervello) ma è possibile che un datore di lavoro dichiari di volere usare una BCI per monitorare una metrica specifica, quando, in realtà, esegue una raccolta e una elaborazione di dati neurali molto più ampia. Immaginiamo che al nostro camionista venga data una BCI contro l’affaticamento e che questa, in realtà, sia usata dal datore di lavoro anche per monitorare i livelli di concentrazione e di attenzione generale. Ipotizziamo che la BCI riveli che l’autista è cronicamente disattento alla guida, motivo per cui viene licenziato.
Il caso B. contro Romania (Ricorso n. 61496/08) suggerisce che potrebbe trattarsi di licenziamento illegittimo. In quel caso, al ricorrente fu chiesto dal suo datore di lavoro di aprire un account di posta elettronica aziendale che, a sua insaputa, il datore di lavoro stava monitorando, scoprendo che il lavoratore usava quell’account per inviare email personali. Fu licenziato. La Corte ha osservato, in particolare, che il ricorrente non era stato informato in anticipo della natura e dell’entità del monitoraggio del suo account. Pertanto, il camionista potrebbe sostenere con forza che le prove della sua condotta scorretta siano state ottenute in violazione dei suoi diritti, configurando licenziamento illegittimo. Tuttavia, laddove le informazioni ottenute dimostrino chiaramente una condotta scorretta da parte del dipendente, l’eventuale risarcimento danni può essere ridotto per concorso di colpa.
Abbiamo leggi e regolamenti adeguati?
Gli scenari ipotetici considerati dimostrano che godiamo di una prima misura di protezione contro l’abuso delle neurotecnologie sui luoghi di lavoro. Tuttavia, nelle situazioni più comuni che probabilmente si presenteranno nel prossimo futuro, si pone un problema chiave. Il quadro sopra delineato, infatti, entra in vigore solo dopo il licenziamento del dipendente oppure impone al dipendente l’onere di dimettersi e presentare un ricorso. Ciò è ben lungi dall’essere una situazione ideale per i dipendenti.
Il rischio di discriminazione
Le BCI si basano su algoritmi complessi per decodificare i dati cerebrali che raccolgono. Spesso si teme che tali algoritmi siano una scatola nera, il cui funzionamento non è spiegabile o interpretabile dagli esseri umani. Ciò ha conseguenze potenzialmente importanti sui luoghi di lavoro, dove le conclusioni tratte dalla decodifica e dall’analisi dei dati cerebrali possono influenzare significativamente le decisioni manageriali, senza che i decisori siano in grado di spiegare come siano stati ottenuti i risultati su cui si sono basati. Una preoccupazione, comunemente espressa in letteratura, riguarda gli scenari in cui l’uso di BCI da parte del datore di lavoro rivela caratteristiche dei propri dipendenti che prima non erano conosciute. Vlek e altri fanno l’esempio di un sistema BCI in grado di discernere se un dipendente ha bevuto la sera prima, o di rivelare che ha particolari «stati psicologici, tratti e vulnerabilità a livello di salute mentale». Affermano: «potrebbe non essere nel migliore interesse di un individuo rendere queste informazioni personali disponibili ad altri, in particolare a un datore di lavoro, e la discriminazione sul posto di lavoro potrebbe essere un problema concreto».
Facciamo un esempio. Il monitoraggio emotivo del personale di sala di un ristorante rivela quali membri del personale sono più propensi ad arrabbiarsi con i clienti. Queste informazioni costituiscono poi la base per le decisioni gestionali relative a quei dipendenti. Un cameriere può non essere promosso perché, sebbene pari al candidato rivale sotto tutti gli altri aspetti, la BCI in cuffie mostra che è più propenso a perdere la calma.
Abbiamo leggi e regolamenti adeguati?
Il quadro normativo vigente ai sensi dell’Equality Act 2010 fornisce una base per le rivendicazioni di discriminazione diretta e indiretta; tuttavia, l’applicazione di questi principi alle neurotecnologie solleva questioni complesse.
Gli esempi sopra riportati presuppongono l’accuratezza delle conclusioni tratte dai dati cerebrali ma, come già chiarito, non possiamo affatto darlo per scontato. In primo luogo, vi sono limiti a ciò che può essere dedotto in modo puntuale dai dati cerebrali. E, ancora più importante, ai fini di qualsiasi rivendicazione per discriminazione indiretta, tale decodificazione dipende da algoritmi complessi che possono a loro volta incorporare distorsioni o avere prestazioni inferiori per coloro che presentano determinate caratteristiche protette.
In questo caso, il dipendente potrebbe sollevare una causa per discriminazione indiretta (è stato messo in una posizione di svantaggio perché la BCI non è in grado di decodificare i suoi dati cerebrali con accuratezza). Servirebbero, però, prove scientifiche dettagliate - e costose - che analizzino il funzionamento degli algoritmi. Affermazioni generiche su ipotetiche distorsioni difficilmente sarebbero sufficienti.
Conclusioni
Come dimostra questo articolo, il quadro normativo attuale presenta evidenti lacune, che potrebbero essere colmate solo attraverso l’introduzione più radicale di nuovi «neurodiritti». Se siano specificamente mirati al contesto lavorativo o abbiano un’applicazione più ampia, è una questione che esula dallo scopo di questo articolo. Indubbiamente è però destinata ad acquisire sempre maggiore importanza, mano a mano che le neurotecnologie diventano più sofisticate e si diffondono gradualmente nelle nostre società.
_______
*Fabrizio Ventimiglia, Avvocato penalista, Presidente CSB e Founder Studio Legale Ventimiglia; Nicoletta Prandi, Giornalista ed Autrice; Prof. Harry Lambert, barrister, founder Cerebralink e The Center for Neurotechnology and Law. Ha collaborato all’articolo Josh Neaman