Evoluzione giuslavoristica nell’era AI: prospettive della Quarta Rivoluzione Industriale
Gli impatti dell’implementazione di sistemi AI nel mercato del lavoro, le prime pronunce e il varo dell’AI ACT, approvato di recente dal Parlamento europeo
Siamo pienamente entrati nella c.d. Quarta rivoluzione Industriale o Industria 4.0, concetto coniato da Klaus Schwab (fondatore e presidente esecutivo del World Economic Forum e autore de “The Fourth Industrial Revolution”) che sintetizza l’attuale tendenza verso l’automazione e l’interconnessione dei processi di produzione e di servizio, attraverso tecnologie digitali come l’Internet delle Cose (IoT), l’Intelligenza Artificiale (IA), il Machine Learning, il Big Data e l’Analisi dei Dati, la Robotica, la Blockchain . In termini pratici si sta affrontando la diminuzione, se non il progressivo annullamento, dei confini tra fisico, digitale e biologico o più specificamente l’interconnessione costante tra uomo e macchina anche nella scelta dei processi decisionali. Nel campo giuslavoristico, questa rivoluzione si manifesta in moltissimi modi, in merito ai quali proviamo ad esaminare alcuni passaggi fondamentali prendendo spunto da recenti analisi (McKinsey “Future of job report” presentato al World Economic Forum; EY Italy con Manpower Group e Sanoma Italia ”Il futuro delle competenze digitali nell’era dell’Intelligenza Artificiale”; etc.) che hanno studiato e quantificato la scomparsa di alcune tipologie di attività dovuta allo straordinario progresso dell’AI e parimenti la generazione di tutta una serie di nuovi lavori, nonché da.
Per capire gli impatti pratici, però partiamo dalla realtà già sottoposta al nostro esame di operatori professionali, ovvero l’evoluzione del mercato del lavoro già ampiamente modificato dagli algoritmi, il cui progresso inarrestabile, grazie all’implementazione con sistemi di AI, sta radicalmente cambiando il mondo del lavoro ad esempio tramite le c.d. piattaforme digitali . Queste nuove entità hanno dato lavoro alla giurisprudenza e al legislatore, sia dal punto di vista del loro inquadramento giuridico che dal punto di vista della loro relazione con clienti e fornitori. Le piattaforme di c.d. sharing economy o gig economy o collaborative economy , etc., hanno infatti rivoluzionato sia la fruizione dei servizi che l’accesso alla fornitura degli stessi da parte dei prestatori d’opera (autonomi o subordinati).
Tale innovazione di servizi ha richiesto l’intervento specifico della giurisprudenza e del legislatore per identificare e gestire fenomeni giuridici che hanno avuto uno sviluppo ben più rapido di quello legislativo. Si pensi ad esempio alla sentenza della Corte Europea (Sentenza CGUE, Grande Sezione, 20 dicembre 2017, nella causa C‑434/15) che ha stabilito l’inquadramento giuridico delle piattaforme e soprattutto in quali casi esse siano soggette a limitazioni rilevanti nel rispetto delle leggi nazionali che impongono requisiti professionali e amministrativi per la prestazione dei servizi (caso Uber), o ancora si veda l’intervento della Corte di Cassazione in merito alla qualificazione giuridica dei riders (Corte di Cassazione sez. Lav. n. 1663 del 24 gennaio 2020).
Gli interventi giurisprudenziali e legislativi (si veda il Regolamento (EU) 2022/2065 c.d. Digital Services Act) hanno dato regole immediatamente applicabili in tutti gli stati membri in tema di obblighi incombenti sulle piattaforme e in più in generale sugli intermediari di servizi digitali.
Tale legislazione però, deve ora confrontarsi e aggiornarsi con lo straordinario progresso portato dal diffondersi degli algoritmi basati sull’AI, le cui regole di funzionamento, che hanno un riflesso sulle modalità di apprendimento ed elaborazione degli output decisionali di ormai tutte le aziende, delle realtà professionali e anche delle Pubbliche Amministrazioni, possono essere spesso ignote e manipolabili (c.d black box oscure o opache ).
Dobbiamo allora interrogarci sugli obblighi di trasparenza e correttezza che incombono sui datori di lavoro pubblici e privati, ai sensi del Decreto Lavoro (DL 48/2023 convertito in L. 85/2023) e del Decreto Trasparenza (D.Lgs. 104/2022).
Si richiamano infatti le pronunce di alcuni Tribunali di merito (Trib. Bologna Ord. 31/12/2020 e Trib. Palermo Sent. 17/11/2023) in merito alla discriminazione operata su alcuni lavoratori da parte degli algoritmi di attribuzione dei turni, in forza dei quali erano privilegiati coloro che avevano una affidabilità o un ranking reputazionale più elevato. In sostanza parametri previsionali concedevano i migliori turni ai riders che avrebbero potuto garantire maggiore affidabilità a scapito di tutti coloro che per motivi disparati, età, carichi familiari, religiosi etc. non riuscivano a dare la stessa continuità. Ebbene, ci si interroga allora se sia opportuno, se non necessario, imporre limitazioni e controlli sulle black box degli algoritmi, da bilanciarsi però con il diritto alla libera concorrenza.
Questi sono casi specifici, ma vi sono altri ambiti che potrebbero portare a discriminazioni dirette e o indirette, nonché a potenziali illeciti e/o violazioni dei modelli etici o del modello organizzativo 231. Si pensi ad esempio alla fase di recruiting , qualora un algoritmo decidesse di selezionare o scartare determinati profili in funzione del loro passato social o delle parole utilizzate nel curriculum, o nella scelta dei fornitori in sede di confronto di preventivi, o ancora a come evitare il verificarsi di errori e discriminazioni in tema di promozioni, modifiche delle mansioni e attribuzioni, oppure di scelta dei lavoratori in sede di licenziamenti collettivi.
Questi casi potrebbero avere un immediato riflesso in tema giudiziale e proprio su questo tema si deve considerare l’impatto dell’AI in ambito giudiziario.
Esistono ormai molti algoritmi di LLM (Large Language Model) e di AI Generativa che si occupano di fornire servizi al mondo legale. Tali sevizi sono in grado di fornire credibili elaborati in merito al possibile esito di una causa presso in determinato Tribunale, in base ai precedenti esistenti o agli orientamenti delle corti di merito, e quindi da un lato generare pareri legali per gli avvocati o clienti e dall’altro redigere sentenze per i magistrati. Tali sistemi hanno ancora una lunga strada da percorrere per ovviare all’esistenza di immancabili allucinazioni cognitive e bias di sistema (errori di giudizio o interpretazione), che portano a risultati ancora spesso inaffidabili (si veda il caso avvenuto presso il Tribunale di New York con citazione di precedenti inesistenti). Ebbene tale tema può sembrare ancora per qualcuno fantascientifico, ma così non è, tanto che la Commissione Europea per l’efficienza dei servizi di amministrazione della Giustizia CEPEJ-GT-CYBERJUST (CEPEJ Working Group on Cyberjustice and Artificial Intelligence) ha emanato Linee Guida sull’uso dell’Intelligenza Artificiale Generativa da parte di professionisti legali in ambito lavorativo (Use of Generative Artificial Intelligence by judicial professionals in a work-related context) in forza delle quali si individua cosa si intende per ambito lavorativo, quali sono i rischi più comuni per gli operatori del diritto nell’utilizzo dell’AI e soprattutto, pone delle regole di correttezza e buona fede nell’approccio, fino a spingersi a delineare ambiti nei quali l’operatore dovrebbe astenersi dall’uso dello strumento informatico.
Il legislatore Europeo, a torto o a ragione, ha inteso studiare molto approfonditamente l’uso dei sistemi generativi e soprattutto lavorare all’emanazione di un nuovo testo immediatamente applicabile negli stati membri (AI ACT Regulation), all’interno del quale saranno forniti i principi cardine a protezione dei cittadini Europei. Il testo del Regolamento si baserà infatti su tre direttrici fondamentali, ovvero verranno identificate attività a c.d. “rischio alto ”, in quanto potenzialmente lesive della sicurezza e dei diritti fondamentali, (ad es. riconoscimento biometrico, istruzione e formazione e amministrazione della giustizia), per le quali saranno disciplinati specifici limiti legali e obblighi da rispettare nell’implementazione e utilizzo di software generativi; attività c.d. a “ rischio limitato ” e quella a “ rischio nullo ” per le quali saranno concessi maggiori possibilità di libertà di test e sviluppo all’interno di “ sandbox normativi ”(spazi virtuali sorvegliati dalla Pubblica Autorità).
In questa corsa verso il futuro, mentre l’intelligenza artificiale e la tecnologia trasformano il nostro mondo a un ritmo senza precedenti, dobbiamo cercare di bilanciare adeguatamente le esigenze di progresso e produttività con le esigenze di tutela dei diritti fondamentali ricordando che al centro di tutti gli interessi dovrebbe sempre esserci la tutela della dignità umana e soprattutto anteponendo la diligenza dell’operatore professionale alla facile lusinga di un prodotto ancora instabile e ad alto rischio di responsabilità.
______
*A cura di Luca Viola, avvocato cassazionista, co-founder di Lexpertise – Legal Network