Civile

ChatGPT e accordo con il Garante, quale impatto per le aziende?

Il comportamento da adottare qualore l'uso aziendale di ChatCPT, per scopi di profilazione e/o marketing oppure con lo sviluppo di una versione alimentata da diverse fonti o database pubblici, generi ulteriori trattamenti di dati personali di categorie o gruppi (più o meno definiti) di interessati<span id="U4030022532454CI" style="font-weight:normal;font-style:normal;"/>

di Paola Perin*

Dallo scorso 28 aprile ChatGPT è stata resa nuovamente disponibile pubblicamente in Italia, a valle dell'avvio di azioni poste in essere da OpenAI volte a porre in essere gli adempimenti richiesti nel Provvedimento prescrittivo del Garante datato 11 aprile .

Prescrizioni che hanno riguardato, tra gli altri, l'obbligo di messa a disposizione di una informativa che spieghi anche logica alla base dei trattamenti di dati personali necessari al funzionamento dell'intelligenza artificiale, ossia a suo "addestramento" (sic), le modalità di esercizio dei diritti, un sistema di verifica dell'età per la registrazione, nonché una misura che rappresenta una novità nel panorama non solo italiano, ma anche Europeo, ossia l'obbligo di realizzare una campagna di informazione su diversi mezzi di comunicazione per informare le persone dell'uso dei loro dati personali per addestrare gli algoritmi di ChatGPT.

Liberi tutti, quindi? Dipende


Fermo restando che l'uso personale e individuale di ChatGPT, in qualità di fruitori, per lo più passivi, di testi e informazioni generati da ChatGPT, non rientra nell'ambito di applicazione del Regolamento Europeo 679/2016 (RGPD) in materia di trattamento dei dati personali, diverso potrebbe essere l'ipotesi in cui l'uso sia di natura aziendale.

L'uso di ChatGPT può assumere infatti diverse forme. Dalla semplice concessione ai dipendenti da parte delle aziende di accedere a ChatGPT attraverso le reti aziendali, ad usi più sofisticati, ad esempio, le aziende possono utilizzare le API disponibili per integrare la tecnologia nelle loro offerte canalizzando le funzionalità dell'algoritmo anche per scopi di p rofilazione e/o marketing, ovvero sviluppare una versione di ChatGPT alimentata da diverse fonti o database pubblici pienamente accessibili e non facilmente identificabili online.

Con la consapevolezza che a ridosso delle iniziative di fine marzo del Garante Italiano, sia stata istituita dall'EDPB (European Data Protection Board) un task force tra le Autorità Europee "per promuovere la cooperazione e lo scambio di informazioni su eventuali azioni di applicazione del Regolamento Europeo" in relazione all'intelligenza artificiale e che già nel mese di marzo 2023 l'autorità inglese ICO (Information Commissioner Officer) si era preoccupata di predisporre 140 pagine di linee guida per l'uso dell'intelligenza artificiale rispetto in correlazione alla protezione dei dati, vi è da chiedersi quale comportamento adottare nel caso in cui l'uso aziendale dell'intelligenza artificiale, generi ulteriori trattamenti di dati personali di categorie o gruppi più o meno definiti di interessati.

Una condotta in linea con gli obiettivi del Garante – tra cui la possibilità per gli interessati di conoscere il destino delle informazioni che li riguardano - sarebbe quella di seguire le prescrizioni del Provvedimento dello scorso 11 aprile, con l'esclusione, s'intende, di campagne informative, valutando se e quali trattamenti si stiano ponendo in essere con l'uso dell'intelligenza artificiale, per quali scopi e quale sia il rischio dell'esposizione di tali dati personali, in altre parole è ravvisabile condurre un'adeguata valutazione d'impatto ( art. 35 RGPD ) e predisporre la documentazione che normalmente sarebbe dovuta ai sensi del RGPD, in qualità di titolare del trattamento, ovvero di responsabile del trattamento a seconda dei casi.

Sul punto si rileva che proprio nell'ipotesi di sviluppo di una versione di ChatGPT alimentata da diverse fonti o database, per analogia con le sentenze della Corte di Giustizia dell'Unione Europa, Wirtschafttsakademie del 5 giugno 2018 e Fashion ID del 29 luglio 2019, le Autorità Garanti Europee potrebbero stabilire che le aziende che utilizzano ChatGPT proprio per aggregare e trattare specifiche categorie di dati personali con specifici obiettivi, agiscano come co-titolari del trattamento.
Meglio non farsi trovare impreparati.
______
*A cura dell'Avv. Paola Perin, McDermott Will & Emery Studio Legale Associato

Per saperne di piùRiproduzione riservata ©