Comunitario e Internazionale

Clearview AI: la sanzione da 20 milioni di euro del Garante privacy

Il Garante italiano si è così unito al coro di voci levatosi a tutela degli europei, sfoderando gli strumenti di protezione offerti dal Regolamento (UE) 2016/679 (anche noto come "GDPR"), e non solo: nel provvedimento fa capolino anche la regolazione in materia di intelligenza artificiale che l'Unione europea si prepara ad adottare

di Giorgia Bianchini*

Il Garante per la protezione dei dati personali ha recentemente reso noto di aver imposto una sanzione di 20 milioni di euro alla società statunitense Clearview AI.

Il nuovo anno è cominciato da poco, eppure si tratta della seconda sanzione milionaria del Garante privacy, che a gennaio ha inflitto una sanzione di oltre 26 milioni e 500 mila euro per il trattamento illecito di dati personali a fini di telemarketing.

Questa volta, nel mirino dell'Autorità c'è il trattamento di dati personali realizzato nell'ambito di un sistema per il riconoscimento facciale che impiega l'intelligenza artificiale, già noto alle cronache e oggetto di scrutinio da parte dei Garanti di altri Stati membri e del European Data Protection Supervisor, che ne ha negato l'utilizzabilità da parte del European Police Office.

Il Garante italiano si è così unito al coro di voci levatosi a tutela degli europei, sfoderando gli strumenti di protezione offerti dal Regolamento (UE) 2016/679 (anche noto come "GDPR"), e non solo: nel provvedimento fa capolino anche la regolazione in materia di intelligenza artificiale che l'Unione europea si prepara ad adottare.

Il sistema di riconoscimento facciale di Clearview AI, i profili di illiceità e l'applicabilità del GDPR

La piattaforma sviluppata da Clearview AI consente la ricerca di immagini all'interno di un database con oltre 10 miliardi di immagini facciali reperite con tecniche c.d. di "web scraping", ossia tramite il rastrellamento di immagini pubblicamente accessibili presenti su social network e, in generale, siti web.

Le immagini così raccolte sono elaborate mediante sistemi di machine learning, che ne estraggono i dati biometrici e consentono la creazione di profili basati su tali dati, poi arricchiti con i metadati associati all'immagine, come, ad esempio, il titolo della pagina web da cui l'immagine proviene o il genere o la data di nascita del soggetto.

Il risultato è che quando un utente inserisce un'immagine facciale nel motore di ricerca, il sistema compara i dati di riconoscimento facciale del soggetto ritratto con quelli presenti nel proprio database e identifica almeno un probabile candidato, recuperando anche le informazioni associate.

Il servizio non è liberamente accessibile al pubblico, ma è destinato a determinate categorie di soggetti, quali forze di polizia e forze dell'ordine.

Esaminando i trattamenti di dati personali così posti in essere da Clearview AI, il Garante ha riscontrato numerosi profili di illiceità.

In primo luogo, l'Autorità ha rilevato la violazione dei principi di liceità, correttezza e trasparenza del trattamento, del principio di limitazione delle finalità, nonché del principio di limitazione della conservazione.

In altre parole, contrariamente a quanto prescritto dal GDPR, Clearview AI non ha trattato i dati personali in modo lecito, corretto e trasparente nei confronti dell'interessato, non ha perseguito finalità determinate, esplicite e legittime e, ancora, non ha previsto alcun limite temporale alla conservazione dei dati personali.

Il trattamento è poi risultato sprovvisto di una qualsivoglia base giuridica, ossia di una delle condizioni di liceità previste dal Regolamento che legittimano il titolare ad effettuare le attività di trattamento. Tanto con riferimento ai dati biometrici, quanto agli altri dati personali.

Come è noto, i dati biometrici rientrano tra le categorie particolari di dati personali e sono dunque soggetti ad una tutela più stringente. Più precisamente, il Regolamento prevede un generale divieto di trattamento di tali dati, mitigato dalla previsione di alcune specifiche condizioni. Non sussistendo alcuna di queste condizioni, Clearview AI ha violato il divieto di trattamento.

Per quanto riguarda gli altri dati personali, il Garante ha escluso la sussistenza dell'unica base giuridica astrattamente invocabile nel caso di specie, in assenza del consenso degli interessati, ossia il legittimo interesse. La sua applicabilità, infatti, è subordinata ad un bilanciamento con gli interessi, i diritti e le libertà fondamentali dell'interessato, che non devono risultare prevalenti. Considerata la particolare intrusività del trattamento, il bilanciamento si è risolto in senso sfavorevole per Clearview AI.

Ancora, il Garante ha rilevato la contrarietà al GDPR delle modalità disponibili per l'esercizio dei diritti degli interessati e, in particolare, del diritto d'accesso, nonché l'assenza di un'idonea informativa.

La società statunitense, ed è questo l'ultimo profilo di illiceità, ha poi omesso di individuare un proprio rappresentate sul territorio dell'Unione europea. Si tratta del soggetto stabilito in uno degli Stati membri in cui si trovano gli interessati che il titolare o il responsabile del trattamento stabiliti al di fuori dell'Unione devono designare per iscritto affinché agisca per loro conto con riguardo agli obblighi derivanti dal Regolamento e funga da interlocutore per tutte le questioni riguardanti il trattamento.

Insomma, il provvedimento restituisce il quadro di un sistema radicalmente contrario ai principi e alle previsioni chiave del GDPR.

Del resto, come emerge dalle difese della società statunitense, questa intendeva reciso ogni legame con l'Europa dopo che, a marzo 2020, in seguito ai reclami presentati dai Garanti di alcuni Stati membri, aveva chiuso gli account di prova attivati da alcune autorità situate nell'Unione.

Invece, il Garante ha attratto i trattamenti di dati personali sotto il raggio d'azione del Regolamento europeo. E non solo facendo riferimento all'impiego del servizio da parte delle autorità situate nell'Unione fino al marzo 2020, ma anche qualificando le attività di Clearview AI come un monitoraggio del comportamento degli interessati situati, in generale, nell'Unione e, in particolare, in Italia.

L'Autorità ha così ritenuto integrate non una, ma entrambe le condizioni, pur alternative, cui è subordinata l'applicabilità territoriale del GDPR quando il titolare o il responsabile non siano stabiliti nell'Unione e ha emesso il suo verdetto.

Il Garante ha vietato a Clearview AI di proseguire ogni trattamento dei dati personali di chi si trovi nel territorio italiano, ha ordinato la cancellazione di tutti i dati personali di tali soggetti, le ha ingiunto di designare un rappresentante nel territorio dell'Unione e, infine, ha comminato una sanzione amministrativa pecuniaria di 20 milioni di euro.

Una sanzione da 20 milioni di euro: perché? I criteri di definizione del quantum

Allorché ricorrano determinate violazioni, il GDPR prevede che le autorità di controllo possano infliggere sanzioni amministrative pecuniarie fino a 20 milioni di euro o, per le imprese, fino al 4 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.

Tra queste, sono incluse anche le violazioni riguardanti i principi base del trattamento e i diritti degli interessati. In assenza di dati relativi al fatturato mondiale totale annuo della società, il Garante italiano ha così irrogato a Clearview IA una sanzione pari a 20 milioni di euro.

Tra gli elementi che maggiormente hanno inciso sulla determinazione dell'ammontare della sanzione, il Garante include la natura dei dati trattati, la gravità e la durata della violazione, il numero di soggetti coinvolti, il grado di responsabilità del titolare del trattamento, le misure adottate dal titolare del trattamento e il grado di cooperazione con l'autorità di controllo.

In altri termini, il quantum è stato individuato nel massimo edittale perché il trattamento ha ad oggetto categorie particolari di dati, i dati biometrici, verosimilmente anche di soggetti minori, e i profili di illiceità riguardano i requisiti fondamentali del trattamento ai sensi del Regolamento.

In più, le violazioni non hanno costituito un evento isolato. All'opposto, il trattamento è stato sistematico e si è protratto anche quando il servizio non veniva più offerto ad autorità stabilite nell'Unione europea.

Ha assunto particolare rilievo anche il numero di interessati coinvolti, non quantificabile con precisione, ma ragionevolmente individuabile in una misura elevatissima: la raccolta tramite web scraping può aver potenzialmente riguardato tutte le persone fisiche situate in Italia e presenti in Internet, sui social network o qualsivoglia sito web, per motivi personali o professionali.

Inoltre, il Garante ha ritenuto molto alto il grado di responsabilità della società, che pur a fronte dell'intervento di numerose autorità di protezione dei dati personali, ha proseguito con le attività di trattamento illecito, per di più senza adottare alcuna misura per conformare la propria attività al Regolamento ed anzi elidendo dalla propria privacy policy ogni riferimento ad esso dal marzo 2021.

Ancora, hanno rilevato la negazione da parte di Clearview AI della giurisdizione europea e italiana e la conseguente rivendicazione dell'inapplicabilità del Regolamento e della legittimità del trattamento.

Un altro elemento ha giocato un ruolo chiave nella determinazione della sanzione: "la posizione dei legislatori europeo e italiano a proposito dell'illegittimità del trattamento di dati biometrici per finalità di riconoscimento facciale che concreti una sorveglianza di massa". Vediamo di cosa si tratta.

La normativa europea in materia di intelligenza artificiale

Nel suo provvedimento, il Garante menziona espressamente quanto previsto dal legislatore italiano nel D.l. 8 ottobre 2021, n. 139 , convertito con modificazioni dalla L. 3 dicembre 2021, n. 205, il c.d. "Decreto Capienze".

L'art. 9 del Decreto ha previsto che l'installazione e l'utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale operanti attraverso l'uso dei dati biometrici in luoghi pubblici o aperti al pubblico, da parte delle autorità pubbliche o di soggetti privati, siano sospese fino all'entrata in vigore di una disciplina legislativa e comunque non oltre il 31 dicembre 2023, fatta eccezione per i trattamenti effettuati dalle autorità competenti ai fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali in presenza di parere favorevole del Garante.

Ma l'Autorità ha altresì fatto riferimento alla risoluzione del Parlamento europeo in tema di intelligenza artificiale nel diritto penale dell'ottobre 2021.

Nella risoluzione, il Parlamento europeo ha proposto l'introduzione di un divieto permanente di utilizzo dei sistemi di analisi o riconoscimento automatici negli spazi pubblici del volto e di altre caratteristiche umane, quali l'andatura, le impronte digitali, il DNA o la voce.

Ancora, il Parlamento ha richiesto che la diffusione dei sistemi di riconoscimento facciale da parte delle autorità di contrasto sia limitata a finalità chiaramente giustificate, nel pieno rispetto dei principi di proporzionalità e necessità.

Il quadro europeo in materia di intelligenza artificiale si compone di un tassello ulteriore, non menzionato dal Garante, ma pure rilevante in materia di sistemi di identificazione biometrica.

Si tratta della proposta di Regolamento "che stabilisce regole armonizzate sull'intelligenza artificiale" presentata dalla Commissione europea il 21 aprile 2021, il c.d. "Ai Act".

La proposta include tra i sistemi di intelligenza artificiale vietati i sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico impiegati a fini di attività di contrasto, a meno che il loro impiego non sia strettamente necessario per determinate finalità, come, ad esempio, la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi, o la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico.

Gli strumenti di identificazione biometrica "in tempo reale" sono poi inclusi tra i sistemi di intelligenza artificiale ad alto rischio, unitamente ai sistemi di identificazione biometrica "a posteriori". Come tali, la proposta di Regolamento li sottopone a numerosi requisiti obbligatori e ad una valutazione di conformità preventiva.

L'apparato normativo europeo in materia di intelligenza artificiale, pur costituendo un cantiere aperto, pare dunque aver già cominciato a dispiegare alcuni effetti, anche oltreoceano.

Certo, per quanto riguarda Clearview AI, non si è giunti ad una conclusione divisiva: non solo i Garanti europei, ma le Autorità di controllo di vari Paesi del Mondo si sono attivate contro la piattaforma. La questione è controversa anche negli Stati Uniti, dove la società è stata citata in giudizio dinnanzi a giudici statali e federali e l'utilizzo della piattaforma è stato apertamente condannato da alcuni membri del Congresso.

In generale, però, è utile tenere presente che anche il Regolamento in materia di intelligenza artificiale, al pari del Regolamento in materia di protezione dei dati personali, sembra destinato ad avere un ampio ambito di applicazione territoriale.

Secondo la proposta della Commissione, infatti, il Regolamento si applicherà a chi immetta sul mercato o metta in servizio sistemi di intelligenza artificiale nell'Unione, indipendentemente dal fatto che sia stabilito nell'Unione o in un Paese terzo.

*a cura dela Dr.ssa Giorgia Bianchini, DigitalMediaLaws


Per saperne di piùRiproduzione riservata ©