Dubbi sulla privacy di GenAI: Google (di nuovo) nel mirino dell'UE

Privacy a rischio? L'UE indaga su Google per verificare il rispetto delle leggi sulla protezione dei dati personali nel blocco europeo.

Avatar di Tommaso Marcoli

a cura di Tommaso Marcoli

Editor

L'autorità di controllo irlandese per la protezione dei dati ha avviato un'indagine su Google per verificare il rispetto del GDPR nell'uso dei dati personali per l'addestramento dell'intelligenza artificiale generativa. L'inchiesta riguarda in particolare la mancata esecuzione di una valutazione d'impatto sulla protezione dei dati.

L'indagine si concentra sull'utilizzo da parte di Google delle informazioni degli utenti europei per sviluppare il suo modello linguistico PaLM2, alla base di strumenti di AI come Gemini. La Commissione per la Protezione dei Dati irlandese (DPC) vuole accertare se l'azienda abbia valutato adeguatamente i rischi per i diritti e le libertà delle persone i cui dati sono stati impiegati nell'addestramento dei modelli di AI. Modelli che sono stati integrati anche nel nuovo Pixel 9, disponibile per l'acquisto su Amazon.

La questione è particolarmente rilevante considerando l'enorme quantità di dati necessari per addestrare i sistemi di AI generativa e la loro capacità di produrre informazioni plausibili ma false. Ciò solleva preoccupazioni sulla privacy e sulla tutela dei dati personali degli utenti europei.

L'indagine rientra negli sforzi più ampi delle autorità UE per regolamentare l'uso dei dati personali nello sviluppo dell'AI.

La DPC ha il potere di imporre sanzioni fino al 4% del fatturato globale annuo di Alphabet, la società madre di Google, in caso di violazioni accertate del GDPR. L'autorità irlandese sta collaborando con gli altri regolatori europei per definire come applicare al meglio la normativa sulla privacy agli strumenti di AI generativa.

Precedenti indagini su altre aziende tech

Google non è l'unica azienda tecnologica sotto esame per l'uso dei dati nell'AI. Anche OpenAI, Meta e X (ex Twitter) hanno affrontato indagini e reclami relativi alla conformità al GDPR dei loro modelli di linguaggio di grandi dimensioni:

  • OpenAI è stata oggetto di indagini per ChatGPT
  • Meta è stata esaminata per il suo modello Llama
  • X ha ricevuto reclami per l'uso dei dati degli utenti nell'addestramento di Grok

Questi casi evidenziano la crescente attenzione delle autorità di regolamentazione sull'impiego dei dati personali nello sviluppo dell'intelligenza artificiale, in particolare per quanto riguarda la trasparenza sulle fonti dei dati e il rispetto delle normative sulla privacy.

La risposta di Google

Google non ha fornito dettagli sulle fonti dei dati utilizzati per addestrare i suoi strumenti di AI generativa. Un portavoce dell'azienda ha dichiarato: "Prendiamo sul serio i nostri obblighi ai sensi del GDPR e collaboreremo in modo costruttivo con la DPC per rispondere alle loro domande."

L'indagine della DPC sottolinea l'importanza di bilanciare l'innovazione tecnologica con la protezione dei diritti fondamentali degli individui nell'era dell'intelligenza artificiale. Le aziende tech dovranno dimostrare di aver adottato misure adeguate per valutare e mitigare i rischi associati all'uso dei dati personali nell'addestramento dei modelli di AI.

Leggi altri articoli