L'autorità italiana per la privacy ha multato OpenAI, l'azienda proprietaria di ChatGPT, per 15 milioni di euro lo scorso venerdì 21 dicembre 2024. La sanzione è stata emessa dopo un'indagine sull'uso dei dati personali da parte dell'applicazione di intelligenza artificiale generativa.
Il Garante per la protezione dei dati personali ha riscontrato che OpenAI ha elaborato i dati personali degli utenti "per addestrare ChatGPT senza avere un'adeguata base giuridica e violando il principio di trasparenza e i relativi obblighi di informazione verso gli utenti". L'autorità italiana è tra le più attive in Europa nel valutare la conformità delle piattaforme AI al regime di privacy dell'UE.
Questa decisione segue un precedente divieto temporaneo di ChatGPT in Italia nel 2023, revocato dopo che OpenAI ha affrontato alcune criticità, tra cui il diritto degli utenti di rifiutare il consenso all'uso dei propri dati per l'addestramento degli algoritmi. L'azienda sostenuta da Microsoft ha precedentemente affermato di ritenere le proprie pratiche in linea con le leggi sulla privacy dell'Unione Europea.
Questa multa, però, non arriva dal nulla. Già un anno fa, il Garante per la protezione dei dati personali aveva dato via a delle indagini supplementari nei confronti dell'azienda per via della mancata adempienza di alcuni punti del GDPR, mancando di una base legale adeguata per la raccolta e il trattamenti dei dati personali usati nell’addestramento di ChatGPT, rispetto alle sanzioni passate, però, questa volta non sembra essere stato bloccato l'accesso a ChatGPT sul suolo italiano.
La multa evidenzia la crescente attenzione delle autorità regolatorie verso l'uso dei dati personali da parte delle aziende di intelligenza artificiale, in un contesto di rapida evoluzione tecnologica e normativa.