È passato quasi un anno da quando il Garante ha bloccato ChatGPT in Italia per raccolta illecita di dati personali e per la mancata verifica dell’età degli utenti. All’epoca, ChatGPT era tornato operativo dopo circa un mese, ma la vicenda non è per niente finita: nelle scorse ore, il Garante ha contestato a OpenAI la presunta violazione della normativa sulla protezione dei dati personali.
Secondo quanto emerso dall’indagine avviata dal garante lo scorso marzo 2023, OpenAI potrebbe aver violato diversi punti del GDPR, mancando di una base legale adeguata per la raccolta e il trattamenti dei dati personali usati nell’addestramento di ChatGPT.
Una delle violazioni più gravi sottolineate dal Garante riguarda nuovamente il sistema di verifica dell’età degli utenti che usano ChatGPT: nonostante il servizio sia riservato a persone di almeno 13 anni, come scritto nei termini d’uso pubblicati da OpenAI, secondo il GDPR l’autocertificazione dell’età tramite un click non è sufficiente. OpenAI doveva implementare un controllo adeguato entro settembre 2023, ma ad oggi non è ancora presente.
Giunti a questo punto, OpenAI ha 30 giorni di tempo per difendersi dalle accuse mosse dal Garante. Per venire incontro alle richieste delle autorità, l’azienda ha implementate un’ampia informativa sul trattamento dei dati, un modulo per esercitare il diritto di opposizione al trattamento dei dati e una schermata di benvenuto che rimanda alla nuova informativa sulla privacy, ma non è ancora abbastanza.
Nonostante gli sforzi di OpenAI, ci sono ancora evidenti mancanze che potrebbero mettere a rischio il servizio: oltre a una possibile multa, il Garante potrebbe decidere di bloccare nuovamente ChatGPT in Italia, esattamente come fatto a marzo 2023. Vista la sempre maggior diffusione del chatbot e il suo ruolo sempre più centrale nella vita di molti, potrebbe essere un duro colpo sia per OpenAI che per gli utenti, che si vedrebbero costretti a optare per alcune delle alternative sul mercato, valide ma non altrettanto efficaci.