Blocco DeepSeek in Italia: il Garante alza il muro contro l’AI cinese

Il Garante Privacy italiano ha bloccato DeepSeek, avanzato modello di intelligenza artificiale cinese, per gravi dubbi sulla gestione dei dati personali. Il caso solleva interrogativi sul futuro della regolamentazione AI in Europa.

Avatar di Avv. Giuseppe Croari

a cura di Avv. Giuseppe Croari

avv.

Avv. Giuseppe Croari – Dott.ssa Ilenia Lanari

Negli ultimi giorni, il panorama dell’intelligenza artificiale ha assistito a un evento significativo: il blocco di DeepSeek da parte del Garante Privacy italiano. Il provvedimento, pubblicato il 30 gennaio 2024, ha imposto alle società cinesi Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence il divieto di trattare dati personali di utenti italiani. La motivazione? Mancanza di trasparenza, assenza di una base giuridica chiara e rischi legati alla sicurezza dei dati.

B2B Labs Essere un BRAVO PROGRAMMATORE non basta, ecco cos'altro serve (Piera Orlandi)
youtube play
Guarda su youtube logo

L’azione del Garante si inserisce in un contesto normativo in evoluzione, dove la regolamentazione dell’AI e la protezione dei dati personali diventano sempre più centrali. Il caso DeepSeek ricorda il blocco temporaneo imposto a ChatGPT nel 2023, confermando la crescente attenzione delle autorità europee su questi strumenti avanzati.

Perché il Garante ha bloccato DeepSeek? 

L’indagine del Garante ha avuto inizio il 28 gennaio 2024, quando l’Autorità ha richiesto informazioni alle società cinesi sulla gestione dei dati degli utenti italiani. I punti critici evidenziati sono stati molteplici:

  • Raccolta massiva di dati personali, senza un’adeguata informativa agli utenti.
  • Opacità nella finalità del trattamento e nella base giuridica su cui si fonda.
  • Collocazione incerta dei server, con possibili rischi di trasferimento dati fuori dall’UE senza adeguate garanzie.
  • Mancanza di trasparenza sui meccanismi di addestramento dell’AI e sul possibile utilizzo di dati sensibili.

Le risposte fornite dalle società cinesi sono state giudicate insufficienti e, soprattutto, in contrasto con quanto rilevato dall’Autorità. DeepSeek ha dichiarato di non operare in Italia e di non essere soggetta alla normativa europea, nonostante la disponibilità del suo chatbot per gli utenti italiani. Questo ha fatto scattare il provvedimento d’urgenza.

Il precedente di ChatGPT e il contesto normativo europeo

Non è la prima volta che il Garante italiano interviene contro un modello avanzato di intelligenza artificiale. Nel marzo 2023, un’azione simile è stata presa contro ChatGPT, che fu temporaneamente sospeso in Italia per mancanza di trasparenza e protezione dei dati dei minori.

Oggi, però, il contesto normativo è cambiato. Il Regolamento europeo sull’Intelligenza Artificiale (AI Act), approvato nel dicembre 2023, introduce obblighi stringenti per i fornitori di AI ad alto rischio, come la trasparenza nei dataset e la gestione responsabile delle informazioni personali.

Finché il regolamento non sarà pienamente operativo, la principale tutela per i cittadini europei resta il GDPR. L’intervento del Garante su DeepSeek dimostra come le autorità nazionali possano agire in modo autonomo e tempestivo per arginare le criticità di un sistema ancora poco regolato.

DeepSeek e il futuro dell’AI in Italia: scenari e conseguenze

DeepSeek e il futuro dell’AI in Italia: le conseguenze del blocco

La decisione del Garante non è un episodio isolato, ma un segnale chiaro dell’approccio italiano ed europeo alla regolamentazione dell’intelligenza artificiale. Le implicazioni di questa misura potrebbero riflettersi non solo sul mercato delle AI, ma anche sulle strategie dei fornitori di servizi digitali globali.

Uno dei principali effetti di questo intervento sarà un maggiore controllo sui modelli AI sviluppati fuori dall’UE. Il blocco di DeepSeek dimostra che le piattaforme basate su machine learning e gestione massiva dei dati non possono operare liberamente in Europa senza rispettare le normative sulla privacy e sulla trasparenza. Questo potrebbe rendere più difficile l’accesso di altre AI extraeuropee al mercato europeo, soprattutto se non adeguatamente conformi al GDPR e all’AI Act.

C’è però il rischio di una frammentazione normativa tra i paesi UE. Se ogni Stato membro decidesse autonomamente quali AI possono operare e con quali regole, si creerebbe un mercato disomogeneo, con aziende costrette a rispettare requisiti diversi in base al paese in cui vogliono operare. Questo potrebbe aumentare la complessità per gli sviluppatori di AI e per le imprese che intendono adottare questi strumenti.

Non è da escludere che DeepSeek possa avviare ricorsi legali contro la decisione del Garante, contestando la misura adottata o cercando di dimostrare la propria conformità alle normative europee. Un contenzioso di questo tipo potrebbe avere un effetto chiarificatore, definendo con maggiore precisione i limiti di operatività per le AI globali nel mercato UE.

Infine, il caso DeepSeek potrebbe innescare un effetto domino su altri modelli di intelligenza artificiale. Dopo il blocco temporaneo di ChatGPT nel 2023 e quello di DeepSeek oggi, è plausibile che il Garante Privacy italiano, così come altre autorità europee, aumenti la sorveglianza sulle AI di nuova generazione, imponendo ulteriori verifiche e restrizioni.

Il ruolo del Garante e il futuro della regolamentazione AI

L’intervento del Garante Privacy italiano rappresenta una svolta significativa nella regolamentazione delle intelligenze artificiali di provenienza extra-UE. Il blocco di DeepSeek evidenzia come la trasparenza e il rispetto delle norme sulla privacy siano requisiti imprescindibili per operare nel mercato europeo.

Mentre l’AI Act definirà nei prossimi mesi un quadro normativo più chiaro, il GDPR rimane lo strumento principale per proteggere gli utenti da trattamenti illeciti dei dati. L’azione italiana potrebbe essere seguita da altri paesi europei, con ripercussioni importanti sulle strategie dei big dell’AI.

Se sei un’azienda e necessiti di supporto nella gestione della conformità normativa in tema di intelligenza artificiale, il team dello Studio Legale FCLEX può fornirti consulenza specializzata in diritto dell’informatica e nuove tecnologie.

Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX, esperti di diritto dell’informatica e delle nuove tecnologie.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

1 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


La legge sulla privacy nata con buoni propositi (evitare che le assicurazioni trattassero i dati degli ammalati discriminando) sta diventando un delirio.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.