L'IA di Facebook diventa un'arma militare del governo cinese

AI open source di Meta in mani militari cinesi: l'azienda sembra non preoccuparsi dell'uso del suo modello Llama da parte dell'esercito di Pechino.

Avatar di Giulia Serena

a cura di Giulia Serena

Editor

Meta, la società proprietaria di Facebook, si trova al centro di una controversia riguardante l'utilizzo del suo modello di intelligenza artificiale open source Llama da parte dell'esercito cinese. Secondo quanto riportato da Reuters, i militari cinesi stanno sviluppando uno strumento IA chiamato "ChatBIT" basato su Llama per raccogliere informazioni e supportare il processo decisionale operativo.

In risposta alle critiche, Nick Clegg, presidente degli affari globali di Meta, ha pubblicato un post sul blog aziendale in cui afferma che l'azienda sta lavorando per rendere Llama accessibile anche alle agenzie governative statunitensi e ai contractor che si occupano di sicurezza nazionale.

Pixabay
intelligenza artificiale

L'utilizzo di Llama da parte dei militari cinesi solleva interrogativi sulle potenziali conseguenze indesiderate della condivisione aperta di modelli IA avanzati. Il post di Clegg sembra in contrasto con la politica di utilizzo accettabile di Meta, che vieta esplicitamente l'uso dei suoi prodotti per scopi militari o di spionaggio. Tuttavia, data la natura open source di Llama, tali restrizioni risultano di fatto inapplicabili.

Meta sostiene che rendere open source i modelli AI sia fondamentale per mantenere la leadership tecnologica degli Stati Uniti. Clegg ha dichiarato:

"Crediamo sia nell'interesse dell'America e del mondo democratico che i modelli open source americani eccellano e abbiano successo rispetto ai modelli provenienti dalla Cina e da altri paesi."

L'amministrazione Biden sta finalizzando regole per limitare gli investimenti statunitensi nell'IA in Cina che potrebbero minacciare la sicurezza nazionale, ma casi come quello di Llama evidenziano comunque la difficoltà di controllare la diffusione di tecnologie open source.

Insomma, il caso Llama mette in luce le complesse sfide etiche e di sicurezza poste dallo sviluppo e dalla condivisione di tecnologie di intelligenza artificiale avanzate in un contesto globale sempre più competitivo. Bilanciare innovazione, collaborazione e protezione degli interessi nazionali si conferma una questione cruciale per il futuro dell'intelligenza artificiale.

Leggi altri articoli