OpenAI è stata hackerata nel 2023 ma non lo hai mai detto al pubblico

i pirati informatici hanno fatto crollare ogni percezione di sicurezza attorno all'ultimo codice dell'intelligenza artificiale

Avatar di Marco Silvestri

a cura di Marco Silvestri

Editor

All'inizio del 2023, un hacker ha violato i sistemi di messaggistica interna di OpenAI rubando dettagli sul funzionamento delle tecnologie dell'azienda dalle chat dei dipendenti. Sebbene il malintenzionato non abbia avuto accesso ai sistemi che ospitano le tecnologie chiave dell'IA, come riportato dal New York Times, l'incidente ha sollevato importanti preoccupazioni all'interno dell'azienda, oltre tra i membri del Governo degli Stati Uniti.

La violazione è avvenutanel contesto di un forum online dove i dipendenti discutevano delle ultime tecnologie di OpenAI. Anche se i sistemi di OpenAI, dove vengono conservati i dati di addestramento, gli algoritmi, i risultati e i dati dei clienti, non sono stati compromessi, alcune informazioni sensibili sono state esposte. Ad aprile 2023, i dirigenti di OpenAI hanno comunicato l'incidente ai dipendenti e al consiglio di amministrazione, ma hanno scelto di non renderlo pubblico. In seguito, hanno motivato la loro decisione affermando che nessun dato di clienti o partner è stato sottratto e che, con tutta probabilità, l'hacker era un individuo che operava in solitaria, senza legami governativi.

Pixabay
intelligenza artificiale

Quanto accaduto ha suscitato dubbi concreti sulla sicurezza dei dati dell'azienda. Leopold Aschenbrenner, un responsabile del programma tecnico di OpenAI, ha criticato le misure di sicurezza ritenendole inadeguate per impedire ai nemici stranieri di accedere a informazioni sensibili. Successivamente, Aschenbrenner è stato licenziato per aver rivelato informazioni, un'azione che egli sostiene essere stata politicamente motivata. Nonostante le sue affermazioni, OpenAI sostiene che il suo licenziamento non è stato legato alle sue preoccupazioni sulla sicurezza. L'azienda ha riconosciuto i suoi contributi, ma ha contestato la sua valutazione delle pratiche di sicurezza.

L'incidente ha acutizzato le paure riguardo ai potenziali collegamenti con i competitor stranieri, in particolare la Cina. Tuttavia, OpenAI ritiene che le sue attuali tecnologie non rappresentino una minaccia significativa per la sicurezza nazionale. Ciononostante, è possibile che la divulgazione di tali informazioni agli specialisti cinesi potrebbe aiutarli a progredire più rapidamente nelle loro tecnologie AI.

In risposta all'incidente, dopo averne negato la fallacia, OpenAI ha potenziato le sue misure di sicurezza. Per farlo ha aggiunto dei cosiddetti guardrail in modo da prevenire l'uso improprio delle applicazioni IA Inoltre, OpenAI ha istituito un Comitato per la Sicurezza e la Protezione, che include l'ex capo della NSA Paul Nakasone, per affrontare i rischi futuri.

I rischi dell'open source

Altre aziende, tra cui Meta, stanno rendendo open source i loro progetti IA per favorire miglioramenti a livello industriale. Tuttavia, questo rende le tecnologie accessibili anche ai competitor come la Cina. Tuttavia, studi condotti da OpenAI, Anthropic e altri indicano che i sistemi IA attuali non sono più pericolosi dei motori di ricerca.

Si stanno valutando regolamenti federali e statali per controllare il rilascio delle tecnologie IA e imporre sanzioni adeguate. Tuttavia, questo sembra più una precauzione poiché gli esperti ritengono che i rischi più seri legati all’IA siano ancora lontani dal manifestarsi concretamente.

Nel frattempo, le ricerche cinesi nel campo dell'AI stanno avanzando rapidamente, potenzialmente superando i loro omologhi statunitensi. Questo rapido progresso ha spinto a richiedere controlli più rigidi sullo sviluppo dell'IA per mitigare i rischi futuri.

Leggi altri articoli