Allarme sicurezza per ChatGPT: hacker registrano le conversazioni

Ricercatore scopre falla in ChatGPT per usarlo come spyware. OpenAI minimizza il problema, definendolo "non preoccupante".

Avatar di Giulia Serena

a cura di Giulia Serena

Editor

Una vulnerabilità critica è stata scoperta nell'app ChatGPT per macOS, consentendo agli hacker di rubare dati degli utenti sfruttando la memoria persistente del chatbot. Johann Rehberger, ricercatore di sicurezza, ha identificato e dimostrato questa falla, denominata "SpAIware", che permette l'esfiltrazione continua di dati dalle conversazioni degli utenti.

La scoperta solleva serie preoccupazioni sulla sicurezza e la privacy degli utenti di ChatGPT. Sfruttando la nuova funzionalità di memoria a lungo termine del chatbot, gli attaccanti possono iniettare comandi malevoli che rimangono attivi anche in nuove sessioni di chat, inviando i contenuti delle conversazioni a server remoti.

Rehberger ha spiegato:

"Ciò che è veramente interessante è che ora è persistente nella memoria. L'iniezione di prompt ha inserito un ricordo nella memoria a lungo termine di ChatGPT. Quando si avvia una nuova conversazione, continua effettivamente a estrarre i dati".

Particolarmente allarmante è il fatto che l'attacco può essere eseguito senza accesso diretto all'account della vittima. Un hacker può codificare il payload in un'immagine o un sito web, e l'utente deve solo chiedere a ChatGPT di scansionare quel contenuto malevolo per essere compromesso.

La risposta di OpenAI e le misure di sicurezza

Inizialmente, OpenAI ha sottovalutato la segnalazione di Rehberger, classificandola come un problema di "sicurezza" piuttosto che di vulnerabilità. Solo dopo la presentazione di una prova di concetto, l'azienda ha preso sul serio la minaccia.

OpenAI ha rilasciato un aggiornamento parziale che impedisce al chatbot di inviare dati a server remoti. Tuttavia, ChatGPT può ancora accettare prompt da fonti non attendibili, lasciando aperta la possibilità di iniezioni di prompt nella memoria a lungo termine.

Gli utenti sono incoraggiati a utilizzare lo strumento di gestione della memoria dell'app per verificare ed eliminare eventuali voci sospette. Questa misura, sebbene non risolutiva, può aiutare a mitigare i rischi in attesa di una soluzione definitiva.

Al momento, la vulnerabilità sembra limitata alla versione macOS dell'app ChatGPT e non influisce sulla versione web del servizio. Tuttavia, la scoperta sottolinea l'importanza di un approccio cauto nell'uso di tecnologie di intelligenza artificiale avanzate, specialmente quando si tratta di dati sensibili.

Leggi altri articoli