ChatGPT viene sfruttado da Cinesi e Iraniani per condurre attacchi informatici

OpenAI ha confermato che ChatGPT è stato utilizzato per condurre oltre 20 attacchi informatici che coinvolgono gruppi cinesi e iraniani.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

OpenAI ha confermato che ChatGPT è stato utilizzato per condurre oltre 20 attacchi informatici. Il rapporto rivela che l'intelligenza artificiale generativa è stata impiegata per eseguire attacchi di phishing mirati, sviluppare malware e svolgere altre attività dannose.

L'utilizzo di ChatGPT per scopi malevoli solleva serie preoccupazioni sulla sicurezza dell'IA generativa. Nonostante non siano state create nuove tipologie di malware, il report dimostra come sia relativamente semplice per i criminali informatici sfruttare questi sistemi per sviluppare strumenti d'attacco.

Pur non volendo, ChatGPT ha facilitato la creazione di strumenti d'attacco informatico.

Tra gli attacchi confermati, uno ha coinvolto un gruppo di cyber-criminali cinesi che hanno preso di mira alcuni governi asiatici utilizzando un metodo di phishing chiamato "SweetSpecter".

Un altro gruppo iraniano, "CyberAv3ngers", ha sfruttato ChatGPT per rubare password da PC Mac. Un terzo attacco, sempre di origine iraniana, ha portato allo sviluppo di malware per Android in grado di sottrarre dati sensibili dai dispositivi infetti.

OpenAI ha dichiarato che continuerà a migliorare i propri sistemi di sicurezza per prevenire tali abusi, collaborando con team interni ed esterni. L'azienda condividerà inoltre le proprie scoperte con la comunità di ricerca per contrastare queste minacce.

Questo scenario evidenzia la necessità di implementare maggiori limitazioni e controlli sui sistemi di IA generativa. Le aziende del settore dovranno rafforzare le misure preventive, anziché concentrarsi solo sulla risoluzione dei problemi una volta emersi.

Gli esperti sottolineano come sia fondamentale che tutti i principali attori nel campo dell'IA adottino robuste protezioni contro potenziali abusi delle loro piattaforme.

Tuttavia, data la complessità della sfida, sarà necessario un approccio proattivo e collaborativo tra aziende, ricercatori e autorità per garantire un utilizzo sicuro ed etico dell'intelligenza artificiale.

L'incidente solleva interrogativi più ampi sul futuro dell'IA e su come bilanciare il suo potenziale innovativo con i rischi per la sicurezza. Sarà cruciale trovare il giusto equilibrio tra apertura e controllo nello sviluppo di queste tecnologie sempre più potenti e pervasive.

Leggi altri articoli