ChatGPT è stato utilizzato per creare malware di tipo polimorfico che elude le avanzate tecniche di rilevamento EDR. L'AI, nelle mani sbagliate, potrebbe creare gravi danni ad utenti ed aziende colpite da questo genere di attacco, sempre che non si corra ai ripari e si trovi un modo per difendersi.
I malware sono una grave minaccia per la sicurezza e la privacy degli utenti, possono rubare dati, danneggiare i file, criptare i sistemi, spiare le attività ed eseguire altre azioni dannose. Per proteggersi dalle minacce informatiche, spesso vengono impiegate tecniche come EDR (Endpoint Detection and Response), la quale monitora e analizza il comportamento delle applicazioni e dei processi su un dispositivo.
Tuttavia, gli strumenti EDR non sono perfetti. Possono non notare alcuni campioni di malware che utilizzano tecniche sofisticate per eludere il rilevamento, come la crittografia, l'offuscamento, il polimorfismo o il metamorfismo. Queste tecniche rendono il codice del malware difficile da leggere e analizzare, modificandone l'aspetto o la struttura senza intaccarne la funzionalità.
A marzo Jeff Sims, un ingegnere della sicurezza di HYAS InfoSec, ha pubblicato un white paper che illustra un progetto proof-of-concept chiamato BlackMamba. Questa applicazione è un tipo di keylogger polimorfico che invia richieste a ChatGPT utilizzando un'API ogni volta che viene eseguito.
"Utilizzando queste nuove tecniche, un attore delle minacce può combinare una serie di comportamenti tipicamente altamente rilevabili in una combinazione insolita ed eludere il rilevamento sfruttando l'incapacità del modello di riconoscerlo come modello dannoso", spiega Sims.
Un'altra azienda specializzata in sicurezza informatica, CyberArk, ha recentemente dimostrato la straordinaria capacità di ChatGPT nel creare malware polimorfico. L'exploit di questa tecnologia è stato presentato in un articolo del blog scritto da Eran Shimony e Omer Tsarfati. In tale pubblicazione, i due autori spiegano dettagliatamente come l'inserimento di codice tramite ChatGPT consenta di modificare gli script una volta attivati, eludendo così le più avanzate tecniche di rilevamento di comportamenti malevoli adottate attualmente.
Al momento, questi esempi sono da considerarsi solo come una dimostrazione teorica. Tuttavia, è auspicabile che questa consapevolezza porti a ulteriori sviluppi nei sistemi di sicurezza volti a prevenire i danni che un codice mutante di questo genere potrebbe causare in un contesto reale.