Clonate voci di familiari per rubare denaro, il nuovo phishing

Un nuovo tipo di phishing sfrutta l'intelligenza artificiale per clonare la voce dei familiari e rubare denaro alle vittime.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Managing Editor

Il boom delle intelligenze artificiali e dei chatbot come ChatGPT ha portato diversi vantaggi, ma (come previsto) anche nuovi pericoli. I malintenzionati sfruttano l'IA per creare attacchi sempre più complessi e difficili da rilevare: è il caso di un nuovo tipo di phishing emerso negli ultimi mesi, che sfrutta il deepfake per clonare le voci di familiari, medici, avvocati e dirigenti e sottrarre denaro o informazioni riservate alle vittime.

La Federal Trade Commission degli Stati Uniti ha emesso un avvertimento sull'uso crescente di questa tecnica, che nel 202 ha portato alla perdita di circa 11 milioni di dollari. La FTC ha invitato le imprese (grandi e piccole, senza distinzione) a implementare ulteriori controlli di sicurezza, tra cui ad esempio l'approvazione scritta da parte di più dirigenti per transazioni superiori a una certa entità.

Anche l'FBI ha avvertito che i criminali stanno usando la tecnologia deepfake per creare "dipendenti" online per posizioni di lavoro remote, al fine di ottenere l'accesso alle informazioni aziendali. La tecnologia è già stata utilizzata in una truffa di trasferimento bancario di 35 milioni di dollari a Hong Kong, mentre nel Regno Unito è toccato a una società energetica a cui sono stati sottratti 250.000 dollari.

La tecnologia deepfake è stata usata negli ultimi anni per prendere di mira politici, celebrità e diverse personalità di spicco, come ad esempio Trump, Obama, Tom Cruise o Mark Zuckerberg; l'avvertimento diramato dalla FTC sottolinea però il potenziale della tecnologia contro i singoli e le imprese, che devono agire per proteggersi da questa nuova minaccia, che come abbiamo visto sta già mietendo le prime vittime. È fondamentale implementare controlli di sicurezza efficaci e applicarli nel modo giusto per mitigare il più possibile il rischio di cadere vittima di queste truffe, di fatto sempre più difficili da identificare.

Leggi altri articoli