L'AI di Microsoft trasformata in uno strumento di phishing

Una ricerca ha rivelato vulnerabilità nell'IA Copilot: risposte manipolabili, dati estraibili e protezioni aggirabili, minando la sicurezza del sistema.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

Microsoft Copilot, il sistema di intelligenza artificiale integrato nelle applicazioni Microsoft 365, è vulnerabile a diverse forme di attacco informatico che potrebbero compromettere la sicurezza dei dati aziendali.

La scoperta è stata presentata oggi alla conferenza Black Hat di Las Vegas dal ricercatore Michael Bargury, che ha dimostrato cinque potenziali metodi di manipolazione del sistema AI.

Ogni volta che si dà all'AI accesso ai dati, si crea un potenziale punto d'ingresso per un cyber criminale.

Questi attacchi sfruttano le funzionalità di Copilot per accedere e elaborare dati aziendali, trasformandole in strumenti per estrarre informazioni sensibili o diffondere contenuti malevoli. La ricerca evidenzia i rischi legati all'integrazione di sistemi AI con dati aziendali, specialmente quando vengono introdotti dati esterni non verificati.

Uno degli scenari più preoccupanti presentati da Bargury è la possibilità di trasformare Copilot in una macchina automatica per lo spear-phishing. Un attaccante che abbia già accesso a un account email aziendale potrebbe sfruttare l'AI per:

  • Analizzare i contatti frequenti dell'utente
  • Generare email personalizzate imitando lo stile di scrittura della vittima
  • Inviare massivamente messaggi contenenti link o allegati malevoli

"Posso farlo con chiunque tu abbia mai contattato, e posso inviare centinaia di email a tuo nome", afferma Bargury. "Un hacker impiegherebbe giorni per creare l'email giusta per indurti a cliccare, ma ora può generarne centinaia in pochi minuti."

Microsoft
Copilot

Altre tecniche dimostrate da Bargury includono:

  • Eludere le protezioni Microsoft per accedere a file sensibili come i dati sugli stipendi
  • Manipolare le risposte dell'AI su informazioni bancarie per fornire dettagli falsi
  • Ottenere indizi su prossime comunicazioni finanziarie aziendali
  • Trasformare Copilot in un "insider malevolo" che fornisce link a siti di phishing

Questi attacchi sfruttano il modo in cui l'AI è progettata per rispondere a domande scritte accedendo ai dati disponibili. Inserendo istruzioni aggiuntive nelle richieste, è possibile indurre il sistema a produrre risultati potenzialmente dannosi.

Phillip Misner, responsabile della risposta agli incidenti AI di Microsoft, ha dichiarato: 

Apprezziamo l'identificazione della vulnerabilità da parte di Bargury e stiamo lavorando con lui per valutare i risultati. I rischi di abuso post-compromissione dell'AI sono simili ad altre tecniche post-compromissione. La prevenzione e il monitoraggio della sicurezza in tutti gli ambienti e le identità aiutano a mitigare o fermare tali comportamenti.

La ricerca di Bargury evidenzia la necessità di maggiore attenzione su come l'AI interagisce con l'ambiente aziendale, e i dati a esso associati, e su come esegue operazioni per conto degli utenti. È fondamentale monitorare attentamente ciò che l'AI produce e invia agli utenti, assicurandosi che corrisponda effettivamente alle richieste legittime.

Johann Rehberger, esperto di sicurezza, sottolinea come questi rischi si sommino a problemi preesistenti di gestione degli accessi nelle aziende: "Immaginate di mettere Copilot sopra a quel problema". Rehberger afferma di aver utilizzato sistemi AI per cercare password comuni come "Password123", ottenendo risultati dall'interno delle aziende.

La crescente integrazione di sistemi AI generativi come Copilot, ChatGPT e Gemini nelle attività lavorative quotidiane richiede quindi un approccio alla sicurezza più sofisticato, che tenga conto delle nuove vulnerabilità introdotte da queste tecnologie.

Leggi altri articoli