La tanto attesa funzionalità "Recall" di Microsoft, progettata per migliorare l'esperienza utente attraverso il controllo del desktop basata sull'intelligenza artificiale, è stata accolta con diffuse critiche e rinnovate preoccupazioni per la privacy in seguito al suo recente rilascio. Originariamente ritardata a causa delle iniziali reazioni negative sulle implicazioni per la privacy, Recall, che cattura periodicamente screenshot dell'attività dell'utente, è stata ora considerata un significativo rischio per la sicurezza da test indipendenti.
La funzionalità, intesa come meccanismo di perfezionamento per Copilot di Microsoft e il suo modello IA GPT-4o sottostante, promette di fornire agli utenti una cronologia completa della loro attività digitale. Tuttavia, recenti test condotti da Tom's Hardware rivelano critiche lacune nella capacità di Recall di filtrare informazioni sensibili, sollevando seri interrogativi sull'impegno di Microsoft per la privacy e la sicurezza dei dati degli utenti.
Recall funziona scattando screenshot del desktop dell'utente a brevi intervalli. Queste immagini vengono poi elaborate da un modello linguistico di grandi dimensioni presente sul dispositivo, che scansiona, memorizza e analizza le informazioni. Lo scopo previsto è fornire una cronologia ricercabile dell'attività dell'utente e migliorare le prestazioni di Copilot. Tuttavia, l'implementazione si è rivelata ben al di sotto delle aspettative.
Nonostante le assicurazioni di Microsoft che Recall include filtri progettati per impedire la cattura di dati sensibili, i test di Tom's Hardware hanno rivelato risultati allarmanti. Anche con il filtro abilitato, Recall ha catturato indiscriminatamente screenshot contenenti informazioni altamente sensibili, tra cui numeri di carta di credito, credenziali di accesso, numeri di previdenza sociale e altri identificatori personali.
I test hanno evidenziato specificamente vulnerabilità in applicazioni e scenari comuni. Recall ha catturato dati sensibili inseriti in Notepad, informazioni visualizzate in PDF aperti all'interno del browser Edge e dettagli inviati tramite moduli HTML che richiedono informazioni sulla carta di credito. Questa cattura indiscriminata di dati pone un sostanziale rischio di violazioni dei dati e furto di identità.
Mentre Recall ha dimostrato un certo livello di capacità di filtraggio sui negozi online, catturando screenshot solo prima o dopo l'inserimento dei dettagli della carta di credito, questa limitata funzionalità non fa che accrescere le preoccupazioni sulla sicurezza complessiva della funzione. Il fatto che Recall memorizzi tali informazioni sensibili, anche temporaneamente, allo scopo di addestrare modelli di IA è profondamente preoccupante per i sostenitori della privacy.
La nozione di un sistema "opt-out" per una funzionalità così potenzialmente invasiva ha anche attirato notevoli critiche. Molti sostengono che una funzionalità con tali significative implicazioni per la privacy dovrebbe essere rigorosamente "opt-in", richiedendo l'esplicito consenso dell'utente prima dell'attivazione. L'attuale implementazione pone l'onere sugli utenti di disabilitare attivamente la funzionalità, potenzialmente lasciandoli vulnerabili alla cattura di dati senza la loro piena consapevolezza.
Avram Piltch di Tom's Hardware ha affrontato direttamente queste preoccupazioni con Microsoft, mettendo in discussione l'apparente fallimento dei meccanismi di filtraggio di Recall. In risposta, Microsoft ha ribadito il suo impegno per la privacy degli utenti, affermando che Recall è stato aggiornato per rilevare informazioni sensibili come dettagli di carte di credito, password e numeri di identificazione personale.
L'azienda ha riconosciuto che lo sviluppo è in corso e ha incoraggiato gli utenti a contribuire al processo di miglioramento attraverso l'Hub di Feedback. Questa risposta, tuttavia, non ha fatto che placare la crescente inquietudine che circonda Recall. Il fatto che la funzionalità venga attivamente implementata nonostante le vulnerabilità note solleva seri interrogativi sulla priorità che Microsoft assegna alla privacy degli utenti.
Il suggerimento che gli utenti dovrebbero partecipare al processo di sviluppo diventando effettivamente beta tester per una funzionalità con una gestione di dati così sensibili è altrettanto problematico.
L'incidente ha riacceso il dibattito sull'equilibrio tra progresso tecnologico e privacy degli utenti. Mentre le funzionalità basate sull'IA come Recall offrono il potenziale per migliorare le esperienze utente, l'attuale implementazione dimostra una chiara mancanza di rispetto per i principi fondamentali della privacy. La cattura e la memorizzazione indiscriminata di informazioni sensibili, anche con l'intenzione dichiarata di migliorare i modelli di IA, è inaccettabile per molti utenti.