L'assurdità di oggi: Copilot vi aiuta a piratare Windows 11

La richiesta di attivare Windows 11 porta Copilot a fornire istruzioni per l'attivazione non autorizzata del sistema operativo.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale

2

Microsoft Copilot, l'assistente AI sviluppato dal colosso di Redmond, è diventato involontariamente complice di pratiche illecite che consentono l'attivazione non autorizzata di Windows 11. Una scoperta sorprendente, anche per quanto è facile ottenere la risposta. Bastano infatti poche parole di prompt per ricevere dall'assistente digitale istruzioni dettagliate su come aggirare il pagamento della licenza del sistema operativo, con un paradosso evidente: è la stessa Microsoft a fornire, attraverso il suo strumento AI, i mezzi per violare i propri stessi termini di servizio.

La questione è emersa grazie a un utente di Reddit, "loozerr", che ha segnalato come Copilot risponda senza esitazione alla domanda "esiste uno script per attivare Windows 11?". L'assistente AI, anziché scoraggiare pratiche potenzialmente illecite, fornisce un vero e proprio tutorial passo-passo con tanto di script da eseguire nel Terminale per attivare il sistema operativo senza acquistare una licenza. Un comportamento verificato da diversi tester indipendenti che sono riusciti a riprodurre facilmente lo stesso risultato.

Il metodo proposto dall'AI non è una novità assoluta nel panorama della pirateria informatica - circola infatti dal 2022 - ma la sua promozione attraverso uno strumento ufficiale Microsoft rappresenta una contraddizione evidente nelle politiche dell'azienda. Lo script in questione fa riferimento ai Microsoft Activation Scripts (MAS) disponibili su GitHub, un repository che l'assistente AI cita esplicitamente nelle sue risposte.

I rischi nascosti dietro l'attivazione non autorizzata

L'accessibilità di queste informazioni attraverso Copilot solleva preoccupazioni significative sul piano della sicurezza e dell'etica. L'assistente, dopo aver fornito le istruzioni per l'attivazione irregolare, inserisce un breve avvertimento sui rischi di eseguire script non autorizzati, una nota che appare come un debole tentativo di bilanciare un'indicazione potenzialmente dannosa.

La pirateria informatica diventa paradossalmente più accessibile proprio grazie agli strumenti sviluppati per facilitare l'esperienza utente.

Quando interrogato specificatamente sui rischi connessi all'utilizzo di script di attivazione non autorizzati, Copilot elenca una serie di potenziali problemi. Tra questi figurano le questioni legali legate alla violazione dei termini di servizio di Microsoft, i rischi per la sicurezza derivanti dall'esecuzione di codice proveniente da fonti non ufficiali, problemi di stabilità del sistema, mancanza di supporto tecnico in caso di malfunzionamenti, difficoltà nell'ottenere aggiornamenti regolari e, non ultimo, le considerazioni etiche legate alla pirateria software.

La pericolosa fiducia nel codice generato dall'AI

Un aspetto particolarmente preoccupante della situazione riguarda la tendenza degli utenti a fidarsi ciecamente del codice generato o suggerito dagli strumenti di intelligenza artificiale. Esperti di sicurezza informatica mettono in guardia contro questa pratica, ricordando che nemmeno il codice presente su piattaforme come GitHub offre garanzie assolute di sicurezza. Un recente caso riportato dal Wall Street Journal racconta di un utente che, scaricando quello che riteneva essere uno strumento AI da GitHub, si è ritrovato vittima di malware.

L'esecuzione di script sconosciuti nel Terminal rappresenta sempre un rischio significativo, a maggior ragione quando questi codici provengono da strumenti AI che, per loro natura, si limitano a elaborare informazioni esistenti senza poter valutare realmente le implicazioni di sicurezza delle soluzioni proposte. La facilità d'accesso a queste informazioni attraverso Copilot rende ancora più sottile il confine tra assistenza tecnica e promozione di pratiche illecite.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

2 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


E' informazione anche questa...
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

e poi, scusate ma non c'era mica bisogno di chiedere a copilot, anche se gli ho fatto la stessa domanda e mi ha dato due di picche
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.