Solo lo 0,1% delle persone riconosce i Deepfake: quasi nessuno distingue l'IA dalla realtà

iProov lancia un quiz gratuito per distinguere volti reali da quelli generati dall'intelligenza artificiale. I risultati sono impietosi.

Avatar di Luca Zaninello

a cura di Luca Zaninello

Managing Editor

2

L'intelligenza artificiale sta avanzando a passi da gigante, e con essa, purtroppo, anche le sue potenziali applicazioni malevole. Un recente studio condotto da iProov, azienda specializzata in identità biometrica, getta una luce inquietante sulla nostra capacità, o meglio, incapacità di discernere il vero dal falso nell'era digitale. I risultati sono a dir poco allarmanti: solo una persona su mille, un misero 0,1%, è riuscita a identificare correttamente tutti i deepfake presentati durante un test condotto su un campione di 2.000 consumatori tra Stati Uniti e Regno Unito.

Questo dato, di per sé sconcertante, solleva interrogativi cruciali sulla nostra vulnerabilità di fronte a una tecnologia che, se usata impropriamente, può minare la fiducia nelle informazioni che riceviamo e, in ultima analisi, nella realtà stessa. I deepfake, per chi non avesse familiarità con il termine, sono immagini o video manipolati ad arte grazie all'intelligenza artificiale. Il risultato? Contenuti falsi, ma talmente realistici da trarre in inganno l'occhio umano, e spesso anche quello più esperto.

La ricerca di iProov, che si è tradotta in un quiz online accessibile a tutti, ha svelato una realtà preoccupante. Non solo la stragrande maggioranza delle persone fatica a riconoscere queste falsificazioni digitali, ma molti non sono nemmeno a conoscenza della loro esistenza. Un quinto degli intervistati, infatti, ha ammesso candidamente di non aver mai sentito parlare di deepfake prima di partecipare allo studio. Un dato che evidenzia una lacuna informativa importante, soprattutto considerando la rapidità con cui questa tecnologia si sta diffondendo.

E anche tra coloro che si ritengono "informati" sui deepfake, la situazione non è rosea. La maggior parte di loro, infatti, ha fallito miseramente il test, dimostrando una scarsa capacità di distinguere un volto o una voce generati artificialmente da uno autentico. Ciò che sorprende, e preoccupa, è l'eccessiva fiducia che molti partecipanti hanno dimostrato nelle proprie capacità di individuare i falsi. Ben il 60% si è detto convinto di saper riconoscere un deepfake, una percentuale che stride nettamente con i risultati deludenti ottenuti. Questa falsa sicurezza, particolarmente diffusa tra i giovani adulti, potrebbe renderli ancora più vulnerabili a manipolazioni e truffe online.

Lo studio ha inoltre evidenziato una maggiore vulnerabilità tra le generazioni più anziane. Una fetta significativa degli over 55, e in particolare degli over 65, non ha familiarità con il concetto stesso di deepfake, rendendoli un bersaglio facile per chiunque voglia sfruttare questa tecnologia per scopi illeciti. Un altro aspetto interessante emerso dalla ricerca riguarda la difficoltà di distinguere i video deepfake rispetto alle immagini statiche. I video, infatti, risultano essere ancora più insidiosi, probabilmente a causa della maggiore complessità e del coinvolgimento di più elementi (voce, movimento, espressioni facciali) che rendono la manipolazione meno evidente.

Ma cosa fanno le persone quando si imbattono in un contenuto che sospettano essere un deepfake? Purtroppo, la risposta non è incoraggiante. Molti ammettono di non fare nulla, o di non sapere come comportarsi. Solo una piccola percentuale cerca attivamente fonti alternative per verificare l'autenticità dell'informazione, e ancora meno si preoccupano di analizzare a fondo la fonte e il contesto del contenuto. Un quadro che denota una certa passività e una mancanza di strumenti adeguati per affrontare questa nuova sfida.

Andrew B., fondatore e CEO di iProov, non usa mezzi termini per descrivere la situazione:

"I criminali stanno sfruttando l'incapacità dei consumatori di distinguere il reale dal falso, mettendo a rischio la nostra sicurezza". 

Le implicazioni di questa vulnerabilità sono molteplici e potenzialmente devastanti. Si va dalle frodi finanziarie, in cui un deepfake potrebbe essere utilizzato per impersonare un dirigente e autorizzare transazioni illecite, alla disinformazione su larga scala, con video falsi di politici che potrebbero influenzare l'opinione pubblica e persino l'esito di elezioni. Senza contare i danni alla reputazione che un deepfake ben congegnato può causare a individui e aziende, o i casi di estorsione e cyberbullismo che potrebbero derivarne.

Di fronte a una minaccia così concreta e pervasiva, iProov chiama in causa le aziende tecnologiche, sottolineando la loro responsabilità nel proteggere gli utenti. Non si tratta solo di sviluppare sistemi di autenticazione più sofisticati, come il riconoscimento facciale o la scansione dell'iride, ma anche di investire in strumenti di rilevamento dei deepfake e, soprattutto, in campagne di educazione e sensibilizzazione. È fondamentale che il pubblico sia informato sui rischi di questa tecnologia e che impari a riconoscerla e a segnalarla.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

2 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Si ma non perché è brava la AI, non distinguono manco i fotomontaggi fatti male con paint.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Si ma non perché è brava la AI, non distinguono manco i fotomontaggi fatti male con paint.
e quindi? non è che uno di 65 anni oggi si sveglia e inizia a studiare come distinguere i deepfake dai non deepfake, che pretendi? Se succede ai tuoi genitori che fai? E comunque, tu invece fai parte dello 0,1% giusto?
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

solo una persona su mille, un misero 0,1%, è riuscita a identificare correttamente tutti i deepfake.

Quanti sono "tutti"?
No, perchè se devo valutare 5/10/20/100/200 immagini, non è impossibile che solo una piccola percentuale indovini "tutti" i deepfake.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.