L'intelligenza artificiale sta avanzando a passi da gigante, e con essa, purtroppo, anche le sue potenziali applicazioni malevole. Un recente studio condotto da iProov, azienda specializzata in identità biometrica, getta una luce inquietante sulla nostra capacità, o meglio, incapacità di discernere il vero dal falso nell'era digitale. I risultati sono a dir poco allarmanti: solo una persona su mille, un misero 0,1%, è riuscita a identificare correttamente tutti i deepfake presentati durante un test condotto su un campione di 2.000 consumatori tra Stati Uniti e Regno Unito.
Questo dato, di per sé sconcertante, solleva interrogativi cruciali sulla nostra vulnerabilità di fronte a una tecnologia che, se usata impropriamente, può minare la fiducia nelle informazioni che riceviamo e, in ultima analisi, nella realtà stessa. I deepfake, per chi non avesse familiarità con il termine, sono immagini o video manipolati ad arte grazie all'intelligenza artificiale. Il risultato? Contenuti falsi, ma talmente realistici da trarre in inganno l'occhio umano, e spesso anche quello più esperto.
La ricerca di iProov, che si è tradotta in un quiz online accessibile a tutti, ha svelato una realtà preoccupante. Non solo la stragrande maggioranza delle persone fatica a riconoscere queste falsificazioni digitali, ma molti non sono nemmeno a conoscenza della loro esistenza. Un quinto degli intervistati, infatti, ha ammesso candidamente di non aver mai sentito parlare di deepfake prima di partecipare allo studio. Un dato che evidenzia una lacuna informativa importante, soprattutto considerando la rapidità con cui questa tecnologia si sta diffondendo.
E anche tra coloro che si ritengono "informati" sui deepfake, la situazione non è rosea. La maggior parte di loro, infatti, ha fallito miseramente il test, dimostrando una scarsa capacità di distinguere un volto o una voce generati artificialmente da uno autentico. Ciò che sorprende, e preoccupa, è l'eccessiva fiducia che molti partecipanti hanno dimostrato nelle proprie capacità di individuare i falsi. Ben il 60% si è detto convinto di saper riconoscere un deepfake, una percentuale che stride nettamente con i risultati deludenti ottenuti. Questa falsa sicurezza, particolarmente diffusa tra i giovani adulti, potrebbe renderli ancora più vulnerabili a manipolazioni e truffe online.
Deepfakes Are Everywhere—Can You Spot Them?
— iProov (@iProov) February 18, 2025
Deepfakes are taking over the internet, and most people have no idea they’re being fooled. Are you ahead of the trend? Find out if you’re in the elite group that can spot AI-generated fakes.
👉 Take the Quiz: https://t.co/97YGV4OWi7 pic.twitter.com/rGRauriWxh
Lo studio ha inoltre evidenziato una maggiore vulnerabilità tra le generazioni più anziane. Una fetta significativa degli over 55, e in particolare degli over 65, non ha familiarità con il concetto stesso di deepfake, rendendoli un bersaglio facile per chiunque voglia sfruttare questa tecnologia per scopi illeciti. Un altro aspetto interessante emerso dalla ricerca riguarda la difficoltà di distinguere i video deepfake rispetto alle immagini statiche. I video, infatti, risultano essere ancora più insidiosi, probabilmente a causa della maggiore complessità e del coinvolgimento di più elementi (voce, movimento, espressioni facciali) che rendono la manipolazione meno evidente.
Ma cosa fanno le persone quando si imbattono in un contenuto che sospettano essere un deepfake? Purtroppo, la risposta non è incoraggiante. Molti ammettono di non fare nulla, o di non sapere come comportarsi. Solo una piccola percentuale cerca attivamente fonti alternative per verificare l'autenticità dell'informazione, e ancora meno si preoccupano di analizzare a fondo la fonte e il contesto del contenuto. Un quadro che denota una certa passività e una mancanza di strumenti adeguati per affrontare questa nuova sfida.
Andrew B., fondatore e CEO di iProov, non usa mezzi termini per descrivere la situazione:
"I criminali stanno sfruttando l'incapacità dei consumatori di distinguere il reale dal falso, mettendo a rischio la nostra sicurezza".
Le implicazioni di questa vulnerabilità sono molteplici e potenzialmente devastanti. Si va dalle frodi finanziarie, in cui un deepfake potrebbe essere utilizzato per impersonare un dirigente e autorizzare transazioni illecite, alla disinformazione su larga scala, con video falsi di politici che potrebbero influenzare l'opinione pubblica e persino l'esito di elezioni. Senza contare i danni alla reputazione che un deepfake ben congegnato può causare a individui e aziende, o i casi di estorsione e cyberbullismo che potrebbero derivarne.
Di fronte a una minaccia così concreta e pervasiva, iProov chiama in causa le aziende tecnologiche, sottolineando la loro responsabilità nel proteggere gli utenti. Non si tratta solo di sviluppare sistemi di autenticazione più sofisticati, come il riconoscimento facciale o la scansione dell'iride, ma anche di investire in strumenti di rilevamento dei deepfake e, soprattutto, in campagne di educazione e sensibilizzazione. È fondamentale che il pubblico sia informato sui rischi di questa tecnologia e che impari a riconoscerla e a segnalarla.
Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?