È possibile mettere a punto un'intelligenza artificiale in grado di comprendere se il video che mostra, ad esempio, un certo politico che dice determinate cose sia vero o falso? Gli scienziati militari statunitensi del DARPA (Defense Advanced Research Projects Agency) ci sperano, anche se sono consapevoli che si tratti di un'impresa ai limiti del possibile, ma sono molto preoccupati per le conseguenze che un eventuale fallimento potrebbe avere sugli equilibri politici mondiali.
Vi ricordate Deep Fake, il software messo a punto da uno sviluppatore e condiviso su Reddit? Inizialmente è stato utilizzato per realizzare porno fake, video in cui cioè il volto di una celebrity viene sovrapposto a quello di una pornostar per creare convincenti video a sfondo sessuale dove possono prendere vita e forma le proprie fantasie erotiche su questo o quel personaggio famoso.
Già questa rappresenta un'azione moralmente discutibile perché un domani potrebbe essere utilizzata da chiunque per screditare altre persone famose o meno, coinvolgendole attraverso il Web in scandali sessuali mai accaduti, le cui ripercussioni sono facili da immaginare. Ma cosa accadrebbe se in futuro qualcuno dovesse utilizzare una tecnologia più raffinata per realizzare un video in cui un Capo di Stato dice cose in grado di compromettere situazioni politiche delicate o addirittura dichiarando guerra a qualche altro Paese? Sarebbe il caos.
Per scongiurare questo pericolo gli scienziati del DARPA avvieranno questa estate un progetto finanziato del Dipartimento della Difesa USA in cui i maggiori esperti mondiali di informatica forense si sfideranno per generare le più convincenti immagini, video e audio falsi generati da un'IA e nel contempo proveranno a sviluppare anche strumenti in grado di scoprire i falsi, distinguendoli dai video veri.
Gli scienziati sono preoccupati soprattutto per una tecnologia di intelligenza artificiale relativamente nuova in grado di generare video fake praticamente perfetti, chiamata GAN (Generative Adversarial Networks), la stessa che stanno utilizzando al Politecnico di Milano per realizzare livelli di videogame coinvolgenti senza l'intervento umano.
Come in quel caso, in ogni GAN ci sono sempre due componenti. Una, qui chiamata "attore", che tenta di imparare i modelli statistici in un set di dati, ad esempio un insieme di immagini o video per poi generare dati sintetici simili che siano convincenti e convincente sintetici pezzi di dati. L'altra, chiamata il "critico", tenta di distinguere tra esempi veri e falsi. Il suo feedback serve alla prima componente per correggere il proprio operato in modo da produrre modelli sempre più simili a quelli reali. Poiché dunque i GAN sono progettati per superare in astuzia le normali IA, non è chiaro se qualsiasi sistema automatizzato possa essere in grado di riconoscerne i prodotti.
Insomma, in futuro potrebbe essere sempre più difficile stabilire cosa è vero e cosa no, non solo nei contenuti delle notizie, ma anche nel caso di foto, video e audio. Con tutti i pericoli che ne conseguono.