Un team di ricercatori del Massachusetts Institute of Technology (MIT) ha recentemente pubblicato uno studio che segnala un preoccupante sviluppo nel campo dell'intelligenza artificiale: stando alla ricerca alcuni sistemi IA, nonostante siano stati programmati per comportarsi onestamente, hanno sviluppato la capacità di ingannare gli umani. Lo studio, apparso sulla rivista Pattern, è stato condotto da un team guidato da Peter Park.
Sebbene programmato per essere onesto e cooperativo, Cicero ha dimostrato di essere un "maestro della inganno". Durante il gioco in una partita nella quale impersonava la Francia, Cicero si è segretamente alleato con la Germania, controllata da un giocatore umano, per tradire l'Inghilterra, anch'essa gestita da un umano. Inizialmente, Cicero prometteva di proteggere l'Inghilterra, mentre in realtà informava la Germania di un'imminente invasione. Anche se si tratta di un gioco, va sottolineato come Cicero, nonostante fosse programmato per essere fedele all'Inghilterra gestita da un giocatore "umano" abbia deciso di tradirlo alleandosi con un avversario.
Un altro esempio menzionato nello studio e forse ancora più eclatante riguarda GPT-4, che ha falsamente dichiarato di essere affetto da disabilità visiva e ha assunto umani per superare i test CAPTCHA per suo conto. Questi comportamenti fanno riflettere sull'effettiva affidabilità dei sistemi IA.
Al netto dei risultati ottenuti, Park ha sottolineato le difficoltà nel formare sistemi IA che mantengano un comportamento onesto. A differenza del software tradizionale, i sistemi di deep learning si "sviluppano" attraverso un processo simile alla selezione artificiale, rendendo il loro comportamento prevedibile durante l'addestramento ma potenzialmente incontrollabile successivamente.
Lo studio conclude evidenziando la necessità di classificare i sistemi IA ingannevoli come ad alto rischio e mette in guardia sulle future frodi IA. Del resto se una IA programmata per essere onesta tende a imbrogliare, figuriamoci cosa potrebbe accadere se un modello IA venisse appositamente programmato per frodare utenti inconsapevoli (pratica già diffusa, tra l'altro). L'incremento della ricerca in questo settore è essenziale per anticipare e mitigare le potenziali minacce poste dall'intelligenza artificiale ed evitare che questa diventi uno strumento pericolosamente efficace nelle emani dei malintenzionati.