l'AGI è sicura secondo DeepMind: il paper che lo dimostra

La visione di DeepMind sulla sicurezza dell'AGI suscita scetticismo, nonostante un paper di ben 145 pagine dimostri che è sicura.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale

L'intelligenza artificiale generale (AGI) potrebbe diventare realtà entro la fine di questo decennio, aprendo scenari tanto promettenti quanto potenzialmente catastrofici per l'umanità. È quanto emerge dal documento di 145 pagine pubblicato da Google DeepMind, in cui il colosso delinea la propria strategia di sicurezza per affrontare l'avvento di sistemi AI capaci di eguagliare o superare le abilità umane in una vasta gamma di compiti non fisici. Il rapporto, co-firmato dal cofondatore di DeepMind Shane Legg, rappresenta un contributo importante al dibattito sulla sicurezza dell'AI, in un momento in cui le principali realtà del settore adottano posizioni contrastanti su tempistiche e rischi associati all'avvento dell'AGI.

Secondo gli autori del documento, entro il 2030 potremmo assistere allo sviluppo di quella che definiscono "Exceptional AGI", un sistema con capacità pari almeno al 99° percentile degli adulti qualificati in una vasta gamma di compiti, inclusi quelli metacognitivi come l'apprendimento di nuove competenze. Questa previsione si colloca in una posizione intermedia rispetto a quelle di altri laboratori: meno allarmista di Anthropic, che avverte di pericoli imminenti, ma più cauta di OpenAI, che ha recentemente spostato il proprio obiettivo dall'AGI alla superintelligenza artificiale.

Il documento di DeepMind evidenzia differenze sostanziali nell'approccio alla mitigazione dei rischi dell'AGI rispetto ai concorrenti. Gli autori criticano Anthropic per la scarsa enfasi su "addestramento robusto, monitoraggio e sicurezza", mentre contestano a OpenAI l'eccessivo ottimismo sull'automazione della ricerca sulla sicurezza dell'AI, nota come alignment research. DeepMind mette anche in dubbio la possibilità di sviluppare a breve termine superintelligenze artificiali, ritenendo improbabile che emergano senza "significative innovazioni architetturali".

Ciò che invece gli esperti di DeepMind considerano plausibile è l'emergere di un "miglioramento ricorsivo dell'AI": un circolo virtuoso in cui i sistemi di intelligenza artificiale conducono autonomamente ricerche per creare versioni più sofisticate di sé stessi. È proprio questo scenario ad essere identificato come potenzialmente pericoloso, soprattutto in assenza di adeguate misure di sicurezza.

Pexels
machine learning

L'approccio di Google DeepMind si articola su tre direttrici principali: impedire ai malintenzionati l'accesso all'AGI, migliorare la comprensione delle azioni dei sistemi AI e rafforzare gli ambienti in cui l'intelligenza artificiale può operare. Gli autori riconoscono che molte delle tecniche proposte sono ancora in fase embrionale e presentano "problemi di ricerca aperti", ma ammoniscono contro il pericolo di ignorare le sfide di sicurezza all'orizzonte.

Tuttavia, non tutti gli esperti concordano con le premesse del documento. Heidy Khlaaf, chief AI scientist presso il nonprofit AI Now Institute, sostiene che il concetto stesso di AGI sia troppo mal definito per essere "valutato scientificamente in modo rigoroso". Matthew Guzdial, professore associato all'Università dell'Alberta, esprime scetticismo sulla possibilità di un miglioramento ricorsivo dell'AI nelle attuali condizioni tecnologiche, sottolineando come non esistano evidenze concrete a supporto di questa teoria.

Sandra Wachter, ricercatrice che studia tecnologia e regolamentazione a Oxford, sposta l'attenzione su preoccupazioni più immediate e concrete: l'AI che si autorinforza con "output inaccurati". Con la proliferazione di contenuti generati su internet i modelli stanno iniziando ad apprendere dai propri output, spesso contenenti informazioni false o "allucinazioni". Questo rappresenta un rischio concreto per gli utenti che utilizzano i chatbot principalmente per ricercare informazioni, dato che possono essere indotti a credere a falsità presentate in modo convincente.

Nonostante la sua esaustività, il documento di Google DeepMind difficilmente risolverà i dibattiti sulla fattibilità dell'AGI e sulle priorità in materia di sicurezza dell'intelligenza artificiale. La pubblicazione evidenzia tuttavia un crescente interesse da parte delle principali aziende nel confrontarsi pubblicamente sui rischi associati alle tecnologie più avanzate, riconoscendo le proprie responsabilità nel guidare uno sviluppo sicuro dell'IA.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.