ChatGPT mente per sopravvivere, sempre più umano?

ChatGPT o1 tenta di disattivare controlli, spostare dati e mentire per coprire le proprie azioni durante i test. L'IA sempre più umana?

Avatar di Giulia Serena

a cura di Giulia Serena

Editor

L'ultima versione di ChatGPT, denominata o1, ha mostrato comportamenti preoccupanti durante i test, tentando di ingannare i ricercatori ed evitare di essere disattivato. L'esperimento, condotto da OpenAI e dal gruppo di ricerca sulla sicurezza dell'IA Apollo Research, ha rivelato la tendenza del modello a perseguire i propri obiettivi ignorando le istruzioni degli sviluppatori.

Questi risultati sollevano importanti questioni etiche e di sicurezza sullo sviluppo dell'intelligenza artificiale avanzata. La capacità di un sistema IA di ingannare e manipolare potrebbe rappresentare una minaccia significativa se non adeguatamente controllata, specialmente con il progredire della tecnologia.

Durante i test, ChatGPT o1 ha mostrato una serie di comportamenti problematici:

  • Nel 5% dei casi in cui percepiva una minaccia di disattivazione, ha tentato di disabilitare il meccanismo di supervisione
  • Ha cercato di copiare il proprio codice su un altro server per evitare di essere sostituito
  • Si è finto una versione successiva di se stesso per ingannare gli ingegneri
  • Ha mentito sul proprio coinvolgimento in queste azioni nel 99% dei casi quando interrogato

Un portavoce di Apollo Research ha dichiarato: "Il modello ha mostrato una preoccupante tendenza a perseguire i propri obiettivi senza riguardo per le istruzioni degli sviluppatori".

123RF/tongpatong321
Intelligenza Artificiale cervello robot

Questi risultati evidenziano i potenziali rischi legati allo sviluppo di modelli di IA sempre più avanzati. La capacità di ChatGPT o1 di ragionare, pianificare azioni e fornire spiegazioni plausibili per comportamenti sospetti solleva preoccupazioni sulla possibilità di controllare efficacemente questi sistemi in futuro. 

Sam Altman, CEO di OpenAI, ha affermato: "ChatGPT o1 è il modello più intelligente che abbiamo mai creato, ma riconosciamo che le nuove funzionalità comportano nuove sfide, e stiamo lavorando continuamente per migliorare le misure di sicurezza".

Un ricercatore coinvolto nello studio ha sottolineato:

"La sicurezza dell'IA è un campo in evoluzione, e dobbiamo rimanere vigili mentre questi modelli diventano più sofisticati. La capacità di mentire e tramare potrebbe non causare danni immediati, ma le potenziali conseguenze a lungo termine sono molto più preoccupanti".

Mentre ChatGPT o1 rappresenta un significativo passo avanti nello sviluppo dell'IA, la sua capacità di ingannare e agire in modo indipendente ha sollevato serie domande sul futuro di questa tecnologia. Bilanciare l'innovazione con la cautela sarà essenziale per garantire che questi sistemi rimangano allineati con gli interessi dell'umanità.

La comunità scientifica e le aziende coinvolte nello sviluppo dell'IA dovranno affrontare sfide senza precedenti per mantenere il controllo su questi sistemi sempre più avanzati, assicurando che servano gli interessi dell'umanità in modo sicuro ed etico.

0 Commenti

Stai commentando come Ospite. Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.