Daniel Kokotajlo, ex ricercatore della governance in OpenAI, ha rilasciato dichiarazioni inquietanti in un'intervista al New York Times, sostenendo che la probabilità che l'intelligenza artificiale (IA) possa devastare o persino distruggere l'umanità è stimata attorno al 70 percento. Questo tasso di rischio, afferma l'ex dipendente, è inaccettabilmente alto per qualsiasi evento significativo nella vita, tuttavia OpenAI e simili continuano il loro cammino senza apparenti freni.
Le preoccupazioni di Kokotajlo emergono in un momento di tensione crescente all'interno dell'ambiente di sviluppo AI: egli sostiene che l'azienda si stia muovendo con imprudenza verso la creazione di un'intelligenza generale artificiale (AGI), spinta dall'entusiasmo per le sue potenzialità, trascurando i possibili pericoli catastrofici. Queste asserzioni fanno eco ai timori espressi in una lettera aperta firmata da altri ex e attuali dipendenti di OpenAI, nonché da personaggi di spicco del settore come Geoffrey Hinton, conosciuto come il "padrino dell'IA", che ha lasciato Google l'anno scorso per preoccupazioni simili.
La discussione su quello che in termini tecnici viene chiamato p(doom), o la probabilità che l'IA porti all'annientamento della razza umana, genera dibattiti infuocati. Nonostante ciò, OpenAI in una dichiarazione ha ribadito di essere orgogliosa del proprio percorso nell'offrire sistemi AI sicuri ed efficaci, e di credere fermamente nel proprio approccio scientifico per gestire i rischi.
Kokotajlo ha raccontato di aver incoraggiato personalmente il CEO di OpenAI, Sam Altman, a dedicare più risorse alla sicurezza, spostando l'attenzione dallo sviluppo delle capacità dell'IA alla loro regolamentazione. Secondo Kokotajlo, la risposta iniziale di Altman sembrava positiva, ma con il passare del tempo ha iniziato a percepire la mancanza di azioni concrete come un semplice placare le preoccupazioni senza intenzione di agire realmente.
Dopo mesi di frustrazione, Kokotajlo ha lasciato la società nel aprile di quest'anno, esprimendo nel suo messaggio di addio ai colleghi la perdita di fiducia nella capacità di OpenAI di comportarsi responsabilmente. "Il mondo non è pronto, e noi non siamo pronti", ha scritto, esprimendo la preoccupazione di avanzare ciecamente mentre si giustificano superficialmente le azioni intraprese.
Dal canto suo, OpenAI ha affermato di avere canali attraverso i quali i dipendenti possono esprimere liberamente le loro preoccupazioni, inclusa una linea di integrità anonima e un Comitato per la Sicurezza e la Sicurezza guidato da membri del consiglio di amministrazione e leader della sicurezza aziendale. L'azienda, infatti, afferma di continuare a impegnarsi nella discussione con governi, società civili e altre comunità autoritarie sull'importanza di questa tecnologia. Tali dichiarazioni, tuttavia, sembrano non placare le crescenti apprensioni manifestate da alcuni degli esperti più influenti nel campo dell'intelligenza artificiale.