OpenAI istituisce un team di sicurezza guidato da Sam Altman

Dopo che diversi importanti ricercatori di OpenAI si sono dimessi a causa di alcune preoccupazioni sulla sicurezza, è stato istituito un team dedicato.

Avatar di Giulia Di Venere

a cura di Giulia Di Venere

Editor

OpenAI ha recentemente annunciato la formazione di un nuovo team di sicurezza, presieduto dal CEO Sam Altman, con la partecipazione dei membri del consiglio di amministrazione Adam D’Angelo e Nicole Seligman. Questo comitato si concentrerà sulle decisioni critiche riguardanti la sicurezza dei progetti e delle operazioni di OpenAI, in risposta alle preoccupazioni di alcuni dei maggiori ricercatori nel campo dell'IA che hanno lasciato l'azienda questo mese.

Il primo incarico affidato al nuovo gruppo sarà quello di "valutare e sviluppare ulteriormente i processi e le misure di sicurezza" di OpenAI. Successivamente, presenterà i risultati al consiglio di amministrazione di OpenAI, del quale fanno parte tutti e tre i leader del team di sicurezza. 

Sarà compito del consiglio decidere come attuare le proposte del team di sicurezza.

La creazione del team giunge a seguito delle dimissioni di Ilya Sutskever, co-fondatore di OpenAI ed ex capo scienziato, che aveva precedentemente guidato un tentativo di colpo di stato contro Altman lo scorso anno. Sutskever era anche co-leader del team Superalignment di OpenAI, un gruppo fondato con l'obiettivo di "guidare e controllare sistemi AI super-intelligenti". L'altro co-leader di Superalignment, Jan Leike, ha lasciato l'azienda poco dopo Sutskever, criticandola per la poca importanza data alla sicurezza. 

Altri membri dell'attuale team per la sicurezza includono Aleksander Madry, capo della preparazione, Lilian Weng, responsabile della sicurezza, John Schulman, capo della scienza dell'allineamento, Matt Knight, responsabile della sicurezza, e Jakub Pachocki, capo scienziato. Con due membri del consiglio di amministrazione e lo stesso Altman alla guida del nuovo consiglio di sicurezza, resta da vedere l'effettiva capacità di OpenAI nell'affrontare efficacemente i problemi dati dalle preoccupazioni espresse dagli ex dipendenti.

Leggi altri articoli