OpenAI incassa miliardi ma paga 2 dollari l'ora i suoi collaboratori

OpenAI e il lato oscuro dell'innovazione AI. ChatGPT è un successo tecnologico ma con ombre etiche. Lavoratori sfruttati in Kenya.

Avatar di Luca Zaninello

a cura di Luca Zaninello

Managing Editor

ChatGPT, l'innovativa creazione di OpenAI, ha conquistato il mondo nel novembre 2022. Grazie alla capacità di generare testi diversi e coerenti su uno spettro di argomenti, da remix letterari a complessi concetti scientifici, ChatGPT ha rapidamente raccolto oltre un milione di utenti in una sola settimana. Le ambizioni di OpenAI sono cresciute vertiginosamente, tanto che si è parlato di potenziali investimenti da parte di Microsoft che potrebbero valutare l'azienda ben 29 miliardi di dollari.

Tuttavia, dietro il velo della meraviglia tecnologica e della narrazione del successo della Silicon Valley si nasconde una storia preoccupante di sfruttamento del lavoro che ha giocato un ruolo fondamentale nel perfezionamento delle capacità di ChatGPT. Una recente inchiesta del TIME fa luce sul lato più oscuro di questo trionfo dell'intelligenza artificiale, rivelando il coinvolgimento di lavoratori kenioti esternalizzati che hanno lavorato in condizioni estenuanti, guadagnando salari miseri mentre setacciavano contenuti espliciti e inquietanti per addestrare i meccanismi di sicurezza dell'intelligenza artificiale.

Il modello precedente di OpenAI, GPT-3, possedeva una straordinaria capacità di mettere insieme frasi. Tuttavia, presentava uno svantaggio significativo: la tendenza a pronunciare commenti violenti, sessisti e razzisti. La causa risiedeva nei suoi dati di addestramento, un colossale set di dati presi da Internet, contenenti la tossicità e i pregiudizi insiti in vari angoli del web. Per affrontare questo problema era necessario un sofisticato meccanismo di sicurezza.

I lavoratori venivano pagati da 1,32 a 2 dollari l'ora.

In una mossa che ricorda le piattaforme di social media, OpenAI ha deciso di implementare un sistema di sicurezza alimentato dall'intelligenza artificiale. Questo sistema avrebbe rilevato e filtrato il linguaggio tossico, assicurando che ChatGPT non perpetuasse gli schemi dannosi radicati nei suoi dati di addestramento. Per addestrare questa rete di sicurezza, OpenAI si è rivolta a una società di outsourcing in Kenya, inviando frammenti di testo, molti dei quali descrivevano scenari espliciti e inquietanti.

Il partner di outsourcing, Sama, con sede a San Francisco ma che impiega lavoratori in Kenya, Uganda e India, si è presentato come un'azienda di "IA etica", che aiuta le persone in povertà. Tuttavia, la realtà in cui si trovavano gli etichettatori di dati di Sama dipingeva un quadro nettamente diverso. I lavoratori venivano pagati da 1,32 a 2 dollari l'ora, con il compito di etichettare contenuti espliciti e dannosi che hanno lasciato cicatrici psicologiche evidenti.

La collaborazione di OpenAI con Sama prevedeva contratti del valore di circa 200.000 dollari per etichettare descrizioni testuali di abusi sessuali, discorsi di odio e violenza. Gli addetti all'etichettatura dei dati dovevano elaborare tra i 150 e i 250 passaggi per turno di nove ore, addentrandosi in contenuti grafici e inquietanti. Nonostante le promesse di consulenza sul benessere, i lavoratori hanno riferito di un supporto insufficiente, con alcune sessioni poco utili e rare.

Mentre il settore dell'IA generativa, guidato da OpenAI, attrae miliardi di investimenti, il tributo umano del suo sviluppo rimane in gran parte invisibile. Gli etichettatori di dati nel Sud del mondo, che spesso lavorano in condizioni di sfruttamento, contribuiscono in modo significativo al successo dell'industria. La dicotomia tra la facciata affascinante dell'innovazione dell'IA e la triste realtà del lavoro umano nascosto solleva preoccupazioni etiche che richiedono attenzione. I traumi subiti dai lavoratori di Sama evidenziano il prezzo pagato per il progresso tecnologico.

Il coinvolgimento di Sama con OpenAI ha preso una brutta piega quando la società di outsourcing ha iniziato un progetto pilota che prevedeva la raccolta di immagini illegali ed esplicite. Questo progetto, non correlato a ChatGPT, ha portato all'interruzione della collaborazione. La decisione di Sama di cancellare tutti i progetti rimanenti con OpenAI, otto mesi prima del previsto, ha lasciato la sua forza lavoro allo sbando, con un impatto sul loro sostentamento.

L'annullamento, forse in parte provocato dall'inchiesta del TIME sullo sfruttamento dei moderatori di contenuti da parte di Sama per Facebook, sottolinea l'interconnessione delle sfide etiche dell'industria dell'IA. Le conseguenze di tali rivelazioni spingono le aziende a rivalutare le loro partnership, con potenziali conseguenze per il sostentamento dei lavoratori che rimangono ai margini dell'industria dell'IA in piena espansione.

Mentre OpenAI continua a crogiolarsi sotto i riflettori dell'innovazione dell'IA, deve affrontare le implicazioni etiche dei suoi processi di sviluppo. È evidente la necessità di un approccio più sicuro e umano allo sviluppo dell'IA, che affronti le preoccupazioni sollevate dallo sfruttamento del lavoro nel Sud del mondo.

 

Leggi altri articoli