DeepSeek sfida le previsioni pessimiste di Altman

Il CEO di OpenAI Sam Altman è stato criticato per aver sottovalutato il potenziale delle startup nel settore dell'intelligenza artificiale.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

2

Il CEO di OpenAI Sam Altman è stato criticato per aver sottovalutato il potenziale delle startup nel settore dell'intelligenza artificiale. I suoi commenti del giugno 2023, in cui affermava che sarebbe stato "totalmente senza speranza" competere con OpenAI nello sviluppo di modelli IA con soli 10 milioni di dollari, sono stati smentiti dall'emergere di DeepSeek, la startup cinese che afferma di aver creato un modello avanzato con soli 5,6 milioni di dollari e che è riuscita in pochi giorni a essere sulla bocca di tutti, generando persino un crollo delle azioni di NVIDIA.

La vicenda ha sollevato critiche sui social media, con diversi utenti che hanno ridicolizzato la mancanza di lungimiranza di Altman. L'imprenditore Arnaud Bertrand ha definito i commenti di Altman "esilaranti col senno di poi", alla luce dei recenti sviluppi nel settore.

DeepSeek ha sconvolto il settore con costi di sviluppo straordinariamente bassi.

Durante una sessione di domande e risposte in India nel 2023, Altman era stato interrogato sulla possibilità che una piccola squadra di ingegneri potesse creare "qualcosa di veramente sostanziale" nell'IA con un budget limitato. La sua risposta era stata netta: "È totalmente senza speranza competere con noi nello sviluppo di modelli fondamentali. Non dovreste nemmeno provarci".

Tuttavia, l'emergere di DeepSeek ha messo in discussione questa visione. La startup cinese sostiene di aver creato un modello IA all'avanguardia con una spesa di soli 5,6 milioni di dollari, una cifra contestata ma comunque molto inferiore ai budget dei giganti americani del settore.

Di fronte a queste critiche, Altman ha riconosciuto i meriti di DeepSeek, definendolo "un modello impressionante, soprattutto considerando ciò che sono riusciti a ottenere con quel prezzo". Ha però subito aggiunto che OpenAI "fornirà modelli molto migliori" e che la competizione è "legittimamente stimolante".

Altman ha anche promesso che OpenAI accelererà il rilascio di nuovi prodotti, ribadendo l'impegno dell'azienda nello sviluppo dell'intelligenza artificiale generale (AGI) e oltre.

Indipendentemente dall'effettiva spesa sostenuta da DeepSeek, è evidente che l'azienda è riuscita a sviluppare un modello IA avanzato con costi notevolmente inferiori rispetto ai giganti americani del settore, scuotendo le fondamenta dell'industria.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

5 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


"Non dovreste nemmeno provarci. Vi prego!"
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Il cervello umano consuma 100 watt. I simulatori di cervello umano consumano 100 milioni di watt.
È ovvio che è solo una cosa provvisoria, no?
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Il cervello umano consuma 100 watt. I simulatori di cervello umano consumano 100 milioni di watt.<br />
È ovvio che è solo una cosa provvisoria, no?
100 milioni di watt per rispondere a 100 milioni di utenti...
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

<blockquote class="xfBb-quote" data-name="jumpjack">Il cervello umano consuma 100 watt. I simulatori di cervello umano consumano 100 milioni di watt.&lt;br /&gt;<br />
È ovvio che è solo una cosa provvisoria, no?</blockquote> 100 milioni di watt per rispondere a 100 milioni di utenti...
100 milioni di W ancora prima di poter emettere un solo carattere, cioè durante l'addestramento.
Poi altri migliaia di W per creare una risposta ad una singola richiesta. E qualche altro migliaio di W/GB per tenere in memoria quanto già detto/risposto in una sessione.
Non parliamo dei consumi per generare immagini/video/musica.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Comunque secondo quanto si è capito su come hanno addestrato il loro modello, non sembra che Altman avesse torto, così come non sono cerebrolesi quelli che investono miliardi di dollari per addestrare i propri modelli con migliaia di GPU di ultima generazione.
Certo, usare un linguaggio più efficiente di Python aiuterebbe sicuramente a diminuire i costi sia per l'HW che per l'energia usata, ma legherebbe le mani all'uso di una sola architettura.

Se davvero hanno usato la distillazione da altri modelli per addestrare il proprio, viene meno la paura che non servano tutte quelle GPU per addestrare nuovi modelli più avanzati, perché senza questi ultimi, neanche quelli più piccoli come quelli di DeepSeek progredirebbero.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.