DeepSeek non sfrutta CUDA, ma PTX: ecco i vantaggi

La startup cinese DeepSeek ha addestrato un modello di linguaggio AI con 671 miliardi di parametri in soli due mesi, ma come ci è riuscita?

Avatar di Andrea Riviera

a cura di Andrea Riviera

Managing Editor

3

La startup cinese DeepSeek ha addestrato un modello di linguaggio AI con 671 miliardi di parametri in soli due mesi, utilizzando un cluster di 2.048 GPU Nvidia H800. L'azienda ha ottenuto un'efficienza 10 volte superiore rispetto ai leader del settore come Meta.

Il risultato è stato raggiunto grazie a numerose ottimizzazioni e all'uso di PTX (Parallel Thread Execution), un linguaggio di programmazione di basso livello di NVIDIA, al posto del più comune CUDA. PTX consente regolazioni più dettagliate a livello di thread e warp, permettendo di sfruttare al massimo l'hardware GPU.

DeepSeek ha implementato anche algoritmi avanzati di pipeline e ha riconfigurato le GPU H800, dedicando 20 dei 132 multiprocessori alle comunicazioni tra server. Queste modifiche richiedono competenze ingegneristiche di alto livello ma sono difficili da mantenere nel tempo.

Alcuni investitori temono che il breakthrough possa ridurre la domanda di hardware ad alte prestazioni per i modelli AI, penalizzando aziende come Nvidia. Tuttavia, esperti del settore come Pat Gelsinger, ex CEO di Intel, ritengono che le applicazioni AI possano sfruttare tutta la potenza di calcolo disponibile.

L'approccio di DeepSeek potrebbe consentire di implementare funzionalità di AI avanzate su dispositivi di massa a basso costo. Questo aprirebbe nuove possibilità per la diffusione dell'intelligenza artificiale in vari ambiti applicativi.

Resta da vedere se altre aziende riusciranno a replicare i risultati di DeepSeek e quali saranno gli sviluppi futuri in termini di efficienza nell'addestramento dei modelli AI. La corsa all'ottimizzazione potrebbe portare a ulteriori progressi nel campo dell'intelligenza artificiale nei prossimi anni.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

4 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Se PTX è così tanto più efficiente, il primato di CUDA è a rischio. Non la vedo bene per Nvidia.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Scusa ma è sempre un linguaggio realizzato da nvidia e comunque sfruttano macchine nvidia?

Magari è un problema per nvidia perché servono meno macchine per avere più potenza
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Il risultato è stato raggiunto grazie a numerose ottimizzazioni e all'uso di PTX (Parallel Thread Execution), un linguaggio di programmazione di basso livello di NVIDIA, al posto del più comune CUDA
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Se PTX è così tanto più efficiente, il primato di CUDA è a rischio. Non la vedo bene per Nvidia.
PTX è l'assembly di Nvidia. Può finzionare solo ed esclusivamente su processori Nvidia (anzi su specifiche generazioni di GPU, il PTX di Ampere non sarà uguale a quello di Blackwell). Quindi il suo utilizzo può essere solo una buona notizia per Nvidia.

È come se i programmatori tornassero a scrivere codice Assembly per i processori Intel, invece di utilizzare C, Java, Python ed altri linguaggi di alto livello. Il software risultante girerebbe (velocissimo) solo ed esclusivamente su CPU Intel.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.