Gelsinger non usa mezzi termini: "NVIDIA ha avuto fortuna con l'IA"

L'ex CEO afferma che Intel ha mancato il bersaglio con Larrabee.

Avatar di Luca Zaninello

a cura di Luca Zaninello

Managing Editor

3

L'evoluzione dell'intelligenza artificiale ha ridisegnato gli equilibri di potere nel settore tecnologico, trasformando NVIDIA da semplice produttore di schede grafiche a colosso dominante nel panorama dell'AI.

Durante il recente GTC 2025, Pat Gelsinger, ex CEO di Intel, ha offerto una riflessione sorprendentemente sincera sul perché una delle aziende storicamente più influenti nel computing si sia trovata a inseguire in quello che oggi rappresenta il mercato più strategico del settore. La visione di Jensen Huang, caratterizzata da testarda fedeltà all'architettura GPU, si è rivelata vincente, mentre le scelte strategiche di Intel hanno portato l'azienda a un doloroso riposizionamento.

Quando le decisioni architetturali plasmano il futuro

Due decenni fa, Intel dominava incontrastata il panorama informatico grazie ai suoi processori x86, vero e proprio standard dell'industria per qualsiasi tipo di carico di lavoro. In questo contesto di apparente invulnerabilità, l'azienda tentò di espandersi nel settore grafico con il progetto Larrabee, un ambizioso tentativo di creare GPU basate sull'architettura x86.

"Avevo un progetto ben noto nell'industria chiamato Larrabee che cercava di unire la programmabilità della CPU con un'architettura orientata al throughput. Se Intel avesse continuato su quella strada, il futuro avrebbe potuto essere diverso", ha spiegato Gelsinger durante il suo intervento al GTC 2025.

Il problema di fondo? Larrabee voleva essere troppo versatile. La ricerca dell'estrema programmabilità portò Intel a rinunciare a componenti hardware specializzati presenti nelle GPU tradizionali, compromettendone significativamente le prestazioni grafiche rispetto alle soluzioni di AMD e NVIDIA.

La "fortuna" di Jensen e la visione a lungo termine

Ciò che Gelsinger definisce come "fortuna" di Jensen Huang è in realtà il risultato di una visione strategica che ha mantenuto NVIDIA concentrata sul potenziamento dell'architettura GPU pura, ottimizzata per il throughput.

 "La CPU era il re della collina a metà anni 2000, e applaudo Jensen per la sua tenacia nel dire semplicemente: 'No, non sto cercando di costruire uno di quelli; sto cercando di soddisfare i carichi di lavoro partendo dalla grafica'", ha affermato l'ex CEO di Intel.

Huang stesso ha riconosciuto in passato questo aspetto, ammettendo durante un dibattito con Gelsinger:

"Sono stato davvero fortunato con il carico di lavoro dell'AI perché richiedeva esattamente quel tipo di architettura".

Una "fortuna" che ha trasformato NVIDIA in una delle aziende più valutate al mondo.

Il fallimento strategico di Larrabee e Xeon Phi

Dopo il fallimento di Larrabee come GPU nel 2009, Intel tentò di recuperare riposizionando la tecnologia come Xeon Phi, un acceleratore per il calcolo ad alte prestazioni (HPC). Tuttavia, mentre Intel cercava di adattare l'architettura x86 a nuovi scenari, NVIDIA sviluppava CUDA, un framework che rendeva le sue GPU sempre più versatili per il calcolo generico.

La scelta di Intel di rimanere ancorata all'architettura x86 si rivelò problematica: pur offrendo vantaggi in termini di programmabilità generale, questa non scalava efficacemente per grafica, AI o HPC. Il risultato fu una serie di prodotti che non riuscirono mai a guadagnare significativa trazione nel mercato.

Alla fine, dopo il fallimento di Xeon Phi "Knights Mill", Intel abbandonò completamente il progetto tra il 2018 e il 2019, optando per GPU dedicate ai data center e ASIC specializzati per l'intelligenza artificiale.

Ripensare il futuro dell'accelerazione

I recenti tentativi di Intel di adottare un design GPU più convenzionale per l'AI hanno largamente fallito, culminando nella cancellazione dei GPU Falcon Shores per data center. L'azienda ora punta tutto su Jaguar Shores, la sua prossima generazione di acceleratori non prevista prima del prossimo anno.

La storia di Intel e NVIDIA illustra come le decisioni architetturali fondamentali possano determinare il successo o il fallimento di un'azienda tecnologica nel lungo periodo. Mentre Intel cercava di piegare un'architettura esistente verso nuovi utilizzi, NVIDIA costruiva da zero soluzioni ottimizzate per specifici carichi di lavoro.

Questa differenza di approccio ha portato a un ribaltamento degli equilibri che pochi avrebbero potuto prevedere quindici anni fa: l'antica dominatrice del mercato ora insegue, mentre quella che era considerata un'azienda di nicchia detta le regole dell'intero panorama computazionale.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

3 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Ahahah, Pat, così come ho apprezzato il tuo impegno in Intel per rimetterla in piedi puntando a sistemare la base, cioè il PP, così comprendo che la tua visione di prodotto vincente è scadente.
Larrabee era fondato su due concetti sbagliati per poter fare concorrenza alle GPU:
1. le CPU non sono pensate per gestire carichi di lavoro paralleli, tanto che l'unica cosa che funzionava a dovere su quella accozzaglia di transistor erano le unità AVX
2. l'architettura delle CPU usate era la peggiore possibile: x86. Quella del Pentium addirittura, per cercare di risparmiare con le dimensioni. Roba preistorica con una ISA obsoleta che di certo non favorisce l'esecuzione parallela di carichi di lavoro avendo una gestione delle istruzioni troppo complessa. Dimensione, consumi, complessità, tutta roba che va all'opposto di ciò che serve per una esecuzione parallela efficiente: core piccoli, con istruzioni veloci e tempo di esecuzione predicibile, gestione dei salti efficiente con subentro immediato di altri thread nel caso, grandi bandi passanti con tanti registri locali per evitare più stalli possibili (x86 è ancora con 8 registri come nel 1980, con accessi con dimensione variabile sovrapponibili nel più totale caos che poi richiede milioni di transistor per fare le rimappature con SMT).
Era già una cassata al momento del suo design, ne è venuta fuori una schifezza quando realizzato. Non c'era alcun dubbio che sarebbe fallita contro la capacità di scaling delle unità parallele delle GPU.
Ma capisco, era il tempo x86 o morte, con ARM che già iniziava a farsi vedere ed era controproducente pensare di usare una architettura diversa da quella sviluppata in casa. Sarebbe stato come dire, non abbiamo sviluppato qualcosa che sia in grado di affrontare l'era moderna dei calcoli paralleli.
Vero, non l'avete detto, ma alla fine lo avete dimostrato.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Quando in Intel si convinceranno che a x86 serve quantomeno una bella rinfrescata che non sia solo l'ennesima estensione di istruzioni (ormai a quante siamo 15? 20? Ho perso il conto) per poter competere con le nuove architetture più moderne, sarà troppo tardi.
x86 vive ancora grazie alla retrocompatibilità, basta vedere la questione dei processori Qualcomm. Ma se questa barriera viene finalmente abbattuta, magari con l'entrata in campo di altri attori come nVidia/MediaTek/Broadcomm che invogliano alla ricompilazione anche per ARM, salutiamo x86 per quello che è stato e avanti con la modernità.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Sono più di 30 anni che Jensen ha "fortuna" arrivando sempre dopo gli altri, la grafica 3d l'ha inventata 3dfx , il gpgpu ATI, l'AI arm, il ray tracing powervr, l'upscaling sony.
Jensen non è fortunato è più bravo degli altri.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Sono più di 30 anni che Jensen ha "fortuna" arrivando sempre dopo gli altri, la grafica 3d l'ha inventata 3dfx , il gpgpu ATI, l'AI arm, il ray tracing powervr, l'upscaling sony. Jensen non è fortunato è più bravo degli altri.
Arrivare dopo, parliamone..
Non è che abbozzare qualcosa è arrivare prima.
Tentare di fare gpgpu con le TMU non è GPGPU.
L'accelerazione del ray tracing c'era ancora prima di Imagination Tech, infatti loro stessi hanno comprato una implementazione (Caustic Graphics). Si può pensare che la semplice FPU sia nata per accelerare i conti degli algoritmi raytracing 40 anni fa (in effetti POV ray andava 10 volte più velocemente).
Anche gli algoritmi di scaling ci sono da ben prima di Sony, implementati in diverse maniere in SW o con HW apposito.
Sono tutti concetti generali di larga adozione che nel tempo si sono evoluti, chi implementandoli in un modo, chi in un altro con vantaggi e svantaggi per ciascuno.
Anche l'approccio di Nvidia alla soluzione di questi problemi è un insieme di vantaggi e svantaggi, non è che ha la soluzione perfetta per tutto.
Non mi sembra comunque che nessuno abbia mai proclamato di aver "inventato" il ray tracing, lo scaling o il GPGPU, che è una cosa comunque poco definibile e anche oggi in via di continuo sviluppo.
Sono idee che nascono nel tempo e nel tempo vengono sempre più raffinate, partendo da rudimentali esperimenti per vedere fino a dove ci si può spingere con quello che si ha già.
La forza di Nvidia è che dove ha deciso che era da sviluppare lo ha fatto in modo tale da rendere le altre modalità obsolete. Non ci ha messo 1 anno o 2, ma decine credendoci e investendoci, talvolta sbagliando (la storia iniziale di Nvidia come azienda che progettava acceleratori grafici è emblematica da questo punto di vista) ma poi correggendo là dove magari altri si sarebbero rassegnati, e oggi gode dei frutti dei suoi sforzi. Perché la concorrenza che c'era e c'è non hanno avuto la lungimiranza di pensare anni prima a cosa sarebbe potuto diventare una nuova funzionalità. E avere il coraggio di inserirla e di farla pagare, magari senza un immediato riscontro in termini prestazionali.
Anche il T&L, l'origine delle GPU, all'inizio non era il massimo perché la CPU più potenti potevano fare meglio, ma se nessuno lo avesse mai inserito credendo che le CPU avrebbero scalato allo stesso modo delle GPU oggi non saremmo dove siamo ora.

La forza e il genio di chi succede in questo mercato sta proprio nel vedere l'uovo oggi che diventa un cigno domani. Chi si ferma a criticare che è un uovo non va da nessuna parte.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.