L'evoluzione dell'intelligenza artificiale ha ridisegnato gli equilibri di potere nel settore tecnologico, trasformando NVIDIA da semplice produttore di schede grafiche a colosso dominante nel panorama dell'AI.
Durante il recente GTC 2025, Pat Gelsinger, ex CEO di Intel, ha offerto una riflessione sorprendentemente sincera sul perché una delle aziende storicamente più influenti nel computing si sia trovata a inseguire in quello che oggi rappresenta il mercato più strategico del settore. La visione di Jensen Huang, caratterizzata da testarda fedeltà all'architettura GPU, si è rivelata vincente, mentre le scelte strategiche di Intel hanno portato l'azienda a un doloroso riposizionamento.
Quando le decisioni architetturali plasmano il futuro
Due decenni fa, Intel dominava incontrastata il panorama informatico grazie ai suoi processori x86, vero e proprio standard dell'industria per qualsiasi tipo di carico di lavoro. In questo contesto di apparente invulnerabilità, l'azienda tentò di espandersi nel settore grafico con il progetto Larrabee, un ambizioso tentativo di creare GPU basate sull'architettura x86.
"Avevo un progetto ben noto nell'industria chiamato Larrabee che cercava di unire la programmabilità della CPU con un'architettura orientata al throughput. Se Intel avesse continuato su quella strada, il futuro avrebbe potuto essere diverso", ha spiegato Gelsinger durante il suo intervento al GTC 2025.
Il problema di fondo? Larrabee voleva essere troppo versatile. La ricerca dell'estrema programmabilità portò Intel a rinunciare a componenti hardware specializzati presenti nelle GPU tradizionali, compromettendone significativamente le prestazioni grafiche rispetto alle soluzioni di AMD e NVIDIA.
La "fortuna" di Jensen e la visione a lungo termine
Ciò che Gelsinger definisce come "fortuna" di Jensen Huang è in realtà il risultato di una visione strategica che ha mantenuto NVIDIA concentrata sul potenziamento dell'architettura GPU pura, ottimizzata per il throughput.
"La CPU era il re della collina a metà anni 2000, e applaudo Jensen per la sua tenacia nel dire semplicemente: 'No, non sto cercando di costruire uno di quelli; sto cercando di soddisfare i carichi di lavoro partendo dalla grafica'", ha affermato l'ex CEO di Intel.
Huang stesso ha riconosciuto in passato questo aspetto, ammettendo durante un dibattito con Gelsinger:
"Sono stato davvero fortunato con il carico di lavoro dell'AI perché richiedeva esattamente quel tipo di architettura".
Una "fortuna" che ha trasformato NVIDIA in una delle aziende più valutate al mondo.
Il fallimento strategico di Larrabee e Xeon Phi
Dopo il fallimento di Larrabee come GPU nel 2009, Intel tentò di recuperare riposizionando la tecnologia come Xeon Phi, un acceleratore per il calcolo ad alte prestazioni (HPC). Tuttavia, mentre Intel cercava di adattare l'architettura x86 a nuovi scenari, NVIDIA sviluppava CUDA, un framework che rendeva le sue GPU sempre più versatili per il calcolo generico.
La scelta di Intel di rimanere ancorata all'architettura x86 si rivelò problematica: pur offrendo vantaggi in termini di programmabilità generale, questa non scalava efficacemente per grafica, AI o HPC. Il risultato fu una serie di prodotti che non riuscirono mai a guadagnare significativa trazione nel mercato.
Alla fine, dopo il fallimento di Xeon Phi "Knights Mill", Intel abbandonò completamente il progetto tra il 2018 e il 2019, optando per GPU dedicate ai data center e ASIC specializzati per l'intelligenza artificiale.
Ripensare il futuro dell'accelerazione
I recenti tentativi di Intel di adottare un design GPU più convenzionale per l'AI hanno largamente fallito, culminando nella cancellazione dei GPU Falcon Shores per data center. L'azienda ora punta tutto su Jaguar Shores, la sua prossima generazione di acceleratori non prevista prima del prossimo anno.
La storia di Intel e NVIDIA illustra come le decisioni architetturali fondamentali possano determinare il successo o il fallimento di un'azienda tecnologica nel lungo periodo. Mentre Intel cercava di piegare un'architettura esistente verso nuovi utilizzi, NVIDIA costruiva da zero soluzioni ottimizzate per specifici carichi di lavoro.
Questa differenza di approccio ha portato a un ribaltamento degli equilibri che pochi avrebbero potuto prevedere quindici anni fa: l'antica dominatrice del mercato ora insegue, mentre quella che era considerata un'azienda di nicchia detta le regole dell'intero panorama computazionale.
Larrabee era fondato su due concetti sbagliati per poter fare concorrenza alle GPU:
1. le CPU non sono pensate per gestire carichi di lavoro paralleli, tanto che l'unica cosa che funzionava a dovere su quella accozzaglia di transistor erano le unità AVX
2. l'architettura delle CPU usate era la peggiore possibile: x86. Quella del Pentium addirittura, per cercare di risparmiare con le dimensioni. Roba preistorica con una ISA obsoleta che di certo non favorisce l'esecuzione parallela di carichi di lavoro avendo una gestione delle istruzioni troppo complessa. Dimensione, consumi, complessità, tutta roba che va all'opposto di ciò che serve per una esecuzione parallela efficiente: core piccoli, con istruzioni veloci e tempo di esecuzione predicibile, gestione dei salti efficiente con subentro immediato di altri thread nel caso, grandi bandi passanti con tanti registri locali per evitare più stalli possibili (x86 è ancora con 8 registri come nel 1980, con accessi con dimensione variabile sovrapponibili nel più totale caos che poi richiede milioni di transistor per fare le rimappature con SMT).
Era già una cassata al momento del suo design, ne è venuta fuori una schifezza quando realizzato. Non c'era alcun dubbio che sarebbe fallita contro la capacità di scaling delle unità parallele delle GPU.
Ma capisco, era il tempo x86 o morte, con ARM che già iniziava a farsi vedere ed era controproducente pensare di usare una architettura diversa da quella sviluppata in casa. Sarebbe stato come dire, non abbiamo sviluppato qualcosa che sia in grado di affrontare l'era moderna dei calcoli paralleli.
Vero, non l'avete detto, ma alla fine lo avete dimostrato.
Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?