Nel novembre del 2006, Nvidia presentò il chip G80 a 80 nanometri. L'azienda mantenne in vita il G80 per molto tempo, per poi passare al G92 a 65 nm (e poi a 55 nm con G92B), una mossa che le permise di ridurre i costi produttivi e aumentare la frequenza.
Nvidia giocò con il numero degli shader, l'ampiezza del bus di memoria e le frequenze per produrre una miriade di soluzioni GeForce 8800 e 9800. Ci fu persino una versione con due GPU: la GeForce 9800GX2, più veloce della 8800 Ultra - tra il 29 e il 41 percento con AA disattivato. Con AA attivo il vantaggio scendeva al 13% per via dei limiti della memoria.

Giusto per ridere, ecco quante schede derivate dalla serie 8800 arrivarono sul mercato: 8800GS 374, 8800GS 768, 8800GTS 320, 8800GTS 640, 8800GTS 640 v2, 8800GTS 512, 8800GT 256, 8800GT 512, 8800GT 1024, 8800GTX 768 e 8800 Ultra 768. Inoltre ecco la 9600GSO 512, la 9600GSO 384 e la 9600GSO 768, e infine la 9800GX2 e la 9800GTX - senza menzionare la 9800GT e la 9800 GTX+ con 1GB di memoria. E non parliamo delle versioni mobile!
La 8800 GTX contava su oltre 681 milioni di transistor e sull'architettura a shader unificati. La scheda aveva 128 shader a 575 MHz connessi a 768 MB di GDDR3 su bus a 384 bit. Nvidia aumentò anche il numero di TMU fino a 64 e quello di ROPs a 24. Tutti i miglioramenti permettevano alla scheda di offrire il doppio delle prestazioni rispetto al predecessore nei test ad alta risoluzione. Alla 8800 GTX seguì la 8800 Ultra che operava a 612 MHz.

La GeForce 8600 e la GeForce 8400 erano ad anni luce dal G80 e questa differenza tra fascia media e alta non piacque ai videogiocatori. Con il chip G92B Nvidia presentò la serie GeForce 100, destinata solo agli OEM.