Il core

ATI ha finalmente presentato la sua famiglia di schede grafiche X1000. Come dimostrano i nostri test, i nuovi chip fanno conquistare ad ATI lo scettro del potere. Ora rimane solo da vedere quando queste schede compariranno nei negozi.

Avatar di Tom's Hardware

a cura di Tom's Hardware

Il core

Ci sono state molte speculazioni riguardo il makeup di questa nuova architettura ma finalmente possiamo mettere in luce la verità. Oltre all'utilizzo di unità matematiche extra nelle pixel pipeline, come è successo per le 7800 GTX, ATi ha alterato praticamente tutti i segmenti dell'architettura.

X1800 Core

Il diagramma della GPU X1800.

Per iniziare, è stato cambiato il modo in cui i dati vengono processati. Il flusso è simile ma viene spezzato e diviso in compartimenti per aumentare l'efficienza delle ALU dei pixel shaders. È stato riprogettato anche il funzionamento degli shaders. Come abbiamo detto, è stato rivoluzionato l'intero approccio del trattamento dei dati.

Il primo passo del processo dovrebbe essere familiare a tutti: i dati passano negli 8 Vertex Shaders. ATi ci ha svelato che il suo Shader Model 3.0 della famiglia X1000 ha passato il test Microsoft Display Compatibilità.

I vertex shader possono gestire due istruzioni per clock o, se vogliamo, 10 miliardi di istruzioni al secondo. Questo risultato è possibile perché ogni shader dispone di due ALU, una ALU vettoriale a 128 bit e una ALU scalare a 32 bit, con una precisione floating-point ?full-time? a 32 bit. Inclusa in ogni shader c'è un'unità di controllo che permette lo svolgimento del processo.

To The Core

Successivamente vengono effettuate operazioni geometriche come il back-face culling, clipping, perspective divide (transform to clip space), viewpoint transform, mentre il successivo passo riguarda il passaggio in un'unità di rasterizzazione geometrica. Da qui i dati viaggiano verso il nuovo processore ?Ulrta-Threading?. Questo processore divide gli shader data in 512 thread paralleli. È in questo passaggio che ATI guadagna molte prestazioni, attraverso l'ottimizzazione dei pixel shaders e grazie alla nuovo design dell'architettura della memoria.

Leggi altri articoli