Titan, prestazioni di calcolo ed equilibrio
Dato che abbiamo iniziato a provare GTX Titan prima che l'azienda parlasse alla stampa delle sue caratteristiche, abbiamo notato prestazioni a doppia precisione miseramente basse con strumenti diagnostici come SiSoftware Sandra. Anche se la velocità dovrebbe essere un terzo di quella FP32, il nostro risultato era simile al ventiquattresimo tipico della GeForce GTX 680.
È emerso che, per massimizzare la frequenza della scheda e minimizzare la temperatura prodotta, Nvidia ha forzato di proposito le unità FP64 di GK110 a lavorare, di default, a 1/8 della frequenza del chip. Moltiplicando il dato per il rapporto di 1:3 tra CUDA Core a doppia e singola precisione, abbiamo ottenuto i numeri corretti. Nvidia afferma però che questa scheda sia un grande affare, capace di prestazioni pari a 4,5 TFLOPS in singola precisione e 1,5 TFLOPS in doppia precisione. Allora, che succede?
È improbabile che i clienti delle soluzioni Tesla puntino a spendere di meno optando per schede dedicate al gaming che non hanno di memoria ECC, software per gestione e monitoraggio della GPU in bundle, supporto per GPUDirect o Hyper-Q. Gli sviluppatori possono però mettere le mani sulle schede Titan per spingere ancora di più sul concetto di applicazione accelerate dalla GPU (senza spendere un sacco di soldi per una Tesla K20X), ed è per questo che Nvidia vuole mettere a loro disposizione la piena potenza di calcolo di GK110.
###old2131###old
Sfruttare la piena velocità dei CUDA core FP64 richiede l'apertura del pannello di controllo dei driver, cliccare sul collegamento "Gestione impostazioni 3D", scendere fino alla voce CUDA - Double precision e selezionare la vostra scheda GeForce GTX Titan. Questo disabilita il GPU Boost. Possiamo confermare l'opzione che sblocca il potenziale di calcolo di GK110, ma non possiamo condividere con voi ancora i risultati dei benchmark. Dovrete attendere alcuni giorni.