Avatar di Manolo De Agostini

a cura di Manolo De Agostini

Hewlett Packard Enterprise (HPE) ha annunciato la collaborazione con i Sandia National Laboratories e il Dipartimento dell'Energia statunitense (DOE) per la realizzazione e consegna del più grande supercomputer al mondo basato su chip ARM.

Astra, questo il nome del sistema, sarà usato dalla National Nuclear Security Administration (NNSA) per carichi di modellazione e simulazione avanzati legati ad aree come la sicurezza nazionale (stoccaggio delle scorie nucleari), l'energia e la scienza. Il supercomputer Astra sarà in grado di offrire prestazioni di picco teoriche superiori a 2,3 petaflops, prestazioni di memoria il 33% migliori rispetto a quelle offerte dal mercato tradizionale e una densità maggiore.

hpe astra
HPE Astra

Alla base di Astra ci sono i server HPE Apollo 70, una piattaforma HPC basata sui processori Cavium ThunderX2 a 28 core e sei canali di memoria. Astra contempla oltre 145.000 core all'interno di 2592 server a doppio processore e offre una grande densità grazie a quattro nodi di calcolo in formato 2U. Il tutto sarà raffreddato a liquido tramite un sistema chiamato HPE MCS-3000.

L'anno passato Hewlett Packard Enterprise mostrò un prototipo di The Machine, un supercomputer che mette al centro del sistema la memoria anziché i processori. Parte di quella visione la ritroviamo all'interno di Astra. HPE parla di "memory-driven system", dove ogni CPU ha accesso diretto a un grande insieme di memoria.

Leggi anche: Summit, il nuovo supercomputer che spazza via la concorrenza

Si tratta di una grande differenza rispetto all'attuale modello di computing "CPU centrico", dove ogni chip ha accesso a piccole quantità di memoria ed è difficile condividere le informazioni tra i processori.

"Affinché un processore acceda a dati fuori dalla sua memoria è necessario imbarcarsi in un processo inefficiente. Un processore deve richiedere l'accesso da un altro processore per ottenere risultati soddisfacenti", spiega HPE. "La cosa peggiore è che anche la relazione tra archiviazione e memoria è inefficiente: nei computer odierni si stima che il 90% del lavoro sia dedicato allo spostamento di informazioni tra livelli di memoria e archiviazione".

"Come con qualsiasi nuova architettura hardware ci saranno sfide e problemi software", ha aggiunto James Laros di Sandia, responsabile del progetto Vanguard. "Speriamo che Astra sia la giusta soluzione per affrontare questi problemi, al fine di identificare qualsiasi tipo di problema nel supporto del codice da simulare".

Le applicazioni tipiche di Sandia sono "particolarmente sensibili al bandwidth", ha spiegato Laros, al punto che le applicazioni a volte "sovraccaricano" e sono rallentate dalle rispettive cache. A ogni modo è così fiducioso da paragonare il salto in avanti nel bandwidth legato all'uso di piattaforme ARM all'integrazione del controller di memoria sulle CPU operata per la prima volta da AMD.

Astra passerà una fase di test e non sostituirà alcun sistema esistente nei Sandia National Laboratories, ma probabilmente entrerà in produzione in futuro. Al momento è da intendersi principalmente come un esperimento che ha il potenziale di rimodellare il mondo dei supercomputer.

Leggi altri articoli