NVIDIA e HPE annunciano un portafoglio di soluzioni per accelerare l'adozione dell'IA generativa

NVIDIA e HPE hanno annunciato "NVIDIA AI Computing by HPE", un portfolio di soluzioni chiavi in mano su cloud privato per accelerare l'adozione dell'IA generativa.

Avatar di Marina Londei

a cura di Marina Londei

Editor

In occasione dell'HPE Discover, l'evento annuale dedicato alle novità tecnologiche di HPE, la compagnia di Antonio Neri e NVIDIA hanno annunciato NVIDIA AI Computing by HPE, un portafoglio di soluzioni di IA sviluppate congiuntamente per accelerare l'adozione dell'IA generativa nelle aziende.

Tra le offerte principali spicca HPE Private Cloud AI, una soluzione che offre integrazione di computing, networking e software NVIDIA AI con lo storage, il calcolo e il cloud HPE GreenLake. 

Con questa nuova soluzione le aziende di qualsiasi dimensione possono cominciare il loro percorso di sviluppo di applicazioni di IA generativa in modo rapido, flessibile ed efficiente dal punto di vista energetico. 

I nuovi servizi e le offerte di prossima uscita saranno disponibili tramite una strategia di go-to-market congiunta che comprende vendite, team e partner di canale, formazione e una rete globale di system integrator che aiuteranno le imprese a eseguire carichi di lavoro di IA complessi. 

Pixabay
artificial intelligence

HPE Private Cloud AI

HPE Private Cloud AI è la soluzione pensata per accelerare l'innovazione e il ritorno sugli investimenti, riducendo al contempo i rischi derivanti dall'IA.

La soluzione offre supporto per l'inferenza, il fine-tuning e i carichi di lavoro RAG AI che utilizzano dati proprietari, controllo aziendale per i requisiti di privacy, sicurezza, trasparenza e governance dei dati, esperienza cloud con capacità ITOps e AIOps e un percorso rapido e flessibile per soddisfare le opportunità dell'IA.

Alla base dello stack software c'è la piattaforma NVIDIA AI Enterprise che include i microservizi di inferenza NIM. La piattaforma accelera le pipeline di data sciente e semplifica lo sviluppo e l'implementazione di copiloti di produttività e altre applicazioni di IA generativa. 

NIM mette a disposizione microservizi di facile utilizzo per l'inferenza ottimizzata dei modelli di IA per passare in maniera sicura dal prototipo alla distribuzione, in una varietà di casi d'uso.

A complemento di queste due componenti troviamo il software HPE AI Essentials che offre un set già pronto per l'esecuzione di strumenti integrati per l'IA e per la data foundation. 

Per offrire prestazioni ottimali allo stack software, HPE Private Cloud AI offre uno stack di infrastruttura IA completamente integrato che include network Ethernet NVIDIA Spectrum-X, la soluzione GreenLake for File di HPE e server HPE ProLiant con supporto per NVIDIA L40, GPU Tensor Core H100 NVL e NVIDIA GH200 NVL2.

Il cloud HPE GreenLake

Il cloud HPE GreenLake consente ad HPE Private Cloud AI di offrire un'esperienza cloud self-service. Grazie a un piano di controllo basato su un'unica piattaforma, i servizi HPE GreenLake offrono gestibilità e osservabilità per automatizzare, orchestrare e gestire endpoint, carichi di lavoro e dati in ambienti ibridi.

La soluzione integra le operazioni IT di OpsRamp per offrire osservabilità e AIOps a tutti i prodotti e servizi HPE. OpsRamp mette a disposizione l'osservabilità per lo stack di elaborazione accelerata NVIDIA end-to-end che comprende il software NVIDIA NIM e AI, le GPU NVIDIA Tensor Core e i cluster AI, gli switch NVIDIA Quantum InfiniBand e NVIDIA Spectrum Ethernet. 

Inoltre, OpsRamp offre il nuovo copilot operativo che può analizzare grandi insieme di dati aumentando la produttività delle operazioni. Infine, OpsRamp si integrerà anche con le API di CrowdStrke, in modo che i clienti possano visualizzare in maniera unificata i servizi di sicurezza degli endpoint su tutta l'infrastruttura e le applicazioni.

Pixabay
tecnologia

Le altre novità

Durante il keynote le due compagnie hanno anche annunciato il supporto al portafoglio NVIDIA AI Computing by HPE e HPE Private Cloud AI da parte di leader di settore quali Deloitte, HCLTech, Infosys, TCS e WIPRO.

HPE ha inoltre annunciato l'aggiunta del supporto alle ultime GPU, CPU e Superchip di NVIDIA: HPE Cray XD670 supporta otto GPU NVIDIA H200 NVL Tensor Core ed è ideale per creare LLM; l server HPE ProLiant DL384 Gen12 supporta NVIDIA GH200 NVL2, soluzione ideale per gli utilizzatori di LLM che utilizzano modelli più grandi o per applicazioni RAG; i server HPE ProLiant DL380a Gen12 può supportare fino a otto GPU NVIDIA H200 NVL Tensor Core; infine, la compagnia è pronta a supportare il GB200 NVL72 / NVL2 di NVIDIA e le nuove architetture Blackwell, Rubin e Vera.

"L'IA generativa e l'accelerazione del computing stanno alimentando una trasformazione fondamentale, che vede tutti i settori industriali correre per unirsi a questa rivoluzione industriale" ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA. "Mai prima d'ora NVIDIA e HPE hanno integrato così profondamente le proprie tecnologie - combinando l'intero stack di NVIDIA AI computing con la tecnologia di cloud privato di HPE - per fornire ai clienti enterprise e ai professionisti dell'AI l'infrastruttura di computing e i servizi più avanzati per espandere la frontiera dell'AI".

La disponibilità generale di HPE Private Cloud AI è prevista per l'autunno 2024. Il server HPE ProLiant DL380a Gen12 con GPU NVIDIA H200 NVL Tensor Core sarà generalmente disponibile per l'autunno del 2024, così come il server HPE ProLiant DL384 Gen12 con doppia GPU NVIDIA GH200 NVL2.

Infine, il server HPE Cray XD670 con NVIDIA H200 NVL sarà generalmente disponibile nei prossimi mesi.

Leggi altri articoli