HPE ha annunciato la spedizione della sua prima soluzione basata sulla famiglia di GPU NVIDIA Blackwell, il NVIDIA GB200 NVL72. Questo sistema rack-scale è progettato per aiutare i provider di servizi AI e le grandi aziende a implementare cluster di intelligenza artificiale su larga scala con raffreddamento a liquido diretto, ottimizzando così efficienza e prestazioni.
Il NVIDIA GB200 NVL72 integra 72 GPU Blackwell e 36 CPU Grace, interconnesse tramite NVIDIA NVLink, una tecnologia che garantisce memoria condivisa a bassa latenza, essenziale per gestire modelli di oltre un trilione di parametri in un unico spazio di memoria.
HPE e NVIDIA: le specifiche tecniche principali del sistema
- 72 NVIDIA Blackwell GPU e 36 CPU Grace, collegate con NVIDIA NVLink ad alta velocità
- Fino a 13,5 TB di memoria HBM3e, con una larghezza di banda di 576 TB/sec
- Integrazione completa di CPU, GPU, tray di calcolo, networking e software NVIDIA
- Architettura ottimizzata per carichi AI altamente paralleli, come addestramento e inferenza di modelli di AI generativa
Secondo Trish Damkroger, SVP e GM di HPC & AI Infrastructure Solutions in HPE: “I provider di servizi AI e le grandi aziende devono offrire scalabilità, prestazioni estreme e rapidità di implementazione. Grazie alla nostra leadership nel raffreddamento a liquido diretto e nella costruzione dei supercomputer più veloci al mondo, HPE offre ai clienti un costo per token inferiore e prestazioni best-in-class.”
Raffreddamento a liquido diretto: un vantaggio competitivo
Con l’aumento dei consumi energetici e la crescente densità dei data center, la necessità di raffreddamento efficiente è cruciale. HPE vanta cinque decenni di esperienza nel raffreddamento a liquido, consentendo un’implementazione rapida e un’infrastruttura affidabile anche negli ambienti più complessi.
Questa leadership ha portato HPE a costruire 7 dei 10 supercomputer più veloci al mondo e 8 dei 15 sistemi più efficienti in termini energetici, secondo la classifica Green500.
“Scienziati, ingegneri e ricercatori hanno bisogno di tecnologie di raffreddamento avanzate per soddisfare le crescenti esigenze di potenza e calcolo”, ha affermato Bob Pette, VP Enterprise Platforms di NVIDIA. “L’NVIDIA GB200 NVL72, in collaborazione con HPE, aiuterà i provider di servizi e le grandi aziende a scalare rapidamente i loro cluster AI.”
Servizi e supporto di livello enterprise
HPE offre soluzioni AI su scala globale, con una comprovata esperienza nella gestione di cluster AI personalizzati e di grandi dimensioni. I servizi includono:
???? Supporto ingegneristico on-site: tecnici specializzati per garantire prestazioni ottimali del sistema.
???? Performance tuning e benchmarking: team di esperti per ottimizzare il sistema durante tutto il suo ciclo di vita.
???? Servizi di sostenibilità: monitoraggio delle emissioni, workshop sull’efficienza energetica e gestione delle risorse per ridurre l’impatto ambientale.
Un nuovo standard per il supercalcolo e l’AI generativa grazie a HPE e NVIDIA
L’NVIDIA GB200 NVL72, ora disponibile attraverso HPE, fa parte di un ampio portafoglio di soluzioni di high-performance computing e supercomputing progettate per supportare AI generativa, ricerca scientifica e workload computazionali intensivi.
Questa piattaforma segna un passo avanti nell’intelligenza artificiale e nel supercomputing, combinando potenza, scalabilità ed efficienza energetica per affrontare le sfide più complesse del mondo digitale.






