HPE abilita AI e supercalcolo con il suo sistema basato su NVIDIA GB200 NVL72

HPE nvidia

HPE ha annunciato la spedizione della sua prima soluzione basata sulla famiglia di GPU NVIDIA Blackwell, il NVIDIA GB200 NVL72. Questo sistema rack-scale è progettato per aiutare i provider di servizi AI e le grandi aziende a implementare cluster di intelligenza artificiale su larga scala con raffreddamento a liquido diretto, ottimizzando così efficienza e prestazioni.

Il NVIDIA GB200 NVL72 integra 72 GPU Blackwell e 36 CPU Grace, interconnesse tramite NVIDIA NVLink, una tecnologia che garantisce memoria condivisa a bassa latenza, essenziale per gestire modelli di oltre un trilione di parametri in un unico spazio di memoria.

HPE e NVIDIA: le specifiche tecniche principali del sistema

  • 72 NVIDIA Blackwell GPU e 36 CPU Grace, collegate con NVIDIA NVLink ad alta velocità
  • Fino a 13,5 TB di memoria HBM3e, con una larghezza di banda di 576 TB/sec
  • Integrazione completa di CPU, GPU, tray di calcolo, networking e software NVIDIA
  • Architettura ottimizzata per carichi AI altamente paralleli, come addestramento e inferenza di modelli di AI generativa

Secondo Trish Damkroger, SVP e GM di HPC & AI Infrastructure Solutions in HPE: “I provider di servizi AI e le grandi aziende devono offrire scalabilità, prestazioni estreme e rapidità di implementazione. Grazie alla nostra leadership nel raffreddamento a liquido diretto e nella costruzione dei supercomputer più veloci al mondo, HPE offre ai clienti un costo per token inferiore e prestazioni best-in-class.”

Raffreddamento a liquido diretto: un vantaggio competitivo

Con l’aumento dei consumi energetici e la crescente densità dei data center, la necessità di raffreddamento efficiente è cruciale. HPE vanta cinque decenni di esperienza nel raffreddamento a liquido, consentendo un’implementazione rapida e un’infrastruttura affidabile anche negli ambienti più complessi.

Questa leadership ha portato HPE a costruire 7 dei 10 supercomputer più veloci al mondo e 8 dei 15 sistemi più efficienti in termini energetici, secondo la classifica Green500.

“Scienziati, ingegneri e ricercatori hanno bisogno di tecnologie di raffreddamento avanzate per soddisfare le crescenti esigenze di potenza e calcolo”, ha affermato Bob Pette, VP Enterprise Platforms di NVIDIA. “L’NVIDIA GB200 NVL72, in collaborazione con HPE, aiuterà i provider di servizi e le grandi aziende a scalare rapidamente i loro cluster AI.”

Servizi e supporto di livello enterprise

HPE offre soluzioni AI su scala globale, con una comprovata esperienza nella gestione di cluster AI personalizzati e di grandi dimensioni. I servizi includono:

???? Supporto ingegneristico on-site: tecnici specializzati per garantire prestazioni ottimali del sistema.
???? Performance tuning e benchmarking: team di esperti per ottimizzare il sistema durante tutto il suo ciclo di vita.
???? Servizi di sostenibilità: monitoraggio delle emissioni, workshop sull’efficienza energetica e gestione delle risorse per ridurre l’impatto ambientale.

Un nuovo standard per il supercalcolo e l’AI generativa grazie a HPE e NVIDIA

L’NVIDIA GB200 NVL72, ora disponibile attraverso HPE, fa parte di un ampio portafoglio di soluzioni di high-performance computing e supercomputing progettate per supportare AI generativa, ricerca scientifica e workload computazionali intensivi.

Questa piattaforma segna un passo avanti nell’intelligenza artificiale e nel supercomputing, combinando potenza, scalabilità ed efficienza energetica per affrontare le sfide più complesse del mondo digitale.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome