Home Prodotti Hardware Come Nvidia accelera la creazione di intelligenza artificiale

Come Nvidia accelera la creazione di intelligenza artificiale

La conferenza GTC di Nvidia è stata l’occasione per l’azienda di annunciare numerose novità, tecnologiche e di prodotto, molte delle quali presentate al keynote dal fondatore e CEO di Nvidia, Jensen Huang.

Delle novità riguardanti Nvidia Omniverse abbiamo già parlato e, oltre a quelle, Jensen Huang ha presentato nuove soluzioni hardware per intelligenza artificiale e calcolo accelerato e potenti sistemi per data center.

Ma, innanzitutto, il CEO di Nvidia ha condiviso la visione dell’azienda, di un’era in cui l’intelligenza viene creata su scala industriale e intessuta nei mondi reali e virtuali.

Per alimentare questi ambiziosi obiettivi, c’è bisogno per prima cosa di un nuovo e potente silicio. La nuova Nvidia H100 è basata sull’architettura Hopper ed è stata presentata come il “nuovo motore delle infrastrutture di intelligenza artificiale del mondo“.

Le applicazioni di intelligenza artificiale come il parlato, la conversazione, il servizio clienti e i sistemi di suggerimento stanno guidando cambiamenti fondamentali nella progettazione dei data center.

Nvidia

I data center di intelligenza artificiale elaborano enormi quantità di dati continui per addestrare e perfezionare i modelli, al fine di produrre intelligenza.

Il funzionamento delle fabbriche è 24/7 e intenso: piccoli miglioramenti nella qualità determinano un aumento significativo nel coinvolgimento dei clienti e nei profitti dell’azienda. H100 – ha sottolineato Nvidia – aiuterà queste fabbriche a funzionare più velocemente.

Il nuovo silicio di Nvidia

Il chip da 80 miliardi di transistor utilizza il processo 4N di TSMC. Hopper H100 è stato descritto da Nvidia come il più grande salto generazionale di sempre: nove volte le prestazioni di training su scala rispetto ad A100 e 30 volte il throughput di inferenza dei large-language-model.

L’architettura GPU Nvidia Hopper – ha affermato l’azienda – accelererà il dynamic programming, una tecnica di risoluzione dei problemi utilizzata negli algoritmi per la genomica, il calcolo quantistico, l’ottimizzazione dei percorsi e altro ancora.

Lo accelererà, sostiene Nvidia, di un fattore fino a 40x grazie alle nuove istruzioni DPX.

Nvidia

DPX è un set di istruzioni integrato nelle GPU Nvidia H100 che aiuterà gli sviluppatori a scrivere codice per ottenere un’accelerazione degli algoritmi di programmazione dinamica in molteplici settori, potenziando i flussi di lavoro per la diagnosi delle malattie, la simulazione quantistica, la graph analytics e le ottimizzazioni del routing.

H100 è in produzione, ha annunciato Nvidia, con disponibilità prevista a partire dal Q3.

Nvidia ha anche annunciato Grace CPU Superchip, la prima CPU discreta per data center dell’azienda, per l’high-performance computing.

Nvidia

Comprende due chip CPU collegati tramite un’interconnessione chip-to-chip NVLink da 900 gigabyte al secondo per creare una CPU a 144 core con 1 terabyte al secondo di banda passante di memoria.

Grace – ha sottolineato Nvidia – è la CPU ideale per le infrastrutture di intelligenza artificiale delle aziende di tutto il mondo.

I supercomputer con il turbo

Nvidia ha poi annunciato nuovi supercomputer di intelligenza artificiale basati su GPU Hopper: DGX H100, H100 DGX POD e DGX SuperPOD.

I sistemi DGX H100 offrono la scala richiesta per soddisfare i requisiti di calcolo di grandi modelli linguistici, sistemi di raccomandazione, ricerca sanitaria e scienze climatiche.

Dotato di otto GPU Nvidia H100 per sistema, collegate tra loro da Nvidia NVLink, ogni DGX H100 fornisce 32 petaflop di prestazioni di intelligenza artificiale alla nuova precisione FP8: sei volte di più della generazione precedente.

I sistemi DGX H100 sono gli elementi costitutivi delle piattaforme di infrastruttura AI di nuova generazione Nvidia DGX POD e DGX SuperPOD. L’ultima architettura DGX SuperPOD presenta un nuovo sistema di switch Nvidia NVLink che può collegare fino a 32 nodi con un totale di 256 GPU H100.

Fornendo un exaflop di prestazioni AI FP8, la nuova generazione di DGX SuperPOD espande le frontiere dell’intelligenza artificiale con la capacità di eseguire carichi di lavoro LLM massivi con trilioni di parametri.

Nvidia

Nvidia sarà la prima a costruire un DGX SuperPOD con la nuova e rivoluzionaria architettura AI per potenziare il lavoro dei suoi ricercatori che operano nei campi della scienza del clima, biologia digitale e il futuro dell’intelligenza artificiale.

L’azienda prevede che il suo supercomputer Eos possa rappresentare il sistema di intelligenza artificiale più veloce al mondo, quando entrerà in funzione nel corso di quest’anno, con un totale di 576 sistemi DGX H100 con 4.608 GPU DGX H100.

Nvidia

Per collegare il tutto, la nuova tecnologia di interconnessione ad alta velocità NVLink di Nvidia arriverà su tutti i futuri chip dell’azienda: CPU, GPU, DPU e SOC.

Il CEO dell’azienda ha anche annunciato che Nvidia renderà NVLink disponibile a clienti e partner per la costruzione di chip complementari.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php