Home Digitale È di Nvidia il server integrato per intelligenza artificiale e data science

È di Nvidia il server integrato per intelligenza artificiale e data science

Nvidia DGX Station A100 è un potente workgroup server petascale, seconda generazione del sistema per l’intelligenza artificiale dello specialista delle GPU: è progettato per accelerare i più impegnativi workload di machine learning e data science per i team che lavorano in reparti di aziende, strutture di ricerca, laboratori o home office.

DGX Station A100 è l’unico server per gruppi di lavoro sul mercato con quattro delle più recenti GPU Nvidia A100 Tensor Core interamente interconnesse con Nvidia NVLink: offre fino a 320 GB di memoria della GPU e prestazioni da 2,5 petaflop per accelerare la ricerca e lo sviluppo nella data science enterprise e nell’intelligenza artificiale.

Il sistema DGX Station A100 è anche l’unico workgroup server che supporta la tecnologia MIG (Multi-instance GPU) di Nvidia.

Grazie a MIG, un singolo DGX Station A100 fornisce fino a 28 istanze GPU separate per eseguire carichi di lavoro in parallelo e supportare più utenti senza influire sulle prestazioni del sistema.

A illustrare il target e l’ambizione del prodotto è Charlie Boyle, vice presidente e direttore generale dei sistemi DGX di Nvidia: DGX Station A100 è un Data-Center-in-a-Box progettato per portare l’intelligenza artificiale fuori dal data center con un sistema di classe server che può essere collegato ovunque e con cui i team di ricercatori di scienza dei dati e di intelligenza artificiale possono accelerare il loro lavoro usando lo stesso stack software dei sistemi DGX A100, cosa che permette loro di scalare facilmente dallo sviluppo al deployment.

Diverse organizzazioni di tutto il mondo, ha sottolineato Nvidia, hanno adottato la DGX Station per potenziare intelligenza artificiale e data science in settori quali l’istruzione, i servizi finanziari, il governo, la sanità e il retail; tra queste: BMW Group Production, DFKI (Deutsches Forschungszentrum für Künstliche Intelligen, il Centro di ricerca tedesco per l’intelligenza artificiale), Lockheed Martin, Pacific Northwest National Laboratory e NTT Docomo.

Anche se DGX Station A100 non richiede alimentazione o raffreddamento di tipo data-center, si tratta di un sistema di classe server che presenta le stesse capacità di gestione remota dei sistemi DGX A100.

Gli amministratori di sistema, spiega Nvidia, possono facilmente eseguire qualsiasi attività di gestione su una connessione remota quando i data scientist e i ricercatori lavorano a casa o in laboratorio. DGX Station A100 è disponibile con quattro GPU Nvidia A100 Tensor Core da 80 GB o 40 GB.

Invece, per i carichi di lavoro avanzati dei data center, i sistemi DGX A100 saranno disponibili con le nuove GPU Nvidia A100 80 GB, raddoppiando la capacità di memoria delle GPU a 640 GB per sistema per consentire ai team di intelligenza artificiale di aumentare la precisione con set di dati e modelli più grandi.

I nuovi sistemi DGX A100 640 GB possono anche essere integrati nella soluzione Nvidia DGX SuperPOD per le imprese, consentendo alle organizzazioni di costruire, addestrare e distribuire massicci modelli di intelligenza artificiale su supercomputer dedicati chiavi in mano disponibili in unità di 20 sistemi DGX A100.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

css.php