Home Cloud Il deep learning su Microsoft Azure si fa con Gpu Nvidia A100

Il deep learning su Microsoft Azure si fa con Gpu Nvidia A100

Microsoft Azure ha annunciato la disponibilità generale delle VM serie ND A100 v4, le virtual machine più potenti, destinate a carichi di lavoro di intelligenza artificiale e HPC di classe supercomputer e potenziate dalle Gpu Nvidia A100 Tensor Core e da Nvidia HDR InfiniBand.

Nvidia stessa ha collaborato con Microsoft Azure per progettare questa nuova piattaforma d’intelligenza artificiale scale-up e scale-out, che combina le Gpu con architettura Nvidia Ampere, la tecnologia di networking Nvidia e la potenza dell’interconnessione ad alte prestazioni e del fabric di macchine virtuali di Azure per rendere il supercomputing basato su intelligenza artificiale accessibile a tutti.

Quando si cerca di risolvere grandi problemi nell’intelligenza artificiale e nell’High Performance Computing, la capacità di scalare è tutto, ha messo in evidenza Nvidia.

L’elaborazione del linguaggio naturale, i sistemi di raccomandazione, la ricerca sanitaria, la scoperta di farmaci e l’energia, tra le altre aree, sono tutti settori che hanno visto enormi progressi consentiti dal computing accelerato.

Molti di questi progressi sono venuti da applicazioni che operano su larga scala. Per accelerare questa tendenza, le applicazioni devono essere eseguite su un’architettura che è flessibile, accessibile e che può scalare sia verticalmente che orizzontalmente.

La virtual machine ND A100 v4 riunisce otto Gpu Nvidia A100 in una singola VM con Nvidia HDR InfiniBand, che abilita una larghezza di banda dati di 200 Gb/s per Gpu. Si tratta di una capacità enorme di 1,6 Tb/s di banda passante di interconnessione per VM.

E, per i carichi di lavoro IA e HPC più esigenti, possono essere ulteriormente scalate fino a migliaia di Gpu Nvidia A100 sotto lo stesso fabric InfiniBand a bassa latenza, fornendo sia la potenzia di computing che le capacità di networking per il calcolo distribuito multi-nodo.

Nvidia

Gli sviluppatori hanno varie opzioni per ottenere il massimo delle prestazioni dalle Gpu Nvidia A100 delle VM ND A100 v4, sia per lo sviluppo delle applicazioni che per la gestione dell’infrastruttura una volta che tali applicazioni vengono distribuite.

Per semplificare e accelerare lo sviluppo, il catalogo Nvidia NGC offre framework applicativi pronti all’uso ottimizzati per le Gpu, container, modelli pre-addestrati, librerie, SDK e grafici Helm. Sono anche disponibili immagini preconfezionate su Azure Marketplace, con cui gli sviluppatori possono iniziare a utilizzare il software accelerato dalle Gpu del catalogo NGC con pochi clic.

Le VM ND A100 v4 sono anche supportate dal servizio Azure Machine Learning per lo sviluppo interattivo di intelligenza artificiale, l’addestramento distribuito, l’inferenza in batch e l’automazione con ML Ops.

Il deployment delle pipeline di machine learning in produzione con le VM ND A100 v4 è ulteriormente semplificata grazie a Nvidia Triton Inference Server, un’applicazione open source di inferenza integrata con Azure ML per massimizzare le prestazioni e l’utilizzo di Gpu e Cpu e contribuire a ridurre al minimo i costi operativi di implementazione.

Inoltre, sviluppatori e gestori di infrastrutture saranno presto in grado di utilizzare Azure Kubernetes Service, un servizio Kubernetes completamente gestito, per distribuire e gestire applicazioni containerizzate sulle VM ND A100 v4, con Gpu Nvidia A100.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

css.php