Home Hardware Server Server Asus al vertice delle prestazioni di intelligenza artificiale

Server Asus al vertice delle prestazioni di intelligenza artificiale

Asus ha pubblicato per la prima volta i propri risultati da quando è entrata a far parte della MLCommons Association lo scorso dicembre.

E l’azienda ha annunciato di aver stabilito fin da subito nuovi record di prestazioni in dozzine di benchmark.

Nello specifico, durante l’ultimo round di MLPerf Inference 2.0 i server Asus hanno stabilito 26 record nella divisione Data Center Closed in sei attività di benchmark AI, superando tutti gli altri server con le stesse configurazioni GPU.

Il risultato – ha condiviso l’azienda – è stato ottenuto con 12 record raggiunti da un server Asus ESC8000A-E11 configurato con otto GPU Nvidia A100 Tensor Core da 80 GB.

Altri 14 record sono arrivati da un server Asus ESC4000A-E11 con quattro GPU Nvidia A30 Tensor Core da 24 GB.

Questi risultati – ha dichiarato l’azienda – mostrano l’eccellenza in termini di performance nell’arena dell’intelligenza artificiale dei server Asus, in grado di offrire un significativo valore aggiunto alle aziende, agli enti e alle società che necessitano di implementazioni AI-based e garantire prestazioni ottimali per i data center.

Il benchmark MLPerf Inference 2.0 simula sei comuni processi di calcolo inferenziale AI, tra cui la classificazione delle immagini (ResNet50), il rilevamento di oggetti (SSD-ResNet34), la segmentazione delle immagini mediche (3D-Unet), il riconoscimento vocale (RNN-T), l’elaborazione del linguaggio naturale (BERT) e la sua raccomandazione (DLRM).

L’Asus ESC8000A-E11 ha ottenuto diverse posizioni di leadership sulle prestazioni, tra cui:

  • Classificazione di immagini con 298.105 immagini elaborate al secondo in ResNet50
  • Riconoscimento degli oggetti con 7.462,06 immagini completate al secondo in SSD-ResNet34
  • Elaborazione di immagini mediche con 24,3 immagini processate al secondo in 3D-UNet
  • Completate 26.005,7 domande e risposte processate al secondo in BERT
  • Completate 2.363.760 previsioni di clic al secondo in DLRM
Division Task Model Results Accuracy Scenario Units
Data Center Closed Image
classification
ResNet50 210,011 99.00 Server queries/s
298,105 Offline samples/s
Object detection
(large)
SSD-ResNet34 7,096.10 99.00 Server queries/s
7,462.06 Offline samples/s
Medical imaging 3D-UNet 24.3 99.00 Offline samples/s
24.3 99.90 Offline samples/s
Speech-to-text RNN-T 94,996.9 99.00 Server queries/s
102,738 Offline samples/s
Natural-language processing BERT 23,489.5 99.00 Server queries/s
26,005.7 Offline samples/s
11,491.3 99.90 Server queries/s
13,168.2 Offline samples/s
Recommendation DLRM 1,601,300 99.00 Server queries/s
2,363,760 Offline samples/s
1,601,300 99.90 Server queries/s
2,363,760 Offline samples/s

 

ASUS Server

L’Asus ESC4000A-E11 ha ottenuto a sua volta posizioni di vertice nelle prestazioni in diversi ambiti, tra cui:

  • Classificazione di immagini con 73.814,5 immagini elaborate al secondo in ResNet50
  • Riconoscimento degli oggetti con 1.957,18 immagini completate al secondo in SSD-ResNet34
  • Elaborazione di immagini mediche con 6,83 immagini processate al secondo in 3D-UNet
  • Completate 27.299,2 conversioni di riconoscimento vocale al secondo in RNNT
  • Completate 6.896,01 domande e risposte al secondo in BERT
  • Completate 574.371 previsioni di clic al secondo in DLRM
Division Task Model Results Accuracy Scenario Units
Data Center Closed Image
classification
ResNet50 68,192 99.00 Server queries/s
73,814.5 Offline samples/s
Object detection
(large)
SSD-ResNet34 1,886.75 99.00 Server queries/s
1,957.18 Offline samples/s
Medical imaging 3D-UNet 6.83 99.00 Offline samples/s
6.83 99.90 Offline samples/s
Speech-to-text RNN-T 17,391.4 99.00 Server queries/s
27,299.2 Offline samples/s
Natural-language processing BERT 6,367.97 99.00 Server queries/s
6,896.01 Offline samples/s
2,917.66 99.90 Server queries/s
3,383.03 Offline samples/s
Recommendation DLRM 560,158 99.00 Server queries/s
574,371 Offline samples/s
560,158 99.90 Server queries/s
574,371 Offline samples/s

La dozzina di record MLPerf Inference 2.0 stabiliti dal server Asus 4U ESC8000A-E11 certificato Nvidia e configurato con otto GPU Nvidia A100 PCIe Tensor Core da 80 GB e due CPU AMD Epyc 7763 – ha affermato l’azienda –, dimostra la sua eccezionale scalabilità per applicazioni che coinvolgono l’intelligenza artificiale e l’apprendimento automatico.

Il suo design termico ottimizzato, con tunnel per il flusso d’aria indipendenti per CPU e GPU, offre soluzioni di raffreddamento ad alta efficienza ai data center raffreddati ad aria.

L’Asus ESC4000A-E11 – che ha stabilito un totale di 14 record MPLerf Inference 2.0 – è un server certificato Nvidia compatto, alloggiato nel formato 2U e configurato con quattro GPU Nvidia A30 PCIe Tensor Core da 24 GB e due CPU AMD Epyc 7763.

Offre un’ampia gamma di acceleratori grafici, oltre al supporto per l’interconnessione GPU ad alta velocità Nvidia NVLink, per esprimere le massime prestazioni in ambito AI.

Maggiori informazioni sui server Asus sono disponibili sul sito dell’azienda.

Leggi tutti i nostri articoli su Asus

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

css.php