Cerebras

Cerebras Systems è una società californiana che può contare su un team di computer architect, computer scientist e ricercatori di deep learning.

Lo scorso agosto, Cerebras si era presentata con l’annuncio del Wafer-Scale Engine (WSE), descritto come il più grande chip commerciale mai prodotto e il primo processore dalle dimensioni pressoché di un intero wafer, progettato e costruito da zero per risolvere il problema del computing per il deep learning.

Il WSE è composto da 1.200 miliardi di transistor, impacchettati su un singolo chip con 400.000 core ottimizzati per l’intelligenza artificiale e collegati tramite un’interconnessione a 100 Pbit/s. I core, spiega Cerebras, sono alimentati da 18 GB di on-chip memory superveloce, con un valore record di 9 PB/s di larghezza di banda di memoria.

Un componente, il WSE, sicuramente notevole, ma che costituisce solo una parte della soluzione di calcolo per l’intelligenza artificiale di Cerebras.

L’azienda ha infatti presentato, a completamento di questo progetto ambizioso, il Cerebras CS-1, che il produttore con orgoglio (e una certa enfasi) descrive come “il sistema di elaborazione di deep learning più veloce al mondo”.

Certamente, in abbinamento al chip WSE e alla piattaforma software Cerebras, si tratta di una soluzione abbastanza unica nel suo genere.

Cerebras spiega che già dalla progettazione del Wafer-Scale Engine era consapevole che un chip di questo tipo necessitava di un sistema e di software all’altezza, per poter offrire la performance di cui era capace.

Nel CS-1, sottolinea ancora l’azienda, tutti gli aspetti della soluzione funzionano in sinergia per offrire prestazioni di intelligenza artificiale senza precedenti e, al contempo, facilità d’uso.

Già il solo alimentare, raffreddare e fornire i dati al processore di tali dimensioni, evidenzia l’azienda, ha rappresentato una sfida estremamente impegnativa. CS-1 è il risultato di questo lavoro di ricerca e progettazione.

Il sistema si adatta all’infrastruttura standard dei data center così come ai protocolli di comunicazione standard del settore. È alto 26 pollici (15 unità rack) e occupa un terzo di un rack standard per data center.

Vi si possono inserire dati alla velocità di 1,2 Terabit al secondo, attraverso dodici lane Ethernet da 100 Gigabit, ed è alimentato con prese di alimentazione standard IEC C20 16A e raffreddato con aria dell’ambiente.

La piattaforma software Cerebras è stata anch’essa progettata per una stretta integrazione con il WSE, per poter sfruttare appieno le risorse computazionali del chip e, allo stesso tempo, per consentire ai ricercatori di programmare utilizzando framework di machine learning standard del settore, come TensorFlow e PyTorch, senza modifiche. Il software fornisce inoltre un ricco set di strumenti per introspect e debug e API del kernel di basso livello per estendere la piattaforma.

Tutto questo, assicura il produttore, comporta prestazioni di deep learning di livello elevato in una configurazione realmente plug-and-play. Secondo Cerebras, a differenza dei cluster di GPU, che possono richiedere settimane o mesi per l’installazione, richiedono ampie modifiche ai modelli esistenti, occupano dozzine di rack del data center e comportano altre complicazioni, il sistema CS-1 richiede pochi minuti per essere pronto a iniziare a eseguire il training dei modelli.

Cerebras CS-1 si presenta dunque come soluzione integrata, ad alte prestazioni e facile da programmare, per sbloccare il pieno potenziale dell’intelligenza artificiale, e a sua volta clusterizzabile per ottenere una performance su scala ancora più elevata.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome