Home Datacenter Schneider Electric: come ottimizzare i data center nell’era dell’intelligenza artificiale

Schneider Electric: come ottimizzare i data center nell’era dell’intelligenza artificiale

Schneider Electric, lo specialista della trasformazione digitale della gestione dell’energia e dell’automazione, ha presentato la prima guida dedicata alle nuove sfide da affrontare nella progettazione dell’infrastruttura fisica dei data center per supportare i carichi di lavoro basati sull’intelligenza artificiale. L’obiettivo – spiega l’azienda – è creare uno standard ideale per la progettazione di data center ottimizzati per l’AI.

Il White Paper 110 di Schneider Electric, che si intitola “The AI Disruption: Challenges and Guidance for Data Center Design”, fornisce informazioni di grande valore e vuole creare un modello completo, a disposizione delle aziende che vogliono fare in modo che l’IA possa dispiegare nei loro data center tutto il suo potenziale; il documento comprende anche uno sguardo sul futuro, relativo alle tecnologie emergenti che potranno supportare i cluster AI ad alta densità.

L’intelligenza artificiale ha prodotto cambiamenti dirompenti e presenta sfide molto rilevanti in termini di progettazione e operatività dei data center, sottolinea Schneider Electric. Oggi le applicazioni basate su AI sono sempre più diffuse e producono un impatto importante nei settori più diversi – sanità, finanza, manifattura, trasporti, intrattenimento e così via – facendo crescere la domanda di potenza di calcolo. Per i data center, ciò significa anche doversi adattare in modo efficace alla parallela evoluzione della domanda di energia scatenata da questo fenomeno.

Un approccio pionieristico, per il futuro della progettazione data center

Le previsioni – mette in evidenza Schneider Electric – ci dicono che i carichi di lavoro AI aumenteranno a un tasso di crescita annuale composto (CAGR) tra il 26 e il 36% entro il 2028, portando con sé un aumento della domanda di energia nei data center esistenti e di nuova costruzione. Si parla di un consumo che si collocherà tra soli 5 anni tra i 13,5 e i 20 Gigawatt – rispetto ai 4,3 Gigawatt odierni –; se oggi i carichi di lavoro AI rappresentano l’8% del totale, nel 2028 rappresenteranno tra il 15 e il 20% del totale.

Riuscire a gestire la domanda di energia prevista dipende da una serie di fattori, che sono descritti nel White Paper e riguardano quattro aspetti dell’infrastruttura fisica: l’alimentazione elettrica, il raffreddamento, i rack e gli strumenti software dedicati.

In un’era in cui l’intelligenza artificiale sta già cambiando il volto di molti settori e sta ridefinendo il concetto di competitività, il documento proposto da Schneider Electric offre alle aziende una strada da percorrere per progettare data center che non siano semplicemente in grado di “supportare” questa tecnologia, bensì che siano totalmente ottimizzati per dare il meglio con l’intelligenza artificiale. Il White Paper introduce prototipi e best practice innovativi e – dal punto di vista dell’azienda – porta Schneider Electric al primo posto nella “corsa” all’evoluzione dell’infrastruttura data center.

Il continuo avanzamento dell’AI sottopone la gestione e la progettazione di un data center a uno sforzo senza precedenti. Per affrontare queste sfide è importante prendere in considerazione i principali attributi e trend dei carichi di lavoro di intelligenza artificiale, che possono avere impatto sui data center esistenti ma anche su quelli ancora da costruire”, ha dichiarato Pankaj Sharma, Executive Vice President, Secure Power Division and Data Center Business di Schneider Electric. “Le applicazioni di AI – specialmente i cluster di Training – richiedono un’elevata capacità computazionale ed assorbono grandi quantità di potenza per via dell’utilizzo di GPU o di acceleratori specializzati per AI. Questo mette sotto pressione in modo significativo l’infrastruttura di alimentazione e di raffreddamento dei data center. In un contesto di costi energetici in aumento e di preoccupazione per l’impatto ambientale della tecnologia, i data center devono evolvere attraverso hardware ad elevata efficienza energetica e l’utilizzo di fonti di energia rinnovabili, per aiutare a ridurre sia i costi operativi sia le emissioni”.

Il nuovo modello proposto, sottolinea l’azienda, è stato valutato positivamente dai clienti di Schneider Electric.

“Il mercato dell’AI è in rapida crescita e crediamo diventerà una tecnologia fondamentale per consentire alle imprese di ottenere risultati sempre più velocemente, e di aumentare in modo significativo la produttività” ha commentato Evan Sparks, Chief Product Officer for Artificial Intelligence di HPE.

Se l’AI diventa un carico di lavoro dominante nel data center, bisogna iniziare a pensare fin dall’inizio a come progettare uno stack completo di tecnologie per risolvere i problemi che l’AI crea. Vediamo già un’enorme domanda di acceleratori di calcolo AI ma trovare l’equilibro con il livello giusto di storage e di fabric e supportare esigenze di questa scala richiede piattaforme software ben disegnate. Per affrontare queste necessità le aziende dovrebbero cercare soluzioni come software specializzati per lo sviluppo e la gestione dei dati per il machine learning, che offrano visibilità sull’uso dei dati e permettano di assicurarsi, prima dell’implementazione, di avere dati sicuri e affidabili. Con software di questo tipo, uniti all’adozione di soluzioni data center end-to-end progettate per rendere più sostenibile questo livello di potenza di calcolo, permettiamo ai nostri clienti di progettare e implementare con successo, e in modo responsabile, le applicazioni basate sull’intelligenza artificiale”.

Liberare tutto il potenziale dell’AI

La guida di Schneider Electric per un Data Center AI-Ready esplora gli snodi critici dell’intersezione tra AI e infrastruttura data center, prendendo in considerazione alcuni elementi chiave.

  • Spiega quali sono i quattro attributi più importanti dei carichi di lavoro AI i trend che presentano sfide per l’infrastruttura fisica in termini di alimentazione, raffreddamento, rack e software di gestione.
  • Raccomanda come calcolare e come supportare le densità di potenza rack estreme tipiche dei server di training per l’intelligenza artificiale.
  • Fornisce indicazioni per passare con successo dal raffreddamento ad aria al liquid cooling per supportare la potenza termica (thermal design power – TDP) dissipata dai carichi di lavoro AI.
  • Propone specifiche per i rack, pensate per adeguarsi ai server AI che richiedono elevata potenza di alimentazione, collettori e tubature per il cooling e un gran numero di cavi di rete.
  • Spiega come usare i software di gestione dell’infrastruttura data center (DCIM), i sistemi di gestione dell’energia elettrica (EPMS) e i sistemi di gestione dell’edificio (BMS) per creare dei digital twin del data center in ottica di struttura, operatività e gestione degli asset.
  • Offre uno sguardo sul futuro, considerando le tecnologie emergenti e nuovi approcci di progettazione che possono aiutare ad affrontare l’evoluzione dell’intelligenza artificiale.

Per maggiori informazioni sulle soluzioni e sulle competenze AI applicate ai data center di Schneider Electric è possibile visitare la sezione dedicata del sito dell’azienda.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

Iscriviti alla newsletter

css.php