Datacenter, voraci energivori da educare

Tra alimentazione e raffreddamento, le sale dati generano bollette in aumento. Se i produttori da tempo pensano a soluzioni ottimizzate, solo tra i grandi utenti emerge il problema

Il nuovo assillo degli It manager che hanno a che fare con la gestione di datacenter si chiama energia elettrica. L’argomento non è da poco, per le tasche degli utenti, specie se il datacenter è fatto da centinaia o migliaia di sistemi. Sull’onda del fenomeno, i principali produttori di infrastrutture stanno focalizzando l’attenzione sulle metodiche atte a generare risparmio. Vediamo cosa ne pensano due produttori di sistemi di alimentazione e raffreddamento e due big dell’ambito server.


I protagonisti del «freddo»…


I due grandi fattori energivori all’interno di un datacenter sono l’alimentazione e il raffreddamento. «Gli elementi di alimentazione di un datacenter, prima di arrivare ai server e allo storage, devono essere ottimizzati attraverso la dotazione di Ups efficienti – ha spiegato Giordano Albertazzi, amministratore delegato di Emerson Network Power Italia -. Inoltre, spesso gli Ups non lavorano per quello per cui sono stati progettati, provocando dissipazioni, perché nel frattempo è cambiato il tipo di carico elettrico dei sistemi It, diventando da resistivo a capacitivo». La prima raccomandazione del manager, dunque, è quella di installare Ups di ultima generazione.


Ma, più che l’alimentazione, è possibile ottimizzare il condizionamento. «La densità sta aumentando in modo esponenziale – ha precisato Albertazzi -. Ciò significa che la dimensione di un datacenter, a parità di capacità di elaborazione, diminuisce. Ma i sistemi di raffreddamento odierni consentono di risparmiare. Un esempio: moltiplicando di dieci volte la densità di un datacenter, si riducono anche del 30/40% i costi di energia». Dunque, più la potenza è concentrata, più può aumentare l’efficienza nella gestione del calore. Alla concentrazione i diversi vendor di “precision cooling” danno risposte differenti. «Non esiste una sola soluzione, anche perché spesso si lavora su datacenter preesistenti – ha precisato il manager -. Noi teorizziamo un approccio adattivo che permetta di far evolvere l’infrastruttura, aggiungendo sistemi di raffreddamento mano a mano che aumenta la densità. Ma, nel caso di potenze elevate, con 24 o 25 chilowatt per rack, consigliamo di isolare e raffreddare il singolo armadio». In questo modo non si incide sui parametri termodinamici dell’ambiente e si diminuisce la quantità di aria che deve essere messa in circolazione. Una ulteriore “iniezione” di efficienza, in combinazione con gli armadi chiusi, è data da una tecnologia che Emerson utilizza in esclusiva: permette di variare la potenza frigorifera seguendo puntualmente il carico termico delle macchine.


Se sul fronte dell’alimentazione anche Apc consiglia di dotarsi di Ups ad alta efficienza, su quello del condizionamento propone altre “armi”. «Per garantire la disponibilità bisogna gestire l’alta densità nei rack, con il calore in continuo aumento – ha spiegato Fabio Bruschi, country manager di Apc Italia – . Il surriscaldamento può paralizzare il funzionamento di un datacenter». Nel contesto del controllo del Tco, d’altra parte, è necessario ridurre i costi operativi dati dall’energia. «Bisogna dotarsi di sistemi di cooling efficienti e dedicati non genericamente alla stanza – ha precisato Bruschi – ma alle zone dove c’è alta densità. Ciò permette di non sprecare energia». Questa regola, che è in genere messa in pratica mediante il principio dei corridoi caldi e freddi, Apc l’ha massimizzata agendo a livello di gruppo di rack ed estraendo aria calda dalle zone interessate con un sistema posizionato internamente all’armadio: si crea, in questo modo, una depressione che permette di ottenere un delta di temperatura più basso tra la zona calda e quella fredda, a vantaggio dell’efficienza e, quindi, dello sforzo elettrico. Le “zone” sono realizzate isolando con porte e tetto il “cubo” tra due file di rack.


…e quelli del server computing.


Un’idea di come si stiano muovendo i produttori di infrastruttura propriamente It per ridurre il caro bolletta ce la danno Hp e Ibm. La prima, che sta lavorando da tempo tramite gli Hp Labs, sostiene di potere offrire tecnologia per il raffreddamento che abilita un miglioramento prestazionale fra il 25 e il 30%. E, se vale l’assioma sostenuto da Hp, per il quale per ogni dollaro investito in It se ne spende un altro in energia, si libererebbe il 15% del budget. In pratica, Hp porterà le istanze di controllo del consumo energetico e di raffreddamento all’attenzione di Hp OpenView. Concorreranno anche i nuovi ventilatori Active Cool, che debutteranno a breve nei blade.


Anche Ibm è sensibile all’argomento. «Limitare il consumo energetico produrrebbe benefici sia sulle tasche degli utenti It che sull’ambiente – ha esordito Fabrizio Renzi, Systems and Technology Group Italia technical director -. Se si sostituissero tutti i mainframe installati con il modello successivo, si genererebbe nella sola Italia un risparmio di 428 tonnellate equivalenti di petrolio. Questo perché le nuove generazioni di macchine portano migliorie sul fronte del consumo». E il mainframe, sostiene Ibm, è la macchina che consuma meno in assoluto perché offre il massimo consolidamento fisico. Ma il vendor lavora anche sulle piattaforme Intel e sul midrange. Per le prime, sostiene di offrire sistemi blade che consumano il 53% in meno rispetto ai server della concorrenza, grazie al packaging realizzato attorno alle piattaforme low power. Sul midrange cita il miglioramento del 20% di prestazioni erogate a parità di potenza, nel passaggio tra la generazione di chip Power4 e Power5. «Un’altra area dove stiamo operando è quella dei supercomputer – ha aggiunto il manager -. Una macchina come Blue Gene utilizza 2 megawatt di potenza, mentre se fosse stata realizzata con una tecnologia precedente avrebbe consumato 100 volte di più». Non si sceglie una piattaforma solo in base al consumo energetico, osserva Ibm, ma a parità di fascia di macchine, allora il fattore balza in primo piano. La ricerca di Big Blue sta ottimizzando anche il raffreddamento dei sistemi. «Si sta valutando con molta attenzione il raffreddamento ad acqua – ha raccontato Renzi -. Questa tecnica, utilizzata storicamente sui mainframe e poi abbandonata, sta tornando in auge». Nell’ultima generazioni dei processori per mainframe, non a caso, esiste un circuito interno con liquido refrigerante.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome