Home Datacenter Le undici regole per avere un data center a prova di futuro

Le undici regole per avere un data center a prova di futuro

Il tema dei data center è sempre più centrale nel mondo moderno: abbraccia una vastità di settori e professionalità e per comprenderlo bisogna orientarsi fra gestione ICT, energia, raffreddamento e sicurezza.

Per avere una visione chiara sui data center degli anni a venire e poter approntare le azioni corrette a livello progetuiale e gestionale, le testate 01net, Ambiente & Sicurezza, L’Impianto ElettricoRCI e Sicurezza, hanno organizzato a Milano, presso la sede di Tecniche Nuove il primo Data Center Innovation Day italiano.

I dieci concetti (più uno) che consentono di definire il data center del futuro emersi al termine della giornata di lavori sono sintetizzabili come segue.

Il data center del futuro deve essere:

Sicuro per le persone
Vicino al dato
A controllo circolare
Costantemente misurato
Con Ups attivi
Prosumer di energia
A clima dinamico
A raffreddamento modulare
Autonomo e integrato
Continuamente efficiente
Always on

Questi concetti sono l’estrema sintesi derivata dal susseguirsi degli interventi, che sono iniziati con il punto di vista tecnico generale offerto dall’Ingegner Domenico Trisciuoglio.

L’industry automation, ha esordito Trisciuoglio, è oggi centrale, e questo certamente non può prescindere dal vasto uso di IoT. L’industry automation ragiona ormai livello internazionale, con sedi sparse ovunque: vere un accesso completo ed efficace ai dati prodotti  permette l’ottimizzazione dei processi industriali. Analoga riflessione può quindi essere fatta per office automation e home automation.

Domenico Trisciuoglio

Il risultato dell’evoluzione verso l’industry 4.0 per Trisciuoglio è stato un enorme aumento dei dati generati, il cui ordine di grandezza è passato dai Terabyte agli Zettabyte.

Poter sfruttare e manipolare efficacemente una simile mole di informazioni richiede una gestione diversa della elaborazione dati; il settore dei datacenter è conseguentemente diventato essenziale. Al punto che una interruzione del servizio di un data center ha conseguenze devastanti, con perdite economiche virtualmente incalcolabili.

Categorie e classi di ridondanza

I data center sono di diverse categorie.

  • Internet datacenter accessibili a tutti, per applicazioni come Google
  • Data center aziendali, limitati ad una singola azienda
  • Data center per uffici, spesso un semplice armadio
  • Data center medi, con locali dedicati
  • Data center per large enterprise, spesso grandi interi edifici

Nella progettazione di un data center, è cruciale l’alimentazione elettrica. Sono diversi i nodi di cui tenere conto. Prima di tutto la continuità di servizio, garantita da gruppi di continuità, gruppo elettrogeno e trasformatori.

Si può poi ritenere che bastino tre diversi fonti di alimentazione elettrica? La risposta, continua Trisciuoglio, è no.

Ed è per questo che viene introdotto il concetto della ridondanza della componentistica, peraltro indispensabile per ottenere la certificazione Tier, rilasciata dall’Uptime Institute

L’Uptime Institute, fondato nel 1993, è l’ente che ha creato una classificazione di ridondanza crescente, divisa in Tier 1,2, 3,4. La base per ottenere Tier 1 è che sia possibile garantire il 99,67% di disponibilità del servizio, con 28.8 ore di interruzione nel corso di un intero anno. La classificazione più esigente è Tier 4; un datacenter tier 4 è virtualmente privo di alcun difetto. L’uptime annuo è del 99.995%, l’infrastruttura ha livelli di ridondanza 2N+1, e (a titolo di paragone) nel corso di un anno il downtime non supera i 26.3 minuti.

Questo si ottiene con una estrema applicazione di ridondanza del maggior numero possibile di elementi che contribuiscono alla continuità di servizio. A partire dal punto di alimentazione in media tensione, ad esempio, si utilizzano due origini diverse di fonte di energia.

Ogni livello di Tier comporta ingenti aumenti di costi di progettazione e realizzazione, che devono successivamente essere validati da Uptime Institute. Questo permette di capire facilmente quanto sia economicamente preziosa la gestione delle informazioni digitali.

Sergio Giacomo Carrara ABB

L’ing. Sergio Giacomo Carrara, Formazione Tecnica di ABB, ha parlato di efficienza energetica del datacenter, in particolare dal punto di vista del mondo UPS. Le soluzioni di ABB hanno un livello di efficienza altissimo, nei fatti mai inferiore al 96%. Non solo: grazie a un sofisticato (ed efficace) sistema di standby dinamico, ABB è in grado di utilizzare ciclicamente i vari moduli per evitare l’eccessiva usura di alcuni e l’inutilizzo di altri.

Inoltre, anche laddove il carico fosse minimo, il sistema di ABB è in grado di attivare solo i moduli necessari, lasciando gli altri in standby. Su sistemi da 250 kW (ad esempio), si traduce in risparmi di molte migliaia di euro annui: un chiaro esempio di efficienza facilmente quantificabile. Queste profonde digitalizzazioni ed ottimizzazioni hanno consentito importanti migliorie da ogni prospettiva: emissione di CO2, consumo energetico, affidabilità dei sistemi, e (non meno importante) riduzione degli ingombri. Anche questoè spesso un fattore critico all’interno dei data center.

Carrara ha ricordato anche come la manutenzione predittiva, abilitata dalla intelligenza artificiale, costituisca un importante step verso l’affidabilità totale.

Giuseppe Leto Siemens

Per Siemens, è intervenuto l’Ing. Giuseppe Leto, Global Portfolio Manager Vertical Market Data Center. Gli Autonomous Datacenter, ha detto, sono oggi una realtà: i cloud provider investono in applicazioni cloud, e i datacenter stanno aumentando in dimensione coerentemente.

La ricerca dell’autonomia

Il mercato ne riceve una spinta davvero imponente, e oggi non è più un tabù parlare di centinaia di megawatt per singolo datacenter. Se questo vi suonasse poco familiare, considerati che parliamo di valori sufficienti ad alimentare centinaia di migliaia di case.

Al lato opposto del mercato, la tecnologia 5G farà esplodere un nuovo settore, quello dell’edge datacenter: si tratta di lavorare i dati dove vengono prodotti, senza inviarli nel cloud.

Questo è dovuto anche all’esigenza di latenze basse o nulle, e contribuirà alla nascita di nuovi operatori del settore.

Il monitoraggio di grandi quantità di device IIoT permette di realizzare efficaci attività di predictive maintenance. Anche il cooling sta assistendo ad un percorso fortemente portato alla efficienza energetica, che oggi è praticamente allo stato dell’arte. Solo un intenso uso di software innovativi può aiutare la riduzione dei consumi, portando efficienza aggiuntiva fino al 30% del sistema.

Ad esempio, attraverso la riduzione della potenza di calcolo, laddove non sia essenziale la massima performance (pur senza interrompere in alcun modo il servizio). In questo modo è possibile conseguire efficienze energetiche di grande valore, senza virtualmente alcun impatto verso il cliente.

Infatti non tutte le attività, continua Leto, sono vincolate a latenze estremamente basse, e questi clienti possono quindi ottenere un risparmio economico senza visibili cali di performance.

Infine, Il manager di Siemens ha ricordato la grande carenza di skill nel settore, esortando a scegliere il mondo datacenter come percorso professionale per i giovani. A sopperire anche la semplificazione delle procedure nei datacenter, delegando molte decisioni alla intelligenza artificiale, aumenterà sicuramente l’efficienza e la velocità di reazione.

Luca Buscherini Riello

Luca Buscherini, Marketing Director di Riello UPS ha spiegato il ruolo dell’UPS nei datacenter di domani.

Gli UPS (gruppi di continuità) infatti sono fondamentali per raggiungere gli obbiettivi prefissati dalle aziende. A un UPS di questa classe viene richiesta scalabilità e gestione user friendly (per ovviare alla cronica carenza di risorse qualificate). Non solo: deve anche saper comunicare con i sistemi di controllo, e garantire ridondanza ed efficienza.

Proprio in merito alla efficienza, per raggiungere ulteriori livelli di performace si è passati da soluzioni con trasformatore a transformerless. I vantaggi? Massima efficienza, occupazione di spazio ridotta e maggior flessibilità e modularità.

Naturalmente Riello ha dovuto lungamente lavorare sulla affidabilità del sistema, anche per la presenza di correnti di alimentazione in ingresso non sempre allo stato dell’arte. La transizione dai due sistemi ha consentito di aumentare del 6% l’efficienza nell’arco di pochi anni: un risultato di cui Buscherini va giustamente fiero.

L’utilizzo della modalità eco consente di ottenere grandi risparmi. Nella modalità Eco-mode il carico viene alimentato normalmente dal percorso di bypass mediante l’alimentazione di rete di base e l’inverter dell’UPS si attiva solo in caso di guasto della rete. Parlando di esempi concreti il Green Data Center di ENI, affidandosi a questa opzione, consegue ben 21 milioni di euro annui di risparmio.

Un altro tema rilevante sono sicuramente le smart grid, di cui si parla da dieci anni ed oggi sono una realtà concreta. Gestione intelligente ed integrata della energia si fondono con sistemi di accumulo, dato che le fonti rinnovabili sono per loro stessa natura intermittenti. Ed è proprio sulla parte di accumulo che Riello gioca un proprio ruolo.

È un fatto acclarato che le batterie nei datacenter siano quasi sempre inutilizzate. Si può quindi pensare all’utilizzo delle stesse come fonte di reddito grazie alla energia inutilizzata. Il litio di cui queste batterie  si compongono per le batterie infatti sono ricaricabili decine di migliaia di volte, ed anche l’Uptime Institute concorda con questa linea di condotta, ritenendo che si tratti di un business strategico per i data center.

In sintesi, la strategia prevede di immagazzinare energia quando il consumo è molto basso, e sfruttare quella accumulata durante il peak time. Commercializzando energia non utilizzata, in particolare se ottenuta tramite energie rinnovabili (come solare ed eolica), è possibile generare reddito da una attività che è sempre stata (a buon titolo) considerata solo una centrale di costo.

Alessio Casagrande, product manager & solution architect Rittal

Alessio Casagrande, Product Manager & Solution Architect di Rittal, ha ricordato il ruolo di leader nel mercato di armadi di rete e non solo.

Living data on the edge

Casagrande ha sottolineato come l’edge computing non sia un tema del futuro, ma una realtà concreta e diffusa. Una rivoluzione che verrà fortemente accelerata dalla rete di 5G, arrivando a miliardi di dispositivi connessi entro il 2025.

Viviamo infatti in un mondo fatto di dati distribuiti. Ci saranno sempre più piccoli edge data center, per elaborare i dati laddove vengono generati, riducendo inefficienze e latenza. Un edge data center può essere rappresentato anche da solo 1 o due armadi, ha sottolineato Casagrande.

Latenza, sicurezza, disponibilità sono fondamentali. Ma ancora di più lo è la scalabilità; la capacità di adattarsi rapidamente alle esigenze del momento.

L’industria 4.0 già oggi prevende l’utilizzo di server locali, in grado di elaborare grandi quantità di dati in tempo zero o quasi. La tendenza si andrà intensificando con forza anche grazie alle reti 5G.

Il futuro dei data center vede soluzioni pre-ingegnerizzate, un progetto completo fino ai minimi dettagli e già pronto per essere realizzato. Facile immaginare gli importanti risparmi economici che ne conseguono.

In modo del tutto analogo, Rittal prevede soluzioni chiavi in mano per la realizzazione di edge data center. Grazie alla scelta di proporre prodotti standard, è possibile ampliare modularmente la struttura, effettuando investimenti particolarmente precisi. Fondamentale, in un periodo storico che mai come prima si basa sul contenimento di costi.

Luca Stefanutti

Luca Stefanutti, progettista impianti HVAC di Tekne SpA e storico collaboratore di Tecniche Nuove (è autore del libro La climatizzazione sostenibile) ha parlato di controllo climatico nei datacenter.

Lezione di climatizzazione

I temi sono essenzialmente gli stessi: affidabilità, flessibilità ed efficienza.

Il PUE (Power Usage Effectiveness) è l’indice più utilizzato per l’efficienza energetica, con 3.0 come valore di peggior efficienza e 1 la perfezione teorica. Oggi un datacenter è approssimativamente nell’ordine di 1.2.

Le due categorie di impianti sono banalmente locali e centralizzati. Per le server room di piccole dimensioni si è sempre usato condizionatori ad espansione diretta, con il calore smaltito attraverso un condensatore remoto.

Per data center aziendali, vengono utilizzati impianto ad acqua refrigerata, a doppio liquido o (per rack ad alta densitò di carico) le unità in-row, poste di fianco ai rack, il più possibile vicino a dove server raffreddamento puntuale. Fondamentale lo sfruttamento di cooling a pavimento

Interessante il sistema di free cooling, un metodo di raffreddamento che sfrutta l’aria di un ambiente per raffreddare uno spazio senza dover ricorrere a sistemi di refrigerazione. Si sfrutta al top quando la differenza fra ambienti interni ed esterni è di circa 8 gradi. Per datacenter, la strada oggi più sfruttata è il free cooling indiretto.

Il free cooling indiretto ad aria viene realizzato incrociando termicamente il flusso aria dal datacenter con l’aria esterna, senza che vi sia miscelazione. Questo comporta una riduzione del periodo di funzionamento dei compressori e conseguente riduzione del costo di gestione. Inoltre, senza alcuna contaminazione dei datacenter con aria esterna, né aumento del carico latente.

Per la distribuzione dell’aria, è sicuramente preferibile la diffusione dal basso, che avviene attraverso pannelli forati o griglie pedonali. Per questo è essenziale una adeguata progettazione che permetta una buona circolazione dell’aria senza rallentarne il flusso a causa di ingombri causati (ad esempio) dai cablaggi.

La diffusione dall’alto è utilizzata solo laddove non sia possibile sfruttare i pavimenti. Chiaramente risulta meno flessibile ed efficiente da un punto di vista energetico, ma è ancora saltuariamente utilizzata.

Per quanto riguarda le CPU, oggi il raffreddamento di elezione è quello ad acqua; il solo raffreddamento ad aria non è sufficiente per le moderne CPU in ambienti ad alto utilizzo come quello di un data center.

Per garantire la massima affidabilità, si utilizza una distribuzione di alimentazione di acqua ad anello, avendo quindi acqua sempre refrigerata e potendo anche effettuare manutenzione ordinaria o straordinaria.

Alessio Mario Gattone, direttore marketing tecnico Aermec

Alessio Mario Gattone, Direttore Marketing Tecnico di Aermec ha parlato di soluzioni di efficientamento energetico per datacenter.

Il traffico IP aumenta del 25% anno su anno, ma in rapporto a questa escalation, il cooling richiesto cresce solo del 10%. Questo si deve alla continua evoluzione della efficienza energetica, che evita un consumo proporzionale.

In un datacenter la voce principale dei consumi è certamente quella dei server. Altrettanto rilevante è il raffreddamento, che arriva a pesare per circa un terzo del totale.

Dato che i margini di efficientamento sono oggi ristretti, per conseguire risultati importanti in termini di consumi energetici deve essere accettabile poter lavorare con range di temperature sempre più ampi. Laddove possibile arrivando a superare anche i 30 gradi, e come già sottolineato massimizzando la resa di tecniche come il free cooling.

Un datacenter sostenibile deve considerare vari aspetti: non solo le apparecchiature, ma anche i flussi d’aria, il raffreddamento modulare e una regolazione elettronica avanzata.

Un adeguato mix di free cooling e parziale uso di refrigerazione meccanica può comportare significativi risparmi.

Potremo tuttavia usare il free cooling tanto più alta sarà la temperatura dell’acqua per cui l’impianto è progettato. Per questo Aermec ha prodotto soluzioni già ideate per sfruttare acqua a 30 gradi.

Matteo Faccio, product manager HiRef

Anche Matteo Faccio, CCAC, TLC&HDC Product Manager di HiRef è intervenuto sul tema del cooling sostenibile.

Condizionamento e gestione dell’aria, come già visto, sono fra i sistemi più energivori in un datacenter. Il primo passo per l’efficienza è certamente separare l’aria calda con quella fredda.

Per gli hyperscale datacenter, HiRef propone sistemi frigoriferi in grado di arrivare a 260 kW a doppio circuito. Su datacenter di dimensioni ridotte, la soluzione proposta da HiRef è molteplice: ad espansione diretta, con condensazione ad aria, ad acqua, o ancora con dual cooling e free cooling indiretto.

Inoltre, HiRef approccia in modo particolarmente struttura il mondo degli edge datacenter, con la proposta Databox. Dotato di differenti layout (ad esempio, zero impact o corridoio freddo) dimostra la flessibilità e progettualità di Hiref sul tema.

Fornire un datacenter chiavi in mano è come fornire un servizio, e HiNode è il sistema di HiRef per la gestione e il controllo integrato del condizionamento del Data Center tramite interfacciamento a tutte le unità di generazione e distribuzione della potenza frigorifera.

Davide Letizia, Cloud Solutions sales specialist di Ovh

Davide Letizia, Cloud Solutions Specialist di Ovh, ha spiegato come la società francese è di fatto l’unico cloud provider europeo, con 28 datacenter distribuiti su 4 continenti. Investimenti di oltre 1,5 miliardi di euro in 5 anni hanno portato grandi risultati e, ha sottolineato Letizia, nessun datacenter è raffreddato con aria condizionata, bensì ad acqua.

Controllo circolare sul data center

Il PUE (Power Usage Effectiveness) dei datacenter di Ovh (interamente progettati ed operati da OVH stessa) è bassissimo, 1.08: si tratta dei valori minimi oggi ottenibili, e dimostrano senza tema di smentita la grande competenza di Ovh nella progettazione di datacenter.

La società francese ha strategicamente scelto la semplificazione, senza però compromettere ciò che rende le soluzioni Ovh diverse e allettanti, come il rapporto qualità-prezzo competitivo, un’ampia gamma di prodotti e un sistema di consegna veloce.

Quest’ultimo parametro è stato sottolineato con forza da Letizia: Ovh permette ai clienti di scalare quanto necessario, in lassi di tempo decisamente allo stato dell’arte.

Per ottenere questo livello di efficienza, Ovh è in grado di avere controllo completo su tutta la supply chain. Difficile immaginare ulteriori livelli di ottimizzazione, ma il manager di Ovh ha comunque ricordato che in azienda nessuno si sente appagato, ma anzi ci si impegni per alzare sempre più il livello.

Anche per quanto riguarda lo sfruttamento completo dei server, nulla viene lasciato al caso. Quando essi vengono decommissionati dal cliente, i server vengono disassemblati e offerti su altra linea a clienti con minori esigenze in termini di performances. Questo si traduce in una vita dei prodotti di ben 15 anni, a tutto vantaggio di TCO e ambiente.

Claudio Carenzio, responsabile di prodotto Isoil Industria

Isoil Industria ha parlato del tema delle misurazioni, per tramite di Claudio Carenzio, Product Manager.

La società italiana ha ormai 60 anni di storia, e può contare sul più grande laboratorio italiano di misurazione di volumi e portata. Isoil misura diverse grandezze, come vapore, acqua, biogas, aria ed altre ancora. L’azienda ha collaborato con Aruba, per il datacenter di Ponte San Pietro (Bergamo), che ha richiesto di effettuare una precisa misurazione in un preciso punto dell’impianto, che Isoil ha effettuato con un misuratore magnetico in classe A. Aruba può usare acqua di falda, potendo quindi accedere ai Titoli di Efficienza Energetica (TEE). Per confermare questi TEE, il GSE (Gestore Servizi Energetici) ha richiesto misurazioni precise e continuate, ed Isoil è stata in grado di fornire quanto sopra con precisione assoluta.

Anche in seguito alle richieste di Aruba, verrà realizzato un nuovo calcolatore di energia termica (il modello MV311) alimentato in PoE IP65. Sono numerosi i protocolli che vengono offerti al cliente, evitando quindi la necessità di installare nuove schede di interfaccia o la sostituzione di PLC. È quindi assolutamente evidente la capacità di Isoil di offrire soluzioni tailor made, e in grado di restituire risultati a prova di certtificazione. Aruba non avrebbe accettato nulla di meno, e Isoil ha risposto presente.

Antonio Corbo, AFC

A suggello, Antonio Corbo, Fire and Safety engineer di AFC ha messo sul tavolo il tema, generale, della sicurezza.

Il mondo dei datacenter è certamente sofisticato e presenta una notevole assonanza con il tema della prevenzione incendi. Il nuovo codice di prevenzione incendi prevede infatti livelli prestazionali per le opere strategiche, che vanno dunque preservati e ripristinati in tempi celeri.

La ridondanza, necessaria a garantire livelli di continuità operative per ogni livello di tier, comporta tuttavia un conseguente aumento dei rischi (ad esempio per le batterie). La sismicità stessa del territorio italiano può costituire un rischio finora non adeguatamente considerato. Inoltre, i circuiti di raffrescamento sfruttano gas moderni, poco inquinanti ma (seppur lievemente) infiammabili. È quindi assolutamente essenziale una attenta programmazione e non meno puntuale controllo di qualità.

Concludendo, Corbo ha ricordato quanto sia importante una adeguata ed efficace attività di manutenzione: una parte molto rilevante degli incendi deriva da risparmi davvero poco saggi proprio in questo ambito.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php