Home Datacenter Data4 delinea i sei trend che caratterizzeranno i data center nel 2024

Data4 delinea i sei trend che caratterizzeranno i data center nel 2024

I data center, centri di elaborazione e archiviazione dei dati, sono ormai diventati un pilastro essenziale dell’ecosistema digitale. L’enorme volume di dati scambiati in tutto il mondo passa inevitabilmente attraverso queste infrastrutture.  

Data4, operatore specializzato nello sviluppo, finanziamento e gestione di campus data center, ha individuato 6 trend che traineranno il settore, a partire dal 2024. Tra i principali troviamo la sostenibilità e l’impatto che avrà l’Intelligenza Artificiale sul funzionamento dei data center. Davide Suppia, Sales VP & Country Director di Data4, illustra la visione del settore dell’azienda.

1. L’accettabilità dei data center

Davide Suppia, Sales VP & Country Director di Data4
Davide Suppia, Sales VP & Country Director di Data4

Energivori e con un basso tasso occupazionale, spesso i data center sono stati percepiti come fortezze inespugnabili, diventando oggetto di critiche per molti anni. La crescita di questo settore è invece significativa e ha portato alla luce una grande sfida: il tema dell’accettabilità sia da parte delle autorità che delle comunità locali. Per rispondere a questa esigenza, gli operatori di data center devono ora dimostrare di rispettare non solo i requisiti standard in termini di prestazioni energetiche delle loro infrastrutture (PUE), ma anche altri parametri specifici di tipo “UE” – Usage Effectiveness – riguardanti l’acqua (WUE), le emissioni di carbonio (CUE) e l’analisi del ciclo di vita completo (LCA).

Oggi, la maggior parte dei player del settore mette in evidenza l’impatto dei data center in termini di emissioni di carbonio negli scope 1 e 2, quando invece il maggior impatto ambientale riguarda lo scope 3, ovvero la responsabilità indiretta delle attività data center, quali la costruzione di nuovi edifici, la gestione dei rifiuti nei campus, acquisti di prodotti e servizi, ecc. La grande sfida dei prossimi anni sarà quindi ridurre il proprio impatto per rispettare lo scope 3.

2. L’integrazione dei data center: connessione con il territorio locale e l’economia

Un campus di data center non può essere un progetto isolato, ma deve essere parte di un tessuto industriale in cui essere ben integrato, in modo da creare sinergie che siano funzionali al dialogo con il territorio e gli altri player che operano nell’area in cui viene costruito, in ottica di sviluppo collaborativo e sostenibile.

Per questo motivo, tra i prerequisiti per la realizzazione di nuovi campus, troviamo il riutilizzo del cosiddetto “calore di scarto” a beneficio delle zone limitrofe ai siti. Esistono poi altre soluzioni, quali il teleriscaldamento – molto utilizzato nei paesi nordici e che Data4 prevede di mettere a disposizione nelle città in cui sorgeranno i suoi nuovi campus – o la creazione di soluzioni dedicate al settore agroalimentare (dall’idroponica, le serre, gli allevamenti ittici…).

Sebbene siano rimasti ancora alcuni progetti che non sono tecnicamente o finanziariamente redditizi, è diventato essenziale dare vita a partnership multisettoriali per sperimentare nuovi modelli che siano applicabili su scala industriale.

Infine, l’integrazione dei data center col territorio passa anche da programmi di sensibilizzazione delle giovani generazioni sui temi legati alla digitalizzazione, introducendo collaborazioni virtuose con scuole secondarie di secondo grado e facoltà di ingegneria: Data4, per esempio, con la Data4 Academy sta già intensificando le iniziative in questo ambito in tutti i suoi campus europei.

3. Cavalcare l’onda dell’Intelligenza Artificiale

La domanda di capacità di calcolo e di archiviazione dei dati continua a crescere. L’intelligenza artificiale generativa, come ChatGPT, sta rivoluzionando Internet e i data center. Anche i modelli di apprendimento dell’intelligenza artificiale, che richiedono molte risorse, si stanno sviluppando rapidamente.

Pertanto, le CPU e le GPU ora hanno TDP [Thermal Design Power] superiori a 500 W, generando rack di oltre 40 kW! L’industria non è mai stata così vicina ai supercomputer, e questa volta su scala industriale… Avere la capacità di implementare rapidamente data center “HPC-ready” o “AI-ready” sarà quindi la sfida più grande per il mercato per soddisfare le crescenti richieste dei clienti.

4. Ottimizzare la gestione delle risorse energetiche nei campus

Guardando più da vicino ai consumi richiesti dall’utilizzo dell’AI, un’altra sfida consiste nell’ottimizzare la gestione dell’energia nei campus. Si possono prendere in considerazione diverse opzioni: lavorare a stretto contatto con il gestore della rete elettrica per ridurre i consumi nelle ore di punta, oppure utilizzare generatori e immagazzinare energia in loco. Dovranno inoltre essere compiuti sforzi comuni con gli operatori cloud per garantire che il carico della domanda sia adattato alla disponibilità di energia rinnovabile, cosa che gli operatori data center non possono gestire da soli.

Le partnership tra data center e i gestori delle reti devono essere intensificate: il modello francese ci insegna che queste collaborazioni generano enormi potenzialità per la gestione “intelligente” dell’energia in entrata.

Infine, stanno nascendo diverse promettenti alternative, ancora in fase di sperimentazione, tra cui le tecnologie basate sull’idrogeno. Come per le energie rinnovabili, i piani di investimento e le sovvenzioni che il mercato riceverà da parte dei governi e dell’Unione Europea saranno decisivi per raggiungere un livello economicamente sostenibile per queste nuove tecnologie.

5. Sviluppo di nuovi sistemi di raffreddamento

Il risparmio energetico si può raggiungere con diverse soluzioni, infatti stanno emergendo numerosi progetti che prevedono nuovi metodi di raffreddamento, come l’utilizzo delle correnti fluviali, ove possibile, per raffreddare i data center.

Man mano che CPU e GPU diventano sempre più potenti, vengono sviluppate tecniche basate sul raffreddamento a liquido, sia direttamente grazie a sistemi DLC [Direct Liquid Cooling] con scambio termico diretto sugli elementi critici tramite “blocchi d’acqua”, sia immergendo completamente i server. Entrambe queste tecniche sono molto efficaci in termini di PUE. Inoltre, l’approccio digitale basato sul machine learning (AI) consente anche di ottenere notevoli guadagni sul PUE, sfruttando i milioni di punti dati generati dai sistemi critici del data center.

6. Il metodo di valutazione più completo: l’analisi del ciclo di vita

Consapevoli del loro impatto e delle enormi sfide ambientali, gli operatori di data center, tra cui Data4, puntano sull’analisi del ciclo di vita (LCA), che si è affermata come il metodo di valutazione più completo per verificare tutti i flussi e gli impatti coinvolti nella progettazione e nella produzione di un data center. Questo approccio va oltre la semplice analisi delle emissioni di gas serra e dei parametri che influenzano le risorse e la qualità dell’ambiente, in quanto permette di calcolare l’impatto ambientale associato alla fase di costruzione di un data center e quello associato al suo funzionamento. L’obiettivo è quello di fornire un quadro più chiaro di ciò che può e deve essere migliorato, per aiutare a stabilire quali siano le azioni prioritarie e per creare una “verità ambientale” per tutti i progetti tecnici e tecnologici.

Ottenere la migliore visibilità possibile in termini di carbon impact sta spingendo tutti gli operatori a esplorare nuove strade nell’eco-design dei data center: in Data4 ci siamo per esempio concentrati sulla rigenerazione delle aree industriali e l’utilizzo del calcestruzzo green a basse emissioni di carbonio per costruire i nostri siti in ottica di economica circolare.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php