Datacenter self-healing? Servono dati e team di gestione unificati

Nuovi livelli di efficienza da raggiungere senza compromettere la disponibilità.
È quanto già oggi è richiesto ai datacenter che in molti si attendono, da qui al 2025, “self-healing” e auto-ottimizzati.
A ricordarlo ci pensa Andrea Faeti, service sales director di Emerson Network Power in Italia, secondo cui le piattaforme di gestione avranno un ruolo chiave per ottenere questo risultato.

Non a caso, suggerisce il manager, se definiamo il self-healing come la capacità di adattamento ai guasti senza compromettere la disponibilità delle applicazioni, allora potremmo dire che le capacità di auto-riparazione esistono già oggi.

Grazie alla virtualizzazione, continua Faeti, molte aziende hanno la possibilità e la capacità di spostare i carichi all’interno del datacenter senza influire sulla disponibilità. Manca, tuttavia, la visibilità attraverso i diversi apparati, in modo da comprendere l’impatto di eventuali cambiamenti e potervi adattare sistemi di supporto adeguati.

Ruolo chiave per il Datacenter infrastructure management
Questo è il motivo per cui il pannello di gestione unico promesso dalla gestione dell’infrastruttura del datacenter, o Dcim, risulta così fondamentale per il futuro.
Come in una Torre di Babele, in cui ogni apparato comunica in un linguaggio diverso, la principale sfida tecnica all’interno dei datacenter si conferma tradurre i dati provenienti, ad esempio, dal sistema di alimentazione, in modo da renderli compatibili con quelli provenienti dai server.

La sfida di uscire da compartimenti stagni, continua il service sales director di Emerson in Italia, è stata affrontata da una nuova generazione di dispositivi per i datacenter, che consolidano i dati tra i vari apparati e li traducono nel modo necessario per essere utilizzati dal sistema di gestione.
In aggiunta, alcune iniziative multi-vendor, come Redfish, stanno creando protocolli comuni di comunicazione, che ridurranno la necessità di traduzione.

Peccato, però, ricorda ancora il manager, che i dati non sono i soli a dover essere unificati, ma bisogna fare lo stesso anche per i team di gestione, che rappresentano una sfida di aggregazione e traduzione potenzialmente maggiore. I dipartimenti dovrebbero essere riorganizzati secondo un criterio olistico, per realizzare un vero potenziale tecnologico.

Una volta fatto, l’azienda sarà pronta per affrontare anche l’aspetto della auto-ottimizzazione, che richiede lo sviluppo di sofisticati algoritmi attualmente non ancora esistenti.
Si tratta, dunque, di una sfida complessa, che verrà affrontata all’interno di un contesto di un più ampio impegno nell’utilizzare i dati per ottenere un vantaggio competitivo. Non credo che il settore dei datacenter sia in ritardo nell’impiego dei dati per ottimizzare le operazioni.
Anche perché, rispondere a queste sfide e raggiungere l’auto-ottimizzazione ci offrirà la possibilità di mantenere condizioni ottimali nell’intero datacenter in qualsiasi momento, abbattendo i costi operativi, ma anche di rispondere a eventuali guasti in maniera trasparente per gli utenti, aumentando il valore per il business, massimizzando l’impiego di risorse e riducendo il costo del capitale.

 

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome