Quale futuro per il data center

Virtualizzazione e automazione sono le parole chiave nella vision di Gartner, che ha come punto di arrivo la Real-Time Infrastructure

Il tema dell’evoluzione del data center, che rappresenta il fulcro dell’infrastruttura It delle aziende, è oggi al centro dell’attenzione del settore, pressato dalle esigenze di riduzione dei costi e rapidità di risposta alle richieste del top management. Lo conferma anche la massiccia affluenza di pubblico al recente Data Center Summit organizzato ad Amsterdam da Gartner, nel quale gli analisti hanno cercato di tirare le fila di quanto sta accadendo nel mercato, per aiutare i Cio a pianificare l’evoluzione dell’It e orientarsi fra le proposte dei vendor.


La vision di Garner in questo ambito ha come punto di arrivo un nuovo acronimo, RTI, che sta per Real-Time Infrastructure: si tratta, sintetizzando, di un’infrastruttura ad alto grado di automazione e virtualizzazione, condivisa fra i clienti e le diverse business unit aziendali, gestibile attraverso policy e in grado di rispondere in tempo reale alle esigenze del business. Una sorta di "scatola nera intelligente" tramite la quale, una volta impostate le politiche di gestione coerentemente all’attività specifica dell’azienda, vengono erogati i servizi necessari all’operatività, con un uso efficiente delle risorse e con la capacità di evitare e prevedere i problemi. È questo il data center di nuova concezione, che comprende sistemi di storage, server e reti: in futuro, saranno le applicazioni a chiedere a questa infrastruttura, in modo automatico, la capacità di calcolo delle Cpu e la quantità di storage che sono loro necessarie di volta in volta. Una vision, questa, che sottende un profondo cambiamento di ruolo per l’It e per i Cio. Servono certezze, mentre oggi l’It è ancora troppo poco affidabile e lenta nel reagire alle richieste del business. Serve un salto di qualità, da centro di costo a centro di profitto, in grado di creare valore per il vertice aziendale. Serve una strategia chiara, legata a doppio filo a quella aziendale, non avulsa dal contesto come accade spesso oggi. Un’ulteriore conferma che il Cio deve accelerare il cambiamento da gestore delle risorse It a business leader.

Virtuale e automatico


Fin qui la teoria, il modello ideale. Ma la realtà è ben più complessa e i problemi quotidiani dei Cio molto tangibili: complessità di gestione, una continua sfida sul fronte della sicurezza, costi elevati e sottoutilizzo delle risorse. In più, i percorsi da seguire sono pieni di ostacoli e di bivi, perché l’evoluzione della tecnologia è così rapida da rendere vane le previsioni a lungo termine. Gartner lo sa, e cerca di calare nella realtà il proprio modello di RTI, partendo dal presupposto che è comunque necessario, per competere nell’economia di oggi, accelerare i tempi del business e modificare le infrastrutture It per rispondere a queste esigenze, rendendole più reattive. Tuttavia, oggi ancora il 70% della spesa It serve a mantenere in piedi ciò che già esiste e non a fare nuovi investimenti. È, quindi, necessario canalizzare le potenzialità della tecnologia per migliorare l’infrastruttura in termini di agilità, costi e qualità del servizio.


Sono proprio questi tre, gli obiettivi chiave da tenere in mente nel pianificare i progetti, tre criteri che valgono sempre, anche solo per il consolidamento dei server.


E per raggiungerli, gli step da seguire sono due: virtualizzazione e automazione.


La virtualizzazione (che di per sé non è affatto un concetto nuovo, basta pensare alle Virtual LAN delle reti locali) è stata il leit motif di molti annunci dei vendor nel corso del 2005 e rappresenta un fenomeno destinato, secondo Gartner, a perdurare: le stime parlano di un numero di processori virtualizzati decuplicato fra il 2004 e il 2009. Il motivo è presto detto: in uno scenario in cui è tornato in voga il trend a centralizzare le risorse, succede che, per fare un esempio, le aziende abbiano bisogno di una potenza di calcolo pari a 10 nel momento di picco e a 5 per il resto del tempo. Ecco che l’uso virtuale delle risorse, viste come un unico pool logico (e non fisico), indipendente dalla loro collocazione e capacità singola, evita il sovradimensionamento e offre la flessibilità di configurazione e di gestione in grado di ridurre i costi e aumentare l’agilità. Per arrivare all’automazione dei processi It, che rappresenta lo step successivo, bisognerà aspettare ancora un po’. Qui sono coinvolte le software house impegnate sul fronte delle applicazioni: servono le SOA (Service Oriented Architecture), per una gestione attiva e basata su policy, che consentono di ridurre il costo del lavoro, di rispondere in modo intelligente e automatico agli eventi. Tuttavia, questo passaggio richiede un’evoluzione nel modo in cui oggi viene venduto il software: il modello di licensing basato sulla potenza delle macchine non è più adeguato.

CONDIVIDI

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here