Nel 2011, secondo Idc, sarà virtuale il 100% dei server utilizzati dalle grandi organizzazioni e arriverà a quasi il 70% presso le medie
La vera grandezza della virtualizzazione, secondo Antonio Romano, country manager Italy e Iberia di Idc «è che tutti i casi aziendali che abbiamo analizzato evidenziano come sia una soluzione in grado di dare un ritorno degli investimenti immediato nel breve periodo, indipendentemente dalla dimensione della società e dal settore economico di appartenenza. La virtualizzazione dominerà lo sviluppo dell’It nei prossimi cinque anni, ma il rischio di questo trend fortemente espansivo è che attragga fornitori non sempre all’altezza della tematica. Per strutturare una proposizione a valore sulla virtualizzazione ci vogliono anni di investimento, mentre per mettere la parolina “virtualization” su una brochure bastano pochi minuti. Quindi, in quest’ambito, va posta molta attenzione nella scelta dei partner tecnologici».
Lo scenario attuale è economicamente problematico, e in base a una serie di interviste fatte da Idc ai Ceo europei, rimane come input fondamentale la riduzione dei costi aziendali, avendo però come obiettivo la flessibilità dell’azienda, il miglioramento dell’attività e lo sviluppo di nuovi prodotti e servizi, tutte attività abilitate dall’It.
«Il concetto di riduzione dei costi, però, – prosegue Romano – oggi ha una valenza nettamente diversa da quanto accadeva qualche anno fa, e si può sintetizzare in due punti: il primo è quello di efficientare, cioè investire in modo da aumentare l’efficienza. Secondo, è che i costi/investimenti devono essere predicibili e pianificati. Questa è una necessità propria delle grandi organizzazioni, abituate a pianificare, però diventa mandatoria anche per le medie e le piccole aziende. Se, invece, analizziamo le priorità dei Cio per i prossimi 12 mesi, vediamo che da anni la sicurezza è in cima alle loro preoccupazioni, sicurezza che si declina non solamente come firewall e antivirus, ma come business continuity e disaster recovery. Un altro tema sentito è quello di integrare It e comunicazione, a cui si affiancano altri due temi che stanno diventando prioritari e che sono: la compliance e la mancanza di personale qualificato. Nel boom della Internet economy, dal ’99 al 2001 mancavano le teste, le persone, oggi invece iniziano a mancare le competenze, gli skill, per gestire la complessità dell’It. Ci sono fisicamente le persone, ma non ci sono i cervelli». Una tematica, questa, che ha un impatto molto forte sul settore e che coinvolge anche la virtualizzazione. Il concetto di Tco nasce sull’onda dello sviluppo dell’informatica distribuita, per dare substrato oggettivo, economicamente valutabile, rispetto alla necessità di acquisire pc con processori sempre più performanti e con sistemi operativi sempre più aggiornati. Se oggi ancora i costi di maintenance incidono tra il 50 e il 70% del budget It, vuol dire che il Cio ha fatto degli errori, di cui se ne prende una parte di responsabilità anche Romano, in quanto analista, «visto che pensavamo che l’informatica distribuita potesse assolvere le esigenze di gestione dell’informazione; oggi, invece, è il data center che ha un ruolo centrale nelle gestione dei dati in maniera sicura, efficiente e trasparente, sia per la grande impresa che per la media, che non va più visto solo come uno stanzone pieno di sistemi, in quanto può essere rappresentato anche da un solo sistema».
Un secondo errore che è stato fatto, come sottolinea Romano, è pensare che la tecnologia potesse automaticamente determinare un efficientamento dei processi dell’organizzazione aziendale, senza aver fatto degli investimenti interni sull’ottimizzazione dei processi. «L’errore primigenio di pensare all’informatica distribuita e di non investigare sull’importanza del data center, non ci ha permesso di capire come al suo interno sia sicuramente primaria una componente di maintenance e administration che si affianca a problemi di security staff piuttosto che di approvvigionamento energetico, che sono voci non indifferenti nella sua gestione. E la virtualizzazione va a incidere anche su queste componenti. Visto lo scenario attuale, riteniamo che consolidare e virtualizzare siano oggi strumenti immediatamente utilizzabili per arrivare a un’It economicamente efficiente. Un ulteriore sforzo concettuale, che avvalora maggiormente il concetto olistico di economicità, è che abbiamo capito che tra “real time” e “just in time” c’è una differenza abissale, anche se apparentemente il real time era l’obiettivo verso cui tutti volevamo arrivare per avere un’It disponibile sempre. Però abbiamo scoperto che questo approccio non è economicamente sostenibile, in quanto si trascina sacche di inefficienza che nel contesto economico attuale non sono gestibili. Il concetto di just in time, invece, nato in Giappone in Toyota circa 50 anni fa, vuol dire avere un’It con una capacità elaborativa disponibile là dove se ne sente il bisogno, che però ha un costo esattamente correlato alla funzionalità erogata da una specifica unità tecnologica. Il just in time, quindi, è un modello molto più valido».
Gli obiettivi a cui deve tendere l’It sono dati da: semplificazione, maggiore economicità, ottimizzazione degli asset e delle risorse umane, miglioramento del rapporto tra tecnologia e business, conoscenza dei costi e, soprattutto, miglioramento dei livelli di servizio. In ambito data center si fa spesso confusione tra consolidamento e virtualizzazione: quest’ultima può abilitare il consolidamento, ma si può anche muovere su binari paralleli. Idc in merito ha definito 4 ambiti: il primo è il consolidamento logico e comporta sostanzialmente una gestione unitaria delle applicazioni, cioè sistemi di application network e system management volti a centralizzare il governo delle applicazioni. I valori aggiunti sono rappresentati da una migliore disponibilità degli applicativi, dall’eliminazione delle sacche di improduttività, e se l’amministrazione lavora meglio, sicuramente c’è una riduzione del Tco, perché la quota dei costi del 50/70% è associata a tematiche di gestione. Oggi il processo di consolidamento va via via scemando, in quanto concettualmente viene sostituito e migliorato da un processo di virtualizzazione di applicazioni, e oggi si fa avanti il concetto di SaaS (Software as a Service) che determina un miglioramento delle performance, coerente con la prima ondata di consolidamento delle applicazioni.
Un secondo ambito è dato dal consolidamento fisico, che ha iniziato a svilupparsi tra il 2002 e il 2003, sul quale hanno influito anche i blade server, il che vuol dire passare da uno stanzone di 1.000 mq a uno di 500, avendo una capacità elaborativa uguale o superiore. Quindi, fondamentalmente, si ha maggior scalabilità, flessibilità e management centralizzato delle risorse, di particolare aiuto per il data center di grandi dimensioni.
Un terzo aspetto, per certi versi concettualmente similare al primo, è il consolidamento dei workload delle applicazioni, quindi una riduzione della parcellizzazione delle applicazioni e dei server su cui risiedono, in modo da diminuire drasticamente i costi di gestione e questo è stato un processo che ha impattato soprattutto sul mondo finanziario. Infine, quarto ambito, l’It center “on demand”, cioè un sistema informativo flessibile, accessibile in just in time, che diventa quasi un’utility, tematica questa che ha rappresentato la prima ondata della virtualizzazione e che ha impattato in maniera immediata il mondo del software.
Oggi, quindi, la virtualizzazione è un concetto esteso e si declina in ambito server, desktop e applicativo, declina completamente il concetto di SaaS, abilita fortemente il concetto di Soa e impatta sulla business continuity.
Conclusioni
I Cio stanno affrontando sfide complesse come sicurezza, gestione e aumento della produttività in un contesto di re-balancing tra costi e investimenti. In questo scenario, diventa mandatorio per tutte le aziende “guardare dentro” il proprio data center ed evidenziare in dettaglio le aree di minore efficienza/miglioramento rispetto alle quali articolare una strategia e una domanda di tecnologia; in particolare diventa centrale il passaggio verso un concetto di It virtuale, iniziando dalla componente server. È, inoltre, importante, che il percorso sia abilitato solo da partner It d’eccellenza leader non solo nella tecnologia ma anche nella gestione e nel supporto.





