Cloud, cioè virtualizzazione 3.0

Entro il 2014 si avrà l’affermazione del cloud computing in tutte le componenti, interne, esterne, ibride.

Perché la virtualizzazione 3.0 diventi una realtà occorrerà attendere il 2014, ma il cambiamento è già in atto. Nel 2009, a fronte di un calo dell’8% del mercato It, gli investimenti in virtualizzazione e cloud computing sono aumentati rispettivamente del 20% e del 40%. Nel 2010 verranno spesi 110 milioni di euro per il cloud computing e 77 per le attività di Software as a Service. Il trend positivo continuerà. Nel 2012 il solo cloud computing svilupperà un giro di affari di circa 150 milioni di euro. Senza contare che già oggi il 35% delle aziende sta valutando progetti di desktop virtualization e che in questo ambito nelle prossime settimane sono attesi vari annunci da parte dei più importanti player del mercato.

I dati sono stati forniti in occasione della “Virtualization & Cloud Computing Conference” di Idc svoltasi a Milano lo scorso 25 marzo.
Nel dare avvio ai lavori, Antonio Romano Vp e General Manager di Idc ha sottolineato che virtualizzazione e cloud computing stanno entrando in una fase complessa, ma decisiva che durerà cinque anni e che traghetterà il mercato nell’era della Virtualizzazione 3.0. Per attrezzarsi le aziende dovranno ripensare organizzazione, procedure e processi.
Soprattutto, dovranno imparare a scegliere partner validi, nella consapevolezza che nel mondo virtuale qualsiasi inefficienza risulterà amplificata.

Se il futuro è certo, il presente è variegato e a tratti anche contraddittorio. La tendenza alla virtualizzuazione e all’Infrastructure as a Service è una realtà assodata nelle aziende di tutte le dimensioni, ma gli scenari variano ancora in modo importante.

Le realtà con un parco installato fino a 50 virtual vachine sono caratterizzate da un ambiente in cui server fisici e virtuali coesistono nella misura di 1 a 4 e la relazione con i processi di business è minima. Ben diverso lo scenario proposto dalle organizzazioni che possiedono oltre 50 Virtual Machine.

Il ricorso alle tecnologie ibride è massiccio, l’integrazione tra le piattaforme è una realtà e la virtualizzazione impatta sui processi di business e su componenti strategiche come il disaster recovery, la fault reliability o la business continuity.

In un’alternarsi di luci ed ombre, Romano ha registrato il venir meno di ogni resistenza psicologica a virtualizzare e la riduzione del Time to Deploy che ha trasformato in un driver quello che fino a poco fa era un ostacolo non trascurabile. Il rovescio della medaglia è un preoccupante -30% negli investimenti in formazione del personale. E questo, proprio nel momento in cui le aziende sono chiamate a rafforzare la propria expertise interna per gestire il passaggio della virtualizzazione da strumento per ottimizzare il sistema It a strumento di flessibilità che abilita il business.

Secondo Romano anche i vendor dovranno lavorare sulla propria expertise in modo da riuscire, più di quanto facciano ora, a supportare la propria clientela in quella ricerca di efficienza che è la motivazione principale con cui si avvicina alla virtualizzazione.

E proprio recupero dell’efficienza organizzativa e di processo sono i driver principali di questo mercato. Sul fronte dei costi i risultati ottenuti non sono trascurabili.

Tra Capex (spese per il capitale) e Opex (spese per la gestione) si parla di un risparmio del 25%. Le economie più importanti si realizzano sull’hardware, sui consumi energetici e sulle spese per le licenze del software. E gli utenti ne sono ben consapevoli. Da una ricerca Idc emerge che il 70% di chi ha virtualizzato è molto soddisfatto dei risparmi ottenuti in termini di Capex e Opex e, se si tiene conto anche di quelli che si sono limitati a dichiararsi “abbastanza soddisfatti”, si arriva ad uno straordinario 99%.

Sul fronte delle risorse umane, più che di riduzione del personale It, secondo Romano, è opportuno parlare di migliore utilizzo delle risorse che possono essere distolte da task ripetitivi per essere riassegnate. Su un punto Romano è categorico: la virtualizzazione dà i ritorni attesi solo se ben gestita. Per questo la parola chiave per il mercato da qui in avanti sarà: efficienza gestionale misurata e monitorata attraverso performance indicator.

La virtualizzazione non si traduce, però anche in riduzione di quei costi di gestione che sono nel mirino di tutti i manager. Anzi, porta ad un loro parziale incremento. Si tratta però, ha spiegato Romano, di decidere quale parte del famoso bicchiere si vuole vedere, dal momento che con la virtualizzazione diventa possibile automatizzare subito anche le funzioni core dell’azienda senza attendere la disponibilità delle risorse economiche per l’acquisto dei server fisici che sarebbero stati necessari.

Costi e time to market sono i principali benefici percepiti dall’utenza anche per quanto riguarda i servizi Cloud. Secondo una ricerca Idc il 77,9% degli utenti apprezza il fatto che i costi sono quelli legati all’utilizzo e il 77,7% la rapidtià del provisioning.

Se il punto di arrivo è la virtualizzazione 3.0, il presente, come è stato sottolineato nell’ambito di una delle tavole rotonde previste dalla conferenza Idc, deve essere caratterizzato anche dal passaggio dalla fase dell’entusiasmo a quella della consapevolezza.

Occorre, cioè, adottare un approccio pragmatico in cui virtualizzazione e cloud siano concepiti non come la risposta a tutte le esigenze, ma come uno degli strumenti in mano al Cio che dovrà decidere quando e come utilizzarli anche tenendo conto della legislazione vigente. Il riferimento alla legislazione vigente è particolarmente vincolante nel caso della Pubblica Amministrazione, ma ha implicazioni non indifferenti anche per le aziende private. Si pensi ad esempio alle implicazioni derivanti dal fatto che ai dati custoditi si applicano le norme della tutela della privacy vigenti nel Paese in cui sono custoditi.

Rientra nella consapevolezza anche un significativo cambio di mentalità. Il superamento della logica dello “spostare sul cloud i workload esistenti che si ritiene adatti” allargherà il dibattito su quali sono i workload adatti al cloud fino alla scoperta di tutti i servizi che nascono sul cloud e non sono replicabili off the cloud.

Un approccio pragmatico sarà di sicuro aiuto anche nella gestione della desktop virtualization con Thin Client che sta cominciando a muovere i primi passi. Soprattutto, se si considera che i punto di massima criticità sono la qualità della rete e l’estrema eterogeneità degli ambienti hardware e software esistenti. Il potenziale però è altissimo. Il costo di un thin client è mediamente inferiore al centinaio di euro, quello di un desktop si aggira sui 4/500 euro.

Ancora più importanti i risparmi possibili in termini di consumo energetico. Un thin client consuma in media 10 Watt, mentre un desktop classico non scende sotto i 150 Watt. Basta fare un po’ di conti e applicare questi risparmi agli 11,5 milioni di personal computer installati che risultavano in Italia a fine 2009 per comprendere il valore del cambiamento.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome