Focus: Il valore tecnologico della virtualizzazione

Ogni virtual machine (Vm) può avere caratteristiche hardware uniche ed essere totalmente isolata dalle altre, per cui non impatta sul loro funzionamento

Ormai è innegabile che la virtualizzazione sia una tecnologia concreta, in grado di portare dei reali benefici, economici e logistici, nei data center di qualunque azienda, dalla più grande multinazionale alla più piccola impresa domestica.

Iniziamo con il chiarire brevemente cos’è la virtualizzazione descrivendo quell’implementazione della tecnologia che più di tutte oggi è diffusa nel mondo: la cosiddetta “hardware virtualization”.

Si tratta di software di classe enterprise da installarsi su un comune server, in grado di astrarre le caratteristiche fisiche della macchina (come la Cpu, la Ram, le schede di rete, le unità disco) e permettere l’uso di molteplici sistemi operativi allo stesso tempo (come Windows, Linux, Solaris, e via dicendo), senza che ci sia alcun conflitto tra le varie istanze.

L’idea di installare più sistemi operativi sullo stesso server è vecchia quasi quanto l’informatica: lo abbiamo sempre fatto, soprattutto sui desktop casalinghi, attraverso il partizionamento logico dell’hard disk e la selezione di preferenza durante la fase di boot del computer. Ma questa tecnica permette di eseguire un solo sistema operativo alla volta e non ha applicazioni pratiche nelle server farm aziendali.

La hardware virtualization è diversa: il software in questione, detto “hypervisor”, crea una serie di “virtual machine” (da non confondere con le macchine virtuali dei linguaggi di programmazione Sun Java e Microsoft .Net) e per ognuna emula un certo numero di dispositivi hardware virtuali.

Ogni virtual machine (Vm) può avere caratteristiche hardware uniche ed è totalmente isolata dalle altre: qualunque cosa le accada, non impatta sul funzionamento delle altre, anche se tutte vengono eseguite dentro lo stesso server fisico. Quando l’amministratore di sistema si connette per la prima volta alla Vm, questa gli si presenta come un server vuoto dove installare un sistema operativo e poi delle applicazioni, esattamente come nel mondo fisico. A seconda delle caratteristiche dell’hypervisor e dell’hardware fisico, un singolo server può far girare contemporaneamente fino a quasi 200 virtual machine.

La hardware virtualization fu inventata negli anni 60 da Ibm, ma la tecnologia è stata reintrodotta alla fine degli anni 90 da Vmware, che oggi è leader di mercato per questo settore tecnologico: la affiancano altri colossi dell’It come Microsoft, Citrix, Sun, Novell, Red Hat, Oracle, Virtual Iron, Parallels e molti altri.

Un po’ di storia

Come si è appena descritto, il partizionamento logico che la hardware virtualization offre è molto più evoluto di quello che abbiamo usato negli ultimi venti anni sui desktop casalinghi per alternare Linux a Windows nei nostri momenti di esplorazione. Le applicazioni aziendali di questa tecnologia sono innumerevoli.

Nei primi anni del 2000, i pochissimi vendor di virtualizzazione sul mercato, Vmware e Connectix (la prima acquisita da Emc e la seconda da Microsoft, entrambe nel 2003), hanno cominciato a vendere questa tecnologia per risolvere una problematica precisa: permettere all’impresa di innovare le proprie infrastrutture tecnologiche senza perdere la compatibilità con quelle legacy.

Negli ultimi cinque anni la necessità di salvaguardare software legacy si è fatta via via meno impellente per una serie di molteplici ragioni, quindi i vendor di virtualizzazione hanno individuato nuovi scenari dove la loro tecnologia è particolarmente utile.

Quello in assoluto più rilevante è comunemente chiamato “server consolidation”.

Se la pratica di allungare il tempo di obsolescenza del software porta dei benefici economici significativi in certe realtà, la pratica di ridurre il numero di server fisici da manutenere implica un risparmio novevole per praticamente qualunque impresa.

Attraverso la pratica della P2V (physical to virtual) migration, un certo numero di server fisici nel data center viene trasformato in virtual machine e concentrato in una singola macchina fisica dalle caratteristiche tecniche importanti. Questa macchina, il cosiddetto “virtualization host”, può essere un server già disponibile in azienda, che viene riciclato per il nuovo ruolo o un server nuovo di zecca, sul quale va installato l’hypervisor. Ma quante macchine fisiche si possono trasformare in virtual machine e stipare in un singolo virtualization host? Dipende dalle caratteristiche dell’hypervisor, dalle caratteristiche del server fisico scelto e, soprattutto, dal carico di lavoro e dalle caratteristiche delle applicazioni che dovranno essere eseguite dentro le virtual machine.

Il rateo di consolidamento in media è compreso tra 20:1 (venti Vm per singolo virtualization host) e 10:1, ma ci sono casi particolari che vale la pena di menzionare: se tutte le virtual machine ospitano una batteria di applicazioni leggere, come ad esempio dei Web server che registrino pochi accessi giornalieri, il rateo può salire fino a 30:1 o anche più; se le virtual machine, invece, ospitano delle applicazioni particolarmente complesse ed esigenti in termini di risorse, soprattutto nell’accesso al disco, come ad esempio cubi Olap, allora il rateo può scendere drammaticamente fino a 2:1.

Non è possibile stilare una vera e propria casistica: ogni realtà ha caratteristiche uniche che si traducono in un rateo di consolidamento impossibile da prevedere senza un’analisi specifica chiamata in gergo “capacity planning”.

In ogni caso, la scelta di virtualizzare dieci, venti o più server fisici ha dei vantaggi evidenti.

Il budget aziendale è immediatamente sgravato dei costi di manutenzione per tutte le macchine in questione, dei costi di affitto o proprietà per le sale server che le contengono, dei costi energetici per tenerle in esercizio e raffreddarle adeguatamente e, ovviamente, dei costi di sostituzione delle stesse quando queste diventano obsolete.

Tempi ridotti per nuovi progetti

Oltre a questo, c’è un immediato ritorno sull’investimento grazie ai tempi drasticamente ridotti per l’avvio di nuovi progetti: a differenza delle macchine fisiche che richiedono mesi per essere ordinate, consegnate, configurate e messe in esercizio, le virtual machine possono essere configurate e messe a disposizione dell’utenza in un paio d’ore al massimo, a volte in una manciata di minuti. E volendo, la procedura può essere automatizzata per attivare decine, anche centinaia, di Vm nello stesso momento.

Ovviamente in quanto nuova tecnologia, la virtualizzazione introduce tutta una serie di nuovi costi, spesso non evidenti, che vanno opportunamente calcolati per individuare il reale ritorno sull’investimento.

Ma quando l’analisi, la pianificazione e l’implementazione sono affidate in mani competenti, il beneficio economico della virtualizzazione è palese e veramente significativo.

La stragrande maggioranza delle aziende oggi si ferma a questo punto. Per moltissimi clienti abbracciare la filosofia della virtualizzazione significa fare server consolidation.

In realtà i player di mercato stanno portando la virtualizzazione in altre aree dei data center, dove ci sono opportunità fenomenali. In queste pagine, vediamo quali.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome