La sfida: fornire strumenti di gestione unificata

Le soluzioni a livello hardware sono già mature. Ora l’impegno dei vendor è di offrire piattaforme che visualizzino tutte le risorse It,comprese quelle virtualizzate

Dalle più o meno collaudate tecniche di partizione dell’hardware, alle moderne suite software per la gestione centralizzata del data center: in entrambi i casi la virtualizzazione ha l’obiettivo di presentare le risorse in modo tale che gli utenti o le applicazioni possano gestirle o utilizzarle nel modo migliore, cioè quello più vantaggioso ed efficiente a seconda dei casi, invece che nella sola modalità imposta dalle caratteristiche fisiche dell’hardware o dalla sua collocazione geografica. Il termine indica la capacità di creare una versione non fisica, cioè un’immagine, di un dispositivo o una risorsa.

Si può, quindi, virtualizzare un server, un’unità di memorizzazione, una rete o anche un sistema operativo. In quest’ultimo caso le risorse possono essere suddivise in vari ambienti di esecuzione (Virtual execution environment – Vee) dei diversi processi. Un semplice esempio di virtualizzazione può essere anche il partizionamento di un’unità disco fisica (hard disk) in due unità logiche separate (logical disk). In tutti i casi, sia che si tratti di virtualizzare le infrastrutture di storage, i server, le applicazioni o quant’altro, l’utente è in grado d’interagire con le risorse virtuali, così come se stesse operando direttamente su quelle fisiche.

Partizionare Cpu e server

Le tecniche di virtualizzazione eseguite direttamente sull’hardware, ad esempio sui microprocessori, sono già abbastanza consolidate. Le operazioni di partizionamento della Cpu possono essere effettuate, a seconda delle caratteristiche e funzionalità del prodotto, sfruttando le possibilità fornite dall’hardware o intervenendo sul firmware della macchina. Virtualizzare una Cpu permette di avere, ad esempio, più Cpu virtuali mappate su una stessa Cpu fisica: tipicamente si fa quando occorre creare un “time sharing” della capacità elaborativa del processore fra più sistemi operativi. Questi ultimi, in tal caso, sono gli utenti ai quali viene presentata un’immagine del processore reale. Inoltre, la Cpu virtuale non deve necessariamente possedere le stesse caratteristiche di quella fisica. È possibile, ad esempio, implementare una Cpu virtuale Intel su un Cpu fisica Risc, con un’operazione di emulazione.

Su un unico sistema di elaborazione fisico, sia esso un server o un personal computer, si può quindi decidere di installare e far funzionare contemporaneamente sistemi operativi diversi, come ad esempio Windows e Linux.

«I vari sistemi operativi così installati e funzionanti – spiega Andrea Toigo, business solution specialist di Intel Italia – sono in grado di operare, come se avessero, ognuno, accesso esclusivo alle risorse hardware fisiche». E ciò grazie a piattaforme di virtualizzazione conosciute nel settore sotto i nomi di virtual machine monitor (Vmm) o hypervisor. Inoltre, aggiunge Toigo, usando i processori Intel di ultima generazione come Xeon o Core 2 Duo, si possono sviluppare Vmm e hypervisor in maniera molto piú semplice, con la possibilitá di utilizzare anche sistemi operativi a 64 bit.

Virtualizzare un server allarga ulteriormente la capacità di gestione. «In questo caso – osserva Alberto Bullani, regional manager per l’Italia di Vmware – si attua la trasformazione di un server fisico – cioè un oggetto con un suo preciso ingombro e un determinato consumo di energia elettrica – in un file, che mantiene le stesse proprietà del server di partenza. Realizzato in questo modo, un server virtuale risulta composto da tutto lo stack applicativo originale, ossia Bios, sistema operativo e applicazioni, fornendo all’It elevata flessibilità e ottimizzazione delle risorse disponibili. Infatti, sullo stesso server fisico si possono eseguire diversi server virtuali con sistemi operativi tra loro eterogenei e separati. Uno dei vantaggi più importanti è la semplificazione dell’infrastruttura It, che comporta un significativo miglioramento nella gestione dei sistemi, nella messa in opera di nuovi server, virtuali e non più fisici, nella possibilità di rispondere in tempi estremamente rapidi a nuove esigenze di business.

I risparmi più evidenti, invece, sono quelli dovuti alla dismissione di server fisici, alla cancellazione dei relativi canoni di manutenzione, al risparmio di corrente elettrica e di “floor space” nel data center».

Verso le suite di gestione unificata

Virtualizzare comporta, però, anche qualche impatto sull’infrastruttura It aziendale. «Se dal punto di vista dell’utente delle applicazioni non ci sono cambiamenti e il passaggio risulta “trasparente” – precisa Toigo – sull’infrastruttura e su chi la gestisce qualche cambiamento si verifica. Gli amministratori It devono mutare un po’ il loro approccio, tenendo presente che viene a mancare l’associazione 1:1 tra macchina logica e fisica. Quindi non valgono piú i criteri di dimensionamento dei server adottati fino a oggi, ma è necessario valutare quale possa essere il rapporto “server virtuale-server fisico“ per la propria realtá aziendale. Un altro punto importante riguarda i meccanismi di creazione e migrazione delle macchine virtuali, che devono consentire un utilizzo bilanciato delle risorse fisiche, in modo da garantire comunque sistemi di sicurezza in grado di ridurre, se non annullare, i tempi di fermo-macchina che possono verificarsi nel caso di un malfunzionamento dell’hardware».

Inoltre, si tratta anche di mantenere inalterate le performance. «L’innovazione tecnologica in questo settore– commenta Andrea Rossi, country manager di Novell Italia – consiste, tecnicamente, nella capacità di ottenere prestazioni in ambito virtuale che siano paragonabili a quelle ottenute con hardware fisico. Sul piano delle prove da affrontare per il futuro, la prima vera sfida è la gestione del parco macchine virtuali, che riducono sì il numero di macchine fisiche, ma richiedono, comunque, un’amministrazione complessa. L’altra sfida importante è data dall’esistenza di diverse tecnologie di virtualizzazione. Ecco perché occorrono strumenti di gestione indipendenti da queste ultime».

Infatti, se è vero che, lato hardware, i meccanismi e le tecniche di virtualizzazione stanno facendosi sempre più sofisticati, è anche vero che la proliferazione di server, Cpu, storage e altre risorse virtuali può causare all’It manager non poche difficoltà di gestione. Si rendono, quindi, necessari anche prodotti e componenti software che lo mettano in grado di “riassemblare“ tutte le risorse virtuali e fisiche del data center e di amministrarle con semplicità ed efficienza, abbattendo i confini fra le isole di sistemi virtualizzati, creati con singole tecnologie o piattaforme.

«L’obiettivo di Ibm – spiega Giorgio Richelli, consulente e specialista It all’interno del Systems & Technology Group di Ibm Italia – è creare soluzioni di virtualizzazione completamente integrate nelle varie componenti: server, storage e software». Ciò porta, infatti, a diminuire ulteriormente i carichi di lavoro degli It manager. «Ad esempio – prosegue il manger – per creare un nuovo volume logico su un sistema di storage virtualizzato, non mi devo preoccupare di dove prendere i blocchi o su quale sottosistema dischi verranno collocati».

Il volume logico si può, infatti, creare aggregando lo spazio disco di unità fisiche dislocate in sale macchine o luoghi diversi. Senza virtualizzazione, invece, il compito è molto più oneroso. «Immaginiamo un’azienda che ha la necessità di partire velocemente con un nuovo progetto in cui servono risorse – osserva Richelli -. Dovendo gestire i server e lo storage di un ambiente fisico, l’addetto deve recarsi in sala macchine, trovare i server utilizzabili, reperire le unità di storage, controllare se dispongono di sufficiente spazio disco ed eventualmente fare operazioni di backup. Tutto ciò richiede tempo, mentre nella modalità virtuale si può creare in pochi minuti».

Le suite di gestione integrata servono anche a non perdere il controllo in ambienti molto complessi ed eterogenei, dove sono presenti risorse fisiche di vari vendor: in pratica, quando si verifica un malfunzionamento su un determinato volume virtuale, deve essere sempre possibile riprendere il filo e risalire in fretta all’errore, vedendo se è dovuto all’avaria di un’unità disco fisica, di cui occorre poi individuare la precisa collocazione nel data center.

Visione a “tutto tondo” dell’infrastruttura

Anche Hp si sta muovendo nella direzione degli strumenti software che danno una visione olistica di tutto il data center e della sua evoluzione nel tempo.

«Fornire un pannello unico di amministrazione da cui è possibile gestire tutte le risorse – commenta Simone Bruni, product marketing manager Business Critical Systems di Hp Italia per l’area dei server enterprise – è l’elemento su cui possono differenziarsi i diversi vendor. La vera sfida su cui stiamo investendo molto è integrare i meccanismi di virtualizzazione con tutto l’hardware: server x86, Unix, unità di storage e quant’altro». E questo, spiega, è fondamentale anche per risolvere il vero problema degli utenti, che è snellire e automatizzare il più possibile le procedure di provisioning delle varie risorse e servizi It all’interno dell’organizzazione, per concentrarsi meglio sugli aspetti che riguardano i cambiamenti e l’evoluzione del business.

La virtualizzazione è poi vista con favore anche da chi opera nel settore dei servizi globali di It. «Questa tecnologia – sottolinea Marco Cherubini, responsabile della divisione Managed services di Atos Origin per i servizi in outsourcing delle infrastrutture It – per noi è molto importante, perché ci permette, come outsourcer, di fare davvero l’outsourcer e di offrire ai nostri clienti servizi di qualità superiore in termini, per esempio, di tempi di approvvigionamento, quindi di realizzazione, disponibilità, crescita o evoluzione delle piattaforme. Soprattutto ci permette di sganciarci da quello che è l’investimento finanziario dedicato, che nel mondo open è sempre stato caratterizzante l’evoluzione delle piattaforme. Nel senso che in questo settore, di solito, quando occorre ospitare una nuova applicazione o far evolvere una piattaforma, lo si fa comprando macchine dedicate. Invece con la virtualizzazione, soprattutto hardware, siamo in grado di rispondere a queste esigenze con la possibilità di condividere una stessa piattaforma tecnologica, che poi è utilizzabile per più di un cliente o di un’applicazione».

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome