Vmware – Automatizzare la gestione dei sistemi per essere 2.0

Dario Regazzoni, systems engineer manager

Le tappe utili per godere appieno dei vantaggi offerti dalla virtualizzazione possono variare a seconda del contesto aziendale, in base alle dimensioni dell’infrastruttura It e alla sua criticità per il business.

La questione può essere analizzata sotto diversi aspetti: decisionale, organizzativo e operativo. Per quanto riguarda il primo aspetto, è necessaria la costruzione di un business case che vada a confrontare la soluzione virtualizzata rispetto al business as usual, ponendo in evidenza la forte riduzione del Tco e il Roi estremamente rapido. Dal punto di vista organizzativo, le problematiche sono differenti a seconda delle dimensioni aziendali. Per le realtà medio piccole, l’adozione e il cambiamento sono semplici, vista la flessibilità che normalmente caratterizza queste strutture. Nelle organizzazioni enterprise si deve, invece, procedere per gradi concertando con le varie anime dell’organizzazione le evoluzioni e i nuovi equilibri. La virtualizzazione viene portata avanti generalmente da chi si occupa di sistemi e server e impatta istantaneamente chi si occupa di storage e network. Bisogna, quindi, opportunamente posizionare la nuova tecnologia considerando questi due gruppi principali e poi estendere la disamina a chi si occupa degli applicativi. Generalmente, gli evidenti vantaggi operativi ed economici, la maturità della tecnologia e la sua vasta adozione fanno sì che le eventuali resistenze e incertezze vengano superate in seguito ai primi test e approfondimenti.

Infine, dal punto di vista operativo, i processi possono essere i più vari. Per il passaggio da fisico a virtuale, solitamente, si procede con l’identificare le diverse tipologie di server in base a una molteplicità di criteri (obsolescenza, criticità, rete di appartenenza, carico), si esegue un capacity planning e si passa, quindi, alla migrazione da fisico a virtuale in modo graduale, progressivo e, se ben eseguito, senza impatti sulla continuità di esercizio delle applicazioni. Una volta collaudata e affinata la procedura si può arrivare a convertire anche più di 300 server al mese. Per i progetti che partono direttamente sul virtuale la prassi è di mantenere un accurato controllo sul rispetto degli Sla sistemistici e applicativi ed eventualmente agire per ottimizzare l’utilizzo hardware e il bilanciamento-allocazione delle risorse stesse. In media, il Tco dei sistemi oggetto di virtualizzazione si riduce dal 30 al 70% con tempi medi di ritorno sull’investimento inferiori ai sei mesi. I progetti legati ai server sono tipicamente caratterizzati da forti risparmi sia sui Capex che sugli Opex. Per le iniziative sui desktop, invece, prevale l’Opex.

Per poter parlare di virtualizzazione 2.0 bisogna, però, considerare l’automazione della gestione dei sistemi. Dopo aver astratto i sistemi operativi e le applicazioni dall’hardware che è stato “smaterializzato” e riaggregato come un unico pool di risorse computazionali, di network e storage, è fondamentale rendere le procedure di gestione flessibili e intelligenti quanto il nuovo hardware fluido.

In questo contesto, tali strumenti rivestono un ruolo essenziale, specialmente per quanto riguarda le problematiche relative al provisioning e al ciclo di vita dei sistemi, alla gestione di quelli di staging e test o della configurazione e della compliance, al rispetto degli Sla, al chargeback e al billing, e in generale a tutti quegli aspetti che consentono di aggiungere all’efficenza introdotta dalla virtualizzazione un sufficiente grado di controllo delle infrastrutture e delle applicazioni.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome