La virtualizzazione rischia di arenarsi alla fase uno

Lo pensa Maurizio Desiderio di Infoblox a fronte di un’analisi su come gli It manager provvedono alla gestione di rete. Serve molta più automazione di quanto si pensi.

La virtualizzazione è senza dubbio andata oltre la prima fase, e come concetto, è ampiamente accettata, con quasi il 40% dei carichi di lavoro x86 che girano già su macchine virtuali dall’inizio di quest’anno, e con una previsione di crescita superiore al 75% entro il 2015 secondo Gartner.

Ma il punto di non ritorno della adozione di massa significherebbe entrare con armi e bagagli nel magmatico mercato delle Pmi.
Con tutto ciàò che ne consegue.
A Maurizio Desiderio, Sales director Italy, Tukey e Middle East di Infoblox vien da chiedersi se sono davvero pronte.

A giudicare dai risultati di una recente indagine proprio di Infoblox, la risposta parrebbe essere negativa, al punto da spingere Desiderio a ipotizzare che «la nave della virtualizzazione sta per arenarsi».

L’indicatore è la gestione degli Ip
In una recente indagine di Infoblox effettuata per tracciare la prontezza ad accogliere l’Ipv6 in Emea è stata posta la domanda: ”In che modo la sua azienda tiene traccia degli indirizzi Ip?”. Le risposte a questo quesito sono state molto significative rapportate al concetto di virtualizzazione.

È emerso che il 40% si affida ancora a processi manuali
, nella migliore delle ipotesi tenendo traccia su fogli di calcolo o persino affidandosi a registri cartacei, con il 52% che fa automazione via software.

Resta il fatto che nella maggior parte dei casi il passaggio all’automazione è stato semplicemente permesso da soluzioni bundled, come Windows Active Directory.

Nonostante non sia indicato dai risultati dell’indagine, esiste una corrispondenza con le stime degli analisti, in relazione al dato che vede come prassi più diffusa per la gestione della rete l’affidamento a processi manuali o a software elementari .

Questi strumenti, osserva Desiderio, sono economici e molto diffusi, ma in genere possono solo gestire domini multipli e sottoreti fornendo il coordinamento al di fuori di questi sistemi, e tale coordinamento è di per sé spesso basato su fogli di calcolo compilati manualmente.

Inoltre nelle tante aziende che operano sia su Linux che su Windows è richiesta una certa forma di coordinamento manuale tra i due sistemi operativi.

Oltre al costo del lavoro e la possibilità di errori, tali soluzioni rappresentano un problema per i settori soggetti a regolamenti in materia di conformità. Né il Bind né l’Active Directory o i fogli di calcolo sono in grado di offrire una reportistica dello storico e una traccia delle verifiche contabili. Per la reportistica di conformità, tutto questo è necessario su base regolare, con l’aggravio di ulteriore lavoro manuale.

Il difficile passaggio alla fase due
Se è vero che la virtualizzazione è già diffusa, è anche vero che la maggioranza non va oltre le semplici installazioni della ”fase uno” che permettono a numerose istanze di applicazioni di essere legate ad un unico server fisico per ridurre spazio, consumo di energia e costi di raffreddamento.

Se le aziende provassero a scalare oltre la fase uno per supportare carichi di lavoro dinamici e infrastrutture di cloud privato, secondo Desiderio avrebbero a che fare con livelli di cambiamento e complessità mai riscontrati.

Nel datacenter virtuali gli amministratori devono essere in grado di modificare il provisioning della potenza di elaborazione in un attimo. Se questo cambiamento non fosse fortemente automatizzato, i molti step necessari per effettuare il re-provisioning dell’infrastruttura di rete e dei suoi servizi principali quali l’assegnazione degli indirizzi Ip, Dns e Dhcp, richiederebbe tempo e risorse considerevoli.
Questi cambiamenti includono: firewall, Vlan, QoS, gestione delle policy, e ed altre modifiche sia agli elementi di rete fisici che virtuali per supportare il datacenter virtuale.

Il risultato è che la virtualizzazione non andrà mai oltre la fase uno fino a quando gli amministratori di rete non smetteranno di affidarsi a fogli di calcolo, processi manuali e bundled tool elementari per tener traccia degli indirizzi Ip e gestire servizi fondamentali quali Dns e Dhcp. Devono migrare verso una soluzione automatica che possa scalare in un ambiente virtuale nel quale il provisioning, la migrazione e lo spegnimento delle macchine virtuali avviene in modo dinamico.

Tuttavia, secondo l’indagine Infoblox, il 40% delle aziende non ha iniziato ad affrontare questo problema, e quelle che lo hanno fatto si affidano ancora in larga parte a software troppo elementari.

La necessità dell’automazione
Senza un’automazione estesa la situazione di spreco continuerà, e la virtualizzazione rimarrà una tecnologia di nicchia per tutti eccetto che per le aziende di grandi dimensioni, visto che offrirà benefici solo alle aziende che hanno già investito in sistemi flessibili e automatizzati che offrano le necessarie funzioni di visibilità, compliance e gestione dei cambiamenti sia negli ambienti fisici che in quelli virtuali.
Prima di guardare alla server virtualization o a una soluzione cloud, occorrerebbe chiedersi se la rete sia pronta per supportare la virtualizzazione. In mancanza di automazione a livello di infrastruttura di rete, per Desiderio la risposta è senza dubbio negativa.
L’automazione non richiede un cambiamento radicale della rete.

Le odierne soluzioni possono essere integrate in modo semplice sulla stessa, o caricate come software in un ambiente virtuale, e controllate utilizzando una pratica console. L’automazione non richiede nemmeno ingenti investimenti, visto che sono disponibili soluzioni base per gli uffici di dimensioni più ridotte, e una vasta gamma di sistemi evoluti per i più grandi datacenter.

Se si trattasse solo di permettere una migrazione verso l’ambiente virtuale di domani, questo sarebbe già di per sé un argomento sufficientemente forte. Tuttavia, l’automazione del cambiamento di rete affronta anche il problema dominante che al giorno d’oggi affligge le reti delle aziende, l’80% delle interruzioni di funzionamento dei sistemi può essere attribuito ad errori umani che sorgono quando vengono effettuati cambiamenti alla rete.

Per Desiderio rendere automatici i principali servizi di rete Ip, quali gestione degli indiriizzi Ip, Dns, Dhcp, e integrarli con il cambiamento automatico su tutti i dispositivi di rete quali switch, router e firewall, è il solo modo per preparare le reti di oggi alle esigenze del futuro.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome