Il mostro virtualizzazione si doma con l’intelligenza del software

E l’It manager deve passare da tecnico ad architetto. Questa e altre sapide intuizioni ce le ha proposte il ceo di Datacore Software, George Teixeira.

Senza troppi preamboli, riportiamo una lunga chiacchierata con George Teixeira, ceo e president di Datacore Software, che è portatore di idee particolari in tema di efficientamento della virtualizzazione in azienda, dall’hypervisor stroage a, guardacaso, il cloud.

D: La virtualizzazione ha generato un mostro? Perché pare così difficile tenere sotto controllo tutto quanto c’è e accade nel datacenter?

T: Come avviene sempre in occasione di cambiamenti tecnologici importanti, la virtualizzazione ha portato a enormi progressi nella produttività e nel risparmio sui costi, ma la sua vasta diffusione comporta anche una nuova sfida: gestire quello che alcuni hanno battezzato il mostro scomposto della macchina virtuale.
La semplicità nel provisioning ha incrementato notevolmente il numero delle macchine virtuali installate. Di conseguenza, per supportare questi ambienti virtuali cresciuti in modo disordinato, sono necessarie anche maggiori prestazioni, disponibilità e gestione amministrativa.
Queste esigenze continueranno a crescere con il proliferare di sistemi, sia virtuali sia fisici, piattaforme e applicazioni. Che di sicuro lo faranno.
Fondamentalmente, la sfida più grande che si trova di fronte chi gestisce l’It è gestire e controllare tutta questa complessità con budget ridotti e meno persone compenti.
La risposta è una sola: utilizzando software molto, molto intelligente, con un atteggiamento mentale concentrato più sull’architettura che sui dispositivi e attraverso il coordinamento di persone e processi con questa nuova realtà.

D: Per un It manager il vero collo di bottiglia è il tempo per fare le cose che si vuole o il caos crescente delle infrastrutture?

T: La mancanza di tempo e la complessità nella gestione di infrastrutture dinamiche hanno reso più complicato il lavoro di chi gestisce l’It. Per questo la posizione di It manager deve evolvere da quella di tecnico a quella di architetto.
Troppe delle attuali attività che l’It manager deve svolgere o supervisionare sono specificamente legate al vendor o alla piattaforma, oppure strettamente connesse a dispositivi hardware realizzati su misura e, quindi, richiedono formazione specializzata o strumenti che ne permettano un uso corretto. Anche i sistemi proprietari e i nuovi modelli non sempre lavorano bene insieme.

Invece di affrontare semplicemente l’It come se fosse un gruppo di tecnologie e piattaforme separate, l’It manager deve creare un ambiente in cui i componenti hardware diventino condivisi e intercambiabili e possano essere gestiti come un corpo unico.
Questo punto di vista di livello più elevato è indispensabile per rispondere in modo conveniente agli esigenti e dinamici requisiti di prestazioni più elevate, maggiore disponibilità e superiore produttività.
Per riuscirci sono indispensabili un software di gestione intelligente che lavori a livello infrastrutturale e nuovi livelli di automazione.
Questi ultimi sono compiti che il software può svolgere molto bene.
La buona notizia è che il software intelligente necessario, come gli hypervisor storage, è già disponibile.
 Si tratta di programmi semplici da usare, che permettono l’intercambiabilità dell’hardware, che automatizzano i compiti ripetitivi più complessi e che gestiscono le risorse in pool.
Inoltre, per essere conveniente, l’hardware deve necessariamente diventare un componente intercambiabile, in modo che l’azienda possa rivolgersi al mercato libero e spuntare sull’hardware il miglior prezzo possibile.
Prodotti come Vmware e Hyper-V hanno già avuto un grande impatto nella modalità di scelta dei server hardware e soluzioni come l’hypervisor storage di DataCore faranno lo stesso per i dispositivi di archiviazione.
Il software è il luogo dove risiede l’intelligenza ed è la chiave per una migliore gestione. L’hypervisor storage di DataCore, per esempio, mette a disposizione un’architettura completa per il controllo dei quattro aspetti principali della gestione dello storage: rispondere alle esigenze prestazionali, garantire protezione ai dati e il disaster recovery, organizzare in modo conveniente le risorse di storage in pool e su livelli e ottimizzare l’utilizzo della capacità di storage a livello infrastrutturale.

D: Si dice che è importante avere una visione unica e strumenti atti allo scopo. Ma non dovrebbero già esserci nelle aziende?

T: Non proprio. La tecnologia deve essere applicata dalle persone. È chiaro che esistono nuove tecnologie e strumenti sofisticati, ma è fondamentale che persone e processi siano coordinati con questi strumenti. Tutti si concentrano sulla tecnologia, ma a contare di più sono gli altri aspetti.
Una visione che preveda un quadro d’insieme dell’architettura e un atteggiamento mentale elastico aperto ai cambiamenti dal vecchio a un nuovo modello sono indispensabili.
Di conseguenza, devono essere ugualmente sviluppati la formazione e l’adeguamento dei processi alla nuova tecnologia.
Il passaggio alla virtualizzazione o al cloud computing è molto di più della semplice aggiunta di un nuovo strumento tecnologico.
È invece un cambiamento fondamentale del modo in cui l’It opera per fornire e gestire i servizi aziendali.

D: Il problema di fondo è più quello di far vivere le strutture fisiche insieme a quelle virtuali o crearsi metodi per essere flessibili a prescindere da quanto c’è di fisico e quanto di virtuale nel datacenter?

T: Noi riteniamo che la proposizione tutto o niente offerta da vendor che non sono in grado di coprire contemporaneamente il mondo virtuale e quello fisico sia un errore, e anche di quelli costosi.
Virtualizzazione e cloud computing sono abbinate all’idea che sia meglio sostituire gli investimenti già realizzati in server e storage ripartendo da zero per soddisfare le richieste di prestazioni più elevate e maggiore disponibilità.
DataCore vede in questa posizione un grande ostacolo e ha quindi realizzato il suo hypervisor storage per operare sfruttando gli investimenti di storage già presenti in azienda. Questo strumento li migliora e li arricchisce con nuove potenti funzionalità.
Dato che è in grado di gestire sia dispositivi fisici che virtuali e un mix di piattaforme e tipologie di dispositivo vecchie e nuove non lo si può ignorare.
È interessante notare che un grande numero di nuovi vendor ha abbracciato il modello completamente virtuale, progettando soluzioni esclusivamente per rispondere alle esigenze del mondo virtuale.
Questi fornitori non si occupano della gestione dei dispositivi fisici, del supporto alla migrazione da un tipo di dispositivo a un altro o del supporto alla migrazione in un senso o nell’altro tra ambienti fisici e virtuali.

Questi vendor che si occupano esclusivamente di virtualizzazione tendono a parlare di una sorta di nirvana It in cui tutti e tutto ciò che è collegato a questo mondo è virtuale, aperto e semplice, privo dei complessi dettagli tipici del mondo reale. Non sembra di sentire un tipico dipartimento It?
Le soluzioni di virtualizzazione devono funzionare e offrire un’esperienza utente univoca tanto negli ambienti virtuali quanto in quelli fisici. Soluzioni che non sono in grado di interfacciarsi con il mondo dei dispositivi fisici non possono funzionare nel mondo reale, dove flessibilità, cambiamenti continui e migrazioni sono la norma.

D: DataCore come coniuga le esigenze di controllo, e quindi di performance, con gli asset esistenti nel datacenter e con le competenze che lo gestiscono?

T: La risposta è semplice: lo facciamo offrendo un’architettura per la gestione dello storage, un hypervisor storage. DataCore è un software intelligente e semplice da utilizzare che offre potenti funzioni di automazione e che consente l’intercambiabilità dell’hardware. Comprende e controlla entrambi i mondi virtuale e fisico e amplia le capacità sia degli asset di storage esistenti sia di quelli nuovi.

L’hypervisor storage di DataCore riunisce in pool, organizza automaticamente su livelli e virtualizza i dispositivi di storage, sia esistenti sia nuovi, comprese le più recenti tecnologie di storage basate su costose e performanti memorie Flash/Ssd e i convenienti gateway che gestiscono lo storage installato remotamente nella cloud.
Questa soluzione mette a disposizione un’architettura per gestire i difficili equilibri del rapporto prezzo/prestazioni dello storage suggerendo al contempo la migliore collocazione delle risorse di storage per rispondere alle esigenze di carichi di lavoro dinamici e delle applicazioni del mondo reale.
Dal punto di vista della velocità, il software di caching e gli algoritmi di auto-apprendimento sono pronti ad aumentare le prestazioni, spesso raddoppiando o triplicando la velocità dei tempi di risposta.
Il software per l’auto-failover e il failback offre i più elevati livelli di disponibilità e di accesso continuo allo storage. L’auto-tiering gestisce il traffico I/O per garantire che i dati siano collocati nel posto più adatto per ottenere le migliori prestazioni al costo più basso possibile. Il thin provisioning automatizzato rende semplice e veloce rispondere alle esigenze dei dischi di sistema applicativi e ottimizzare l’utilizzo complessivo della capacità di storage.

Dal punto di vista delle persone e dei processi, l’hypervisor storage di DataCore offre una modalità semplice e univoca per gestire, organizzare in pool, migrare e strutturare a livelli tutte le risorse di storage.
Il software accelera le prestazioni e automatizza i compiti che portano via molto tempo, compresa la protezione dei dati e l’allocazione dello spazio su disco.

D: A chi pensa di gestire la crescita dello storage affidandosi a sistemi di memorizzazione su cloud cosa proponete?

T: Per coloro che sono alla ricerca solamente dell’accesso a storage a basso costo nella cloud, l’hypervisor storage e il software di auto-tiering di DataCore supportano le funzionalità di gateway per la cloud.
In questo modello, i datacenter possono semplicemente continuare a utilizzare il loro storage locale come hanno sempre fatto, allocando però i carichi di lavoro meno esigenti sul fronte dello storage, i backup e i dati da archiviare su storage Open Cloud remoto, offerto da numerosi fornitori di storage cloud.
In questo caso DataCore permette di virtualizzare lo storage organizzando i dati in pool e livelli, mentre il software di auto-tiering e per la gestione del gateway si occupa automaticamente di collocare i dati nella cloud.

Chi invece desidera realizzare indipendentemente le proprie cloud private, trova nella virtualizzazione dello storage l’elemento di base. Per gestire i pool di risorse virtuali, le cloud dipendono dal software. DataCore aggiunge l’agilità del software, consentendo l’intercambiabilità dell’hardware e astraendo la gestione delle risorse di storage dai limiti imposti dai contenitori degli specifici vendor. In questo modo, lo storage si trasforma in un pool di risorse portabili e condivisibili e può essere gestito a livello infrastrutturale per rispondere in modo ottimale a una vasta gamma di esigenze di livello di servizio.

D: Quando deve e può essere semplice l’attività di gestione del datacenter? Non c’è un giusto limite alla semplificazione, che poi motiva l’esistenza di una figura It preposta alla gestione?

T: Con un atteggiamento mentale da quadro d’insieme nella gestione del datacenter, non ci sono veri limiti a ciò che può essere integrato, automatizzato e semplificato. se si riesce a pensare attraverso attività e processi, il software può essere codificato per migliorare la produttività e rendere le attività più semplici e a prova di errore.

Le architetture software come l’hypervisor storage di DataCore, realizzate in oltre un decennio di applicazione nel mondo reale, insegnano come ridurre la complessità dello storage. Il risultato è un vero framework gestionale in grado di incorporare facilmente nuove tecnologie, funzionalità e capacità.
La gestione del datacenter continuerà ad affrontare nuove sfide a ritmo sempre crescente.
Guardando al futuro, questa attività si astrarrà sempre più dai dettagli di basso livello e dovrà diventare sempre più dipendente da architetture software intelligenti che aiutino a monitorare e a gestire il crescente numero di applicazioni, sistemi, reti e dispositivi di storage.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome