Hitachi contro Datazilla: la virtualizzazione «fantastica»

Integrazione virtuale tra server e storage e remote management tool accelereranno l’adozione del cloud nei datacenter. Parola di Yoshida e dei Fantastici Quattro.

Un trend che si sta affermando già dall’inizio di quest’anno è la trasformazione dei data center in una direzione più moderna, che prevede una più stretta integrazione tra la virtualizzazione dei server e quella dello storage.
La virtualizzazione dei server è attualmente abilitata alle applicazioni tier 1, e i sottosistemi storage possono eliminare alcuni blocchi tipici dell’I/O (applicazione od opsys) come l’Scsi: la loro scalabilità soddisfa la QoS tipiche delle applicazioni aziendali di tipo tier 1.
Hubert Yoshida, Vice President e Cto di Hitachi Data Systems, ha individuato nella trasformazione del data center uno dei fattori chiave per l’Ict del 2011.
I primi elementi da considerare sono sicuramente la virtualizzazione e il dynamic provisioning, che costituiscono le basi per i data center cloud ad elevata disponibilità. “La virtualizzazione permette la migrazione dei dati da uno storage array ad un altro con una minima interruzione di servizio, abbattendo i costosi tempi di fermo per la sostituzione dello storage obsoleto”, spiega Yoshida. “Il dynamic provisioning rende disponibile lo storage in pochissimi minuti”.
L’azienda si è impegnata in un marketing particolarmente efficace, coinvolgendo addirittura i Fantastici Quattro, personaggi della Marvel Comics di Stan Lee. Sul blog di Yoshida, un vero Guru Blog, è disponibile “Trapped in the Data Vortex”, un albo digitale gratuito in 2D e in 3D nel quale la virtualizzazione di Hitachi, gestita da Reed Richards, risolve il principale problema delle aziende.

L’importanza del tiering dinamico
Un altro aspetto importante è la gestione del ciclo di vita dei dati. Oggi è il sistema stesso che -in base alle attività e agli accessi- sposta parte di un volume tra livelli, sviluppando un automatic tiering. “Dato che almeno l’80% di un volume non è utilizzato di frequente e non richiede alte performance, solamente una piccola parte dei dati deve risiedere sui dispositivi Ssd di tier 1, mentre la maggior parte del volume può risiedere su economici dischi Sas o Sata”.
Un pool di storage multi-tiered potrebbe costare meno rispetto ad un singolo pool di drive Sas con la stessa capacità totale ed offrire da quattro a cinque volte lo IOPs (I/O per second).
Yoshida afferma inoltre che nel corso del 2011 la convergenza di server, storage ed infrastrutture di rete nel data center renderà più semplice e veloce la distribuzione delle applicazioni e la virtualizzazione sarà la chiave per fornire una piattaforma aperta che assicuri la protezione degli investimenti. Ma attenzione al personale: negli ultimi dieci anni, l’imperativo dell’IT è stato “fare più con meno”, sovraccaricando lo staff operativo con monitoraggio e reporting a discapito della trasformazione del data center. L’utilizzo dei tool per la gestione remota potrebbe invece essere la soluzione adatta, anche per ottenere un ritorno degli investimenti più rapido.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome