Virtualizzazione, pilastro del Data lifecycle management

Hitachi Data Systems propone una gestione del ciclo di vita del dato che, in futuro, garantirà anche la trasparenza del layer di memorizzazione rispetto alle applicazioni.

Si sente parlare spesso di economia basata sull’informazione. Di fatto, le organizzazioni hanno l’esigenza di garantire la continuità dei propri servizi, forzate dagli obblighi imposti dalla legge o dalle necessità di una competizione sempre più aspra. Mantenere un presidio stretto dei dati che transitano nel sistema informativo delle aziende, in questo contesto, diventa una priorità.


«La nostra risposta a questi problemi – esordisce Roberto Salucci, storage product manager di Hitachi Data Systems – è riassunta nella formula Application Optimized Storage. Si traduce nella capacità di fornire tecnologie in grado di massimizzare la produttività dell’infrastruttura di memorizzazione. Implica la possibilità di gestire questo layer sulla base delle esigenze applicative, in modo trasparente. L’Aos è una modalità di allineamento dell’infrastruttura al business che va al di là dei soli aspetti tecnici, ma che comporta l’automazione dei processi. Significa fornire tecnologie che permettano di navigare all’interno dei server, classificare i dati e correlarli, per evitare duplicazioni. Negli anni scorsi, lo storage è evoluto. Si è passati dalla logica di gestione dei singoli dati alla presa in carico dei volumi, ovvero insiemi di dati tra loro virtualmente connessi. Il futuro vedrà l’introduzione di funzionalità che consentiranno di gestire lo storage sin nel dettaglio del singolo file».


«Tutti parlano di Information lifecycle management – gli fa eco Vincent Franceschini, senior director Future Technologies, Technology Office di Hitachi Data Systems – anche se, di fatto, pochi utenti sanno realmente di cosa si tratti. La virtualizzazione delle risorse storage, che è solo il primo passo sulla via di una gestione omnicomprensiva dell’informazione, viene ormai confusa quotidianamente con l’Ilm».


La maggior parte delle tecnologie sul mercato, infatti, non consente di andare al di là di uno spostamento lineare e unidirezionale (da dischi veloci ad alto costo verso dischi più lenti ed economici) dei dati. Hds è già in grado di offrire oggi quello che lei stessa ha battezzato il Data lifecycle management, una gestione ottimizzata dei dati che poggia sull’infrastruttura storage e che comprende funzionalità di backup, migrazione e replica in sicurezza.


Su questo livello, poi, grazie all’ausilio di alcuni partner tecnologici, innesta servizi di gestione dei contenuti e delle applicazioni. Di recente, in tema di gestione flessibile della movimentazione, la società ha presentato HiCommand Tiered Storage Manager.


Questo strumento consente di trasferire, in maniera dinamica, i dati attraverso i diversi livelli di un ambiente storage multidimensionale, senza che si renda necessaria l’interruzione delle applicazioni.


La Data Protection Suite della società, inoltre, è stata di recente ampliata. Si tratta di una console per la gestione centralizzata, basata su regole, delle operazioni di backup e recupero, archiviazione e migrazione dati, che si fonda sulla tecnologia Galaxy del partner CommVault.


L’indicizzazione dei contenuti, la loro ricerca, archiviazione e richiamo sono possibili, invece, grazie all’integrazione dei tool di archiviazione dei messaggi di posta elettronica dello specialista Ixos.


In realtà, già entro i prossimi due anni la società conta di riuscire a proporre un’offerta in grado di ottimizzare lo storage, asservendolo alle esigenze delle applicazioni in modo totalmente trasparente.


Le richieste dei singoli applicativi, quindi, guideranno l’utilizzo delle risorse di memorizzazione, in modo che sia possibile prevedere il fabbisogno futuro.


Si potrà fotografare la situazione in un dato istante e, dinamicamente, ridistribuire gli asset per garantire che le necessità delle applicazioni critiche siano sempre coperte.


L’Aos si traduce proprio nell’applicare la filosofia della qualità del servizio all’infrastruttura di memorizzazione. La Qos presuppone l’utilizzo di componenti in grado di individuare lo spazio inutilizzato sui diversi supporti, fatturare l’utilizzo ai singoli dipartimenti, utenti e applicazioni ma, soprattutto, stimare il consumo di storage e riallocare dinamicamente lo spazio sottoutilizzato o, nel caso, predisporre l’acquisto di nuovo hardware.


«Il tutto avverrà in modo automatizzato – conclude Salucci – grazie all’abbinamento a questa infrastruttura di un database di regole, che gestirà a 360° le informazioni che transitano in azienda. L’obiettivo è di garantire la rispondenza ai dettami imposti dalla legge in materia di trattamento dei dati, di farlo a costi contenuti e, soprattutto, con soluzione di continuità, senza influire negativamente sulle performance delle applicazioni. I costi associati alla loro indisponibilità sono, infatti, troppo alti».

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome