La bussola dello storage si orienta verso l’information management

Il segmento dello storage è al salto di qualità. Non basta più parlare solo dei dispositivi di memorizzazione, che comunque conservano la loro importanza, ma ogni soluzione va inquadrata in un sistema che tenga conto del ciclo di vita del dato in azienda.

 


 


Se ci si mette anche Microsoft, state tranquilli che il settore promette bene. È questo il senso che possiamo desumere dalla mera attualità (si veda a pagina 7). Il settore in questione non è, banalmente, lo storage, ma è quello che traduce in pratica il concetto "che cosa ne facciamo dello storage". Ora, con Windows Storage Server è chiarissimo cosa voglia farne Microsoft. Su un piano puramente di mercato, intende arrivare a controllare il settore dei sistemi operativi per Nas. Ma questo traguardo non è fine a se stesso e prelude all’integrazione delle informazioni provenienti da questi dispositivi di memorizzazione di file in un contesto prima architetturale e poi di sistema informativo dove Windows e i suoi application server la fanno da padroni.


Per approcciare il mercato dello storage, insomma, Microsoft segue una strada già battuta, quella che parte dal basso, dal dispositivo "piccolo", per quanto tale possa definirsi un Nas e per poi arrivare chissà dove, lassù. Tanto c’è già chi sta remando in una direzione favorevole, come tutti quegli storage vendor che parlano di far convergere il mondo dei Nas con quello delle San.


E a supportare il sistema operativo "puro storage" di Microsoft sono accorsi sin dal primo giorno i produttori di Nas (da Dell, con i sistemi PowerVault a Hp, con gli StorageServer, a Iomega), ma anche quelli di software e soluzioni abilitanti la gestione dello storage, come Comm Vault (con il tool per il reporting QiNetix), Computer Associates (con i software di gestione BrightStor), Legato (con i prodotti di backup e recovery) Veritas (con Storage Replicator, soluzione per copiare i dati dei Nas dal remoto a un centro dati).

Il momento del cambiamento


Il valore di Windows, quindi, è ancora una volta paradigmatico. Ma c’è di più. È il sintomo che qualcosa sta cambiando e che il segmento dello storage è giunto al suo cambio di generazione. La riprova la si avrà nell’arco dei prossimi 6-12 mesi. Ognuno potrà verificarla, contando le volte che gli sarà proposta una qualsivoglia soluzione di storage sotto il cappello della gestione del ciclo di vita dell’informazione. È più di un trend di mercato. Fosse solo tale, sarebbe puramente ascrivibile al marketing. Ma qui, si diceva, c’è di più: ci sono tecnologie che si intersecano, standard che si incrociano e prodotti che abbandonano lo status di isole di memoria e si mettono in rete. Perché lo storage, per tutti, anche per chi deteneva ipotetici e reali vantaggi di prima mossa (due per tutti: NetApp nei Nas ed Emc nelle San) è diventato il più promettente terreno di incontro.


Un terreno che consente, oltretutto, di mediare sulla costante del mercato It attuale, che è la riduzione pianificata dei costi (tema altrimenti decifrabile alla voce Roi, cioè ritorno sull’investimento), con l’aumento della "potenza di fuoco" necessaria per gestire le informazioni.


Lo storage di oggi e di domani, insomma, in tutte le sue declinazioni (dalle alte tematiche di gestione a quelle prosaiche di networking), riesce a costruire mercato, correndo con tassi superiori a quelli del prodotto interno lordo, perché copre un’esigenza fattiva. È questo un quadro di mercato in cui un tema come la business continuity, cioè quella che sembrava essere la parola d’ordine un anno fa, ora rischia paradossalmente di passare per obsoleta. In realtà non è vero. La continuità di servizio delle operazioni è parte integrante dello storage intelligente. Che però è evoluto. La libreria a nastri, l’array di dischi, il Nas, la San, sono ora, e lo saranno ancora di più nei prossimi mesi, inquadrati in modo strumentale al concetto di management dell’informazione.


Concetto sospinto ai limiti dell’immaginabile, se accogliamo il fatto che Gartner comincia a parlare di Bam per lo storage. Bam, ovvero Business activity moniotoring, è cioè un sistema di controllo delle risorse di storage orchestrato direttamente dall’utente finale delle risorse stesse, e non da un’entità "istituzionale" come il decisore di spesa, ovvero chi riporta direttamente all’amministratore delegato.

La convergenza in atto


Tutto è cominciato con "un’ammissione di colpa" da parte dell’intero settore: non aveva senso che i Nas fossero separati dalle San. Queste ultime, che generalmente mettono il "disco" al servizio dei database, sono utilizzate da grandi aziende. Rimanendo sempre su un piano generale, i Nas, con la loro capacità di far condividere i file, hanno invece portato


la capacità di memoria nelle piccole-medie aziende. Ma proprio la loro funzionalità ha aperto un terreno di convergenza, perché (questa la grande lezione dello storage pragmatico) conta la funzione, non la "razza" di appartenenza. Così molte grande aziende si sono rese conto di aver bisogno anche dei Nas e hanno, quindi, maturato l’esigenza di farli convivere con le reti di storage al servizio dei database, proprio perché il dato, nella sua unità di base, è quello che conta. Casi dettati dalla cronaca, come quello della convergenza fra i Nas di Netwok Appliance e lo storage networking di McData esemplificano bene lo stato delle cose. Uno stato di interoperabilità a cui non si sottraggono tutti gli altri fornitori di storage architetturale, da Emc ad Hp, da Ibm a StorageTek, e tantomeno architetti dello storage networking, su tutti, Cisco e Brocade.

Tecnologia e costi


Ma se un problema viene a cessare, un altro, a cui la nuova visione dello storage vuole dare risposte, emerge, e riguarda il giusto equilibrio fra tecnologia e costi.


Problema, questo, ben esemplificato dalle San su protocollo Ip, abilitate al funzionamento dall’emersione ormai conclamata dello standard iScsi. Utilizzato per portare i comandi nativi Scsi su protocollo Tcp/Ip, il protocollo consente, contemporaneamente, di condividere array di dischi e librerie di nastri su protocollo Ip e di ampliare alla portata del Gigabit Ethernet il respiro delle San. Ma se lo standard, sdoganato ufficialmente all’inizio dell’anno dall’Ietf (Internet Engineering Task Force) da un lato porta nuove capacità, dall’altro apre un conflitto potenziale con il protocollo storico delle San, il Fibre channel, accolto in azienda con grandi investimenti. C’è, peraltro, nella comunità dei vendor chi non li vede necessariamente "combattere", e piuttosto inquadra le San basate su Ip e quelle su Fc in un contesto di complementarietà. E lo fa mettendola sul piano dei costi. Si dice che una San basata su Ip possa costare dai 2 ai 6 centesimi di euro per Mb, ovvero che un troncone, non ridondato di 2 Tb, con magari una ventina di server appoggiati venga a costare approssimativamente 40mila euro. Ma se, a parità di capacità, si vuole aggiungere un failover attivo, alte performance e multi pathing, il costo totale, comprese le spese per la gestione e la connettività, potrebbe anche triplicare. Insomma, il senso è che le alte performance delle San su Fc costano, mentre quelle su Ip portano scalabilità, semplicità di utilizzo e fanno tenere d’occhio il costo operativo.


Ma c’è anche che le aziende hanno ormai investito nel Fibre channel e la protezione dell’investimento non va mai dimenticata. Meglio cercare la complementarietà, allora. La chiave da sottoporre agli imprenditori per farlo è proprio quella dell’information management, a cui sottomettere ogni considerazione e azione aggiuntiva alla propria struttura di storage. Il che è un modo come un altro per dire che le tecnologie in sé hanno un’importanza relativa: ciò che conta sono le applicazioni da gestire, tenendo conto di alcuni tasselli di base.

L’obiettivo applicativo


Il primo è quello del modello dello storage networking, che si è ormai affermato. Da qui, dire se è meglio la San sotto Ip, quella su Fc, un Nas in ogni dipartimento o un Das (Direct access storage) riveduto e corretto, non ha senso in valore assoluto. Vanno piuttosto analizzate, caso per caso, le strutture esistenti nelle aziende e le esigenze di transazione dati che sono direttamente dipendenti dal business che un’impresa conduce.


Il secondo è quello dello storage management puro, per il quale esistono sul mercato svariate soluzioni, ma che, in se e per se non risolve. Un tool di storage management collocato "on top" della batteria di dischi non porta vantaggio competitivo se non si prioritizzano le funzioni che questo può abilitare. Si va dalla perenne amministrazione del database alla virtualizzazione delle risorse, dal normale (da non trascurare mai) backup alle più auliche business continuity e disaster recovery. Scala di valori di business, censimento (e aggiunta, se del caso) delle risorse, applicazione degli strumenti di gestione: queste, nell’ordine le fasi da considerare per impostare una corretta strategia di storage management.


Si arriva, quindi, al terzo tassello, che abilita a interpretare lo storage come un’applicazione: la gestione del ciclo di vita dell’informazione. La fase dell’Information lifecycle management (Ilm) è necessariamente sequenziale a una buona assimilazione dello storage in azienda. Non si parte certo da zero e non è nemmeno un punto di arrivo. È, piuttosto, l’elemento abilitante a fare business attraverso uno storage gestito, attribuendo il massimo valore possibile all’unità informativa. Ovvero, si trasformano i dati e tutte le attività che li contornano in azioni produttive. Perchè ciò possa accadere è necessario che tutte le risorse siano in rete, come sostiene Emc, in modo tale che sia automatizzabile l’applicazione alla struttura It delle policy dettate dal business.


La rivoluzione proposta dall’Ilm è che ciò deve poter accadere non per un ordine straordinario del Ceo, ma partendo da una semplice console.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome