Autogestione delle risorse e razionalizzazione. Le nuove vie dello storage

Le reti San o Nas come ecosistemi perfettamente autonomi e in grado di perpetuarsi. A questo obiettivo sembrano tendere tutte le tecnologie “sul tavolo” della memorizzazione. Senza trascurare la semplicità di managing, condizione essenziale per contenere i costi.

 


Sono in molti a credere che anche alla memorizzazione possa adattarsi quella componente di "intelligenza" che sta trovando spazio crescente nella gestione di diverse tipologie di risorse computazionali, sia sul fronte dei server che su quello dei personal computer. Ma diversi sono i sentieri imboccati. C’è chi, come Cisco, investe la rete fisica della capacità di gestire la riallocazione delle risorse tra le diverse applicazioni e device e chi, come Ibm o Hewlett-Packard, propone soluzioni che aggregano i dati in relazione a diverse variabili correlate, per poi favorirne la gestione "logica" sui vari dispositivi fisici.


La virtualizzazione, fondamento di entrambi gli approcci, è un’astrazione che consente di semplificare la gestione di sistemi storage complessi e oggi sembra giocare un ruolo sempre più rilevante a fronte di budget It sostanzialmente stabili o, addirittura ridotti. La bassa propensione a investire nell’adeguamento dell’infrastruttura hardware va di pari passo con la presa di coscienza che, negli ultimi anni, le aziende hanno la possibilità di accedere a tecnologie che permettono la mappatura di tutte le caratteristiche fisiche dei dispositivi, siano essi array, switch, risorse di rete, assegnando a ciascuno degli attributi logici che potranno essere più facilmente gestiti dall’amministratore e riassegnati. I data center di oggi consolidano e riallocano le risorse, ripartendole in modo "adattivo" tra le applicazioni, sulla base delle politiche di gestione definite dal responsabile storage. Ed è proprio all’interno dei data center che prende piede un nuovo modello di accesso e gestione delle informazioni, quello che Idc ha battezzato "utility", che si propone di erogare lo storage su un modello "on tap", ovvero come se fosse l’acqua che esce dal rubinetto ogni qualvolta se ne ha bisogno.

L’orizzonte si amplia


Le grandi aziende sembrano aver già compreso la necessità di dover procedere a un consolidamento degli ambienti di memorizzazione, così come dell’infrastruttura informativa in generale (si parla, in questo contesto, di It "federata"). La razionalizzazione dello storage può essere intesa nelle due accezioni di consolidamento "quantitativo" che, negli ambienti più semplici, porta a ricondurre a un device fisico i dati che, in azienda, risiedono su una pluralità di dispositivi diversi, così come di centralizzazione delle applicazioni duplicate in vari siti su un’unica Storage area network (consolidamento "logico"). In entrambi i casi, è opinione diffusa che si tratti di una delle componenti di una strategia più ampia di continuità del business, anche se non necessariamente il suo presupposto, e che debba, inevitabilmente, comportare anche dei cambiamenti architetturali, come il pasaggio alle tecnologie blade e alle interfacce Ata (At Attached). Ricondurre a unità l’infrastruttura storage è anche il primo passo per semplificarne la gestione, come spinta per ridurre i costi. Proprio questa razionalizzazione di tutto lo storage presente in azienda porta i vendor a spingere sempre più agli estremi le tradizionali frontiere che contrapponevano le Storage area network ai sistemi di memorizzazione a connessione diretta. Ecco, allora, che Hp e Hitachi Data Systems (quest’ultima con l’aiuto di Network Appliance) si fanno promotrici dell’integrazione San/Nas sullo stesso dispositivo, tracciando i contorni del Fabric attached storage (Fas).

L’offerta si fa verticale


Alcuni produttori hanno addirittura già sviluppato delle soluzioni specifiche per esigenze particolari, come Emc e NetApp, pionieri del Cas (Content address storage). Le novità muovono dal principio che a esigenze diverse occorre rispondere con soluzioni ad hoc, con tecnologie che siano ottimizzate per svolgere compiti ben precisi: in questo caso, l’archiviazione e, all’occasione, la rapida consultazione di dati e documenti "fissi", ovvero di tutte quelle informazioni soggette a normative specifiche che ne obbligano la custodia per un periodo minimo, come contratti, e-mail, cartelle cliniche. Se, tuttavia, le esigenze delle aziende di fascia enterprise sembrano indirizzare il maggior sforzo di sviluppo, anche sul fronte midrange ci sono interessanti novità e la battaglia sul campo dello storage nearline è ancora aperta, come dimostrano le ultime novità introdotte con le tecnologie a nastro. Non da ultimo, il futuro dello storage sembra segnato dall’impegno e dagli sforzi in merito allo sviluppo cooperativo di specifiche che permettano una concreta gestione, da consolle centralizzate, dell’hardware cross vendor.


Ibm, ad esempio, insieme a Hitachi Data Systems, Sun e Veritas già da tempo è impegnata a supportare la generale adozione di Bluefin, nato dal consolidamento in seno alla Snia (Storage Netoworking Industry Association) di due specifiche note in precedenza come Cim e Wbem. Il primo (Common Information Model) è un vocabolario per la descrizione dei dispositivi storage e i processi relativi, che consente di fornire servizi di memorizzazione in un ambiente eterogeneo. Web Based Enterprise Management fornisce, invece, uno standard architetturale a livello di rete storage, per facilitare le attività di gestione in ambienti multi-dispositivo e multi-piattaforma.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome