La strada dello storage all’insegna della convergenza

Il futuro della memorizzazione sembra avviato verso la coesistenza di approcci diversi al mercato, tutti ugualmente validi perché rapportati alle molteplici esigenze delle aziende.

Il principio che accomuna le offerte di tutti i grossi nomi dello storage sembra essere, già da tempo, diventato quello della massima apertura. L’idea è quella di venire incontro alle differenti esigenze del cliente con approcci e tecnologie che siano il più possibile scalabili, aperte e flessibili. E se l’apertura misura la capacità dei sistemi di adattarsi ad ambienti operativi diversi, va detto che quasi tutto l’hardware oggi in commercio supporta in modo nativo quantomeno i più diffusi Os come Windows, Linux, NetWare e le varie declinazioni di Unix. La scalabilità, per contro, può essere misurata dalla facilità ed economicità di ampliamento dei sistemi, in termini di capacità di storage. Sotto questo profilo, la soluzione migliore sembrerebbe, ancora oggi, quella dei dispositivi Nas (Network attached storage).

Economicità e facilità d’uso


Con una manciata di milioni e, soprattutto, senza dover investire in formazione di personale altamente qualificato, è possibile in pochi minuti aggiungere capacità di memorizzazione alla propria rete. Se l’utilizzo di questi server dedicati alla gestione dello storage (file server) è rimasto a lungo associato alle applicazioni considerate non critiche e all’accesso a dati destrutturati (non organizzati in database ma "sparsi" tra le varie applicazioni aziendali), è pur sempre vero che oggi la facilità di installazione e utilizzo di questi dispositivi, i sensibili miglioramenti delle tecnologie e l’avvento del protocollo di trasporto Gigabit Ethernet li hanno resi una soluzione adattabile anche agli ambienti critici dei service provider. Ma questi apparati, delle vere e proprie appliance dotate di sistema operativo, che si collegano alle Lan aziendali attraverso canali Ethernet non vanno sottovalutati. L’elevata scalabilità che li contraddistingue li pone, spesso, sullo stesso livello delle soluzioni considerate di fascia più alta, che caratterizzano l’infrastruttura San (Storage area network). Sono, infatti, disponibili apparati con capacità estremamente variabili che, in configurazioni rack o cluster, arrivano a gestire anche vari Tb di dati immagazzinati.

La gestione dei dati critici


I più costosi array, le grandi librerie a nastri e le soluzioni Sas (Server attached storage) risultano, per contro, la scelta ancora oggi privilegiata dalle grandi aziende per garantirsi la disponibilità continua di applicazioni critiche. Grazie alle elevate performance (soprattutto nell’ottica della fault tolerance) e ai collegamenti in fibra, infatti, le San risultano particolarmente utili per l’accesso condiviso ad applicazioni.


Sarà possibile, in questi contesti, attivare delle richieste simultanee e condividere, nello stesso momento, l’accesso a un medesimo file. Va da sé, quindi, che un approccio di questo tipo risulti particolarmente indicato per applicazioni che rimandano al mondo Web, ovvero al media streaming, al publishing e alla consultazione di pagine Web, oppure all’accesso ai database aziendali. Non stupisce, quindi, che anche società come Teradata, che gravitano nell’orbita del data warehousing, abbiano sviluppato una propria offerta storage autonoma, ovvero hardware e software che vengono proposti a complemento dell’offerta primaria. Le architetture San sono generalmente costituite da file server (singoli dischi o array di dischi) che, collegati alle reti aziendali esistenti attraverso canali a banda larga (Fibre Channel), permettono l’accesso e il rilascio ai client di un’ampia quantità di dati. Entrambi gli approcci sin qui valutati possono, però, coesistere. Nulla vieta, infatti, di appoggiare dispositivi Nas a una San, per migliorare la protezione di dati considerati "critici" aggiungendo capacità con investimenti piuttosto contenuti. E proprio la commistione delle due architetture risulta evidente da uno sguardo rapido all’offerta. Molti grossi nomi del mercato, infatti, hanno negli ultimi tempi rilasciato soluzioni altamente versatili, che si adattano perfettamente all’uno o l’altro approccio.


Tra i vari esempi, gli Emc Clariion 4700, disponibili nelle due versioni Fc e Ip indirizzate, rispettivamente, a contesti San e Nas. L’hardware storage è, oggi, altamente modulare, tuttavia, la vera personalizzazione dell’offerta si realizza con il contributo fondamentale della componente software.

La componente soft prende piede


Se è vero che il business della memorizzazione è tra i meno toccati dall’attuale congiuntura, è altrettanto vero che non ci si può fermare a un’analisi superficiale. Il mercato dello storage cresce, ma si tratta di una crescita a due velocità.


A fronte di budget It sostanzialmente invariati (se non addirittura ridotti) e di volumi di dati crescenti, è probabile che le aziende tendano, nei prossimi mesi, ad abbandonare gli investimenti caratterizzati da un ritorno sugli investimenti (Roi) diluito nel tempo. Privilegeranno, per contro, le spese che danno garanzie di benefici immediati.


La congiuntura spinge verso l’efficienza. Visto che le aziende in questo periodo di ristrettezze sembrano poco inclini ad affrontare progetti complessi, che avranno ricadute a media scadenza, risulta molto più agevole coinvolgerle nell’acquisto di soluzioni di storage management, che migliorano le performance dell’infrastruttura esistente con costi contenuti e benefici pressoché immediati.

Le previsioni di Idc


La testimonianza dell’importanza della componente soft in un segmento tradizionalmente più sbilanciato verso l’hardware è sotto gli occhi di tutti.


Ibm ha di recente inaugurato un nuovo gruppo interamente focalizzato sullo sviluppo di software per i sistemi storage e anche Microsoft, nelle ultime settimane, ha dimostrato di essere interessata ad allargare il proprio business ai tool di gestione della memorizzazione e al backup. A conferma di queste tendenze, Idc stima, ad esempio, che sul mercato italiano dello storage, l’hardware avrà, nel corso dei prossimi due anni (fine 2004) un andamento positivo, ma con previsioni di crescita molto contenute (comprese tra un’ipotesi pessimistica dello 0,6% e una più ottimistica del 3/4%). A fare la parte del leone saranno, invece, software e servizi che, nelle previsioni della società di ricerca, cresceranno in Italia rispettivamente dell’11,5% e del 10,7% nel prossimo biennio.


I tool di virtualizzazione, che consentono di ottimizzare la gestione delle risorse hardware, stanno ottenendo crescenti consensi. Accanto a questa componente e, soprattutto, alla luce degli eventi dell’11 settembre, prendono sempre più piede anche i sofware pensati per garantire la continuità delle attività aziendali (business continuity), il backup e il rapido ripristino dati. Questi tool sono offerti come soluzioni a se stanti ma, sempre più spesso, inseriti all’interno di framework di gestione delle infrastrutture It aziendali.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome