I big dello storage si interrogano sugli scenari futuri

È indubbio che le informazioni da gestire di origine multimediale siano in continuo aumento. Per il 2004 Idc parla di un volume di 800mila Terabyte, principalmente per ambienti Unix e Nt. Cresce, dunque, l’importanza di infrastrutture flessibili e progressivamente basate su Web.

Un convegno organizzato da Idc a cui hanno partecipato società specializzate come Compaq, Computer Associates, Emc2, Imation e Network Appliance, ha posto l’accento sul problema del volume crescente dei dati e delle infrastrutture necessarie.


Per ciò che riguarda lo storage, i costruttori stanno proponendo nuovi modelli architetturali volti a sostituire quelli esistenti e si assiste a una diffusione di soluzioni di middleware atti a virtualizzare, e cioè a rendere trasparente, l’infrastruttura fisica rispetto a quella applicativa, in modo da poter più facilmente integrare apparati diversi e gestire in modo più graduale fasi di migrazione.


In quale quadro si inserisce tutto questo? Idc ritiene che il problema che i manager Ict dovranno affrontare sarà quello di predisporre le proprie infrastrutture per gestire una mole crescente di informazioni di tipo multimediale, prodotte da apparati quali videocamere, palmari e telefoni di nuova generazione, oltre che da nuove applicazioni aziendali. È in questo scenario evolutivo che emerge la necessità di architetture It flessibili e progressivamente basate su Web.


Analisi della società di ricerca indicano, infatti, che nel corso del prossimo triennio gli utilizzatori in ambito intranet passeranno dai poco più di 100 milioni del 2000 a quasi 400 milioni. Anche se il trend di crescita fosse più contenuto va comunque considerato l’effetto moltiplicatore dovuto alla tipologia degli apparati e del loro livello prestazionale in corrispondenza dell’aumento della capacità trasmissiva, che nel frattempo si avrà per le reti dati convergenti che sono in corso di sviluppo.


L’effetto combinato dello sviluppo di applicazioni intranet e dell’apertura al mondo Internet può avere per un’architettura di storage inadeguata un effetto deleterio.


Quello che suggerisce Idc, quindi, è non di adottare una strategia evolutiva basata su Internet bensì sulle possibilità che applicazioni basate su Internet offrono. Un’idea che l’effetto combinato dell’evoluzione in termini numerici e prestazionali può avere lo si ha se si considera l’andamento del volume di dati previsto per i prossimi anni in relazione ai diversi ambienti operativi. Per il 2004 si parla di 800mila Terabyte shipped, principalmente per ambienti Unix e Nt. Quello che più colpisce però è il gradiente che caratterizza questa crescita e le complessità che emergono per trattare, gestire ed eventualmente ripristinare i dati in caso di guasto in tempi congrui con le proprie applicazioni.


Il dubbio emergente è che non basti pensare a una architettura adeguata o all’utilizzo di software per virtualizzare la propria infrastruttura, ma che sia parimenti necessario ricorrere a strumenti di management sofisticati e che tali strumenti siano pianificati sin dalle prime fasi di progetto di una nuova architettura di storage aziendale, sia essa basata su San, Nas o un mix delle tecnologie. Quello che appare un approccio ragionato al problema sempre più strategico dello storage si basa principalmente, e con una progressiva accettazione da parte dei costruttori, su tre pilastri fondamentali: il networking (tipicamente su Ip o locale tramite interconnessioni di nuova generazione ad altissime prestazioni come l’iScsi o la Fibre Channel), la virtualizzazione e un approccio alla gestione di tipo unificato riferito come Srm (Storage resource management).


Peraltro, una tale evoluzione è supportata da analisi che indicano proprio nella crescita di San e Nas l’aspetto principale per ciò che riguarda il networking con, entro il 2004, quasi il 70% dei sistemi di storage che opereranno in rete, mentre già dall’anno prossimo si assisterà a un declino di piattaforme "server attached".


Come procedere allora? Limitandosi, per ora, ad analizzare l’aspetto networking, quando si considera il quadro che si delinea, che non solo è molto rapido nella sua innovazione, ma corrisponde a un ambiente che nel passato è sempre stato, sotto il profilo delle architetture, molto conservativo; l’evoluzione può, comunque, avvenire per passi, a patto, ovviamente che la camminata sia veloce.


Il punto di partenza può essere la definizione di un’architettura adeguata per il back up e il recovery dei dati, funzione che corrisponde al principale utilizzo che attualmente viene fatto dei sistemi di storage.


Il secondo passo può consistere nell’attivazione di una funzione di storage management che permetta la gestione in pool degli apparati di storage. Cosa che porta sia a una ottimizzazione delle risorse sia alla possibilità di effettuare back up e recovery in modo più rapido ed efficiente.


Il passo successivo consiste in un ulteriore affinamento dello storage, gestendo in pool non solo gli apparati ma anche i dati che su di esso risiedono.


Il passo finale è, infine, quello che porta alla condivisione dei dati attraverso la rete di storage da parte delle applicazioni.

Il problema della sicurezza


Secondo Yankee Group il back up di tipo off site è sempre più cruciale per la sicurezza dei dati.


Con la diffusione di Ip e di Internet e lo sviluppo progressivo di Vpn dotate di robusti criteri di sicurezza, il fatto innovativo è che il costo di una soluzione off site si è sensibilmente ridotto e diventa possibile ricorrere in modo economico a un tale approccio. Un altro problema evidenziato è quello connesso al rischio che si può correre quando ci si affida esclusivamente a risorse interne allocate nella stessa sede geografica. I rischi connessi possono, in tal caso, essere ridotti se si prevede l’utilizzo complementare di risorse di It fornite da un provider esterno in grado di fornire servizi di networking geografico facendo leva su economie di scala, che non è possibile realizzare in house. Anche per queste tipologie di proposte la diffusione di Internet e l’adozione generale di Ip ha aspetti positivi. Si tratta, ora, per i fornitori di convincere i clienti a utilizzare le nuove possibilità messe a disposizione dall’evoluzione tecnologica.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome