Come nello storage prosegue lo scontro tra architetture

L’emergere di nuove piattaforme di memorizzazione sta mutando gli equilibri dei sistemi. Analizziamo gli indirizzi di due protagonisti assoluti, Emc e Hitachi, che possono riassumere il grosso del mercato, ben consci che la sola opinione che conta è quella degli utilizzatori.

La criticità del mercato pare essere alla base di un rinnovato impegno sul piano tecnologico, con un’accelerazione degli sviluppi e dei rilasci che copre sia gli aspetti hardware e software, sia gestionali del mondo It in generale ma, in particolare, del segmento dello storage.


Il primo atout sul tavolo in termini di rinnovamento tecnologico sembra averlo piazzato Emc, che, oltre ad avere cambiato o rinnovato quasi del tutto la linea di prodotti in modo da farla collimare col ciclo di vita dei dati aziendali, ha sparigliato la situazione esistente delle architetture di sistemi storage con il rilascio di una piattaforma basata su una matrice di interconnessione interna che, afferma la società, è di tipo "non blocking". Presenta, cioè, capacità nettamente superiori a quelle basate su bus e su switching bus e può espandersi linearmente sino a limiti difficilmente quantificabili. Se così fosse, sarebbe senz’altro la panacea per i problemi di gestione dei dati di pressoché tutti gli utilizzatori.

Una potenza "senza blocchi"…


Il concetto, da tempo usato nelle Tlc, è una novità per il campo dello storage. Per concretizzarsi con il livello prestazionale annunciato da Emc, però, ha dovuto aspettare che la tecnologia evolvesse sino a permettere di realizzare schede interne con 24 layer, disporre di Cpu di adeguate prestazioni e di memoria ad altissima capacità per la componente cache dei sistemi.


Ma in cosa consiste e quali sono le prestazioni che Emc, con l’architettura Matrix ha messo in campo? Oggettivamente, anche in virtù dell’effettiva modalità funzionale, la gestione del flusso tra porte di I/O e sottosistemi a disco, trova nelle esistenti architetture a bus o a switch dei limiti connaturali. Nel caso del bus questo limite sta nella condivisione del medesimo. Nel caso dello switching bus (che pur permette prestazioni elevate) il limite sta nel fatto che il transito e la commutazione attraverso gli switch stessi dei flussi dati è comunque soggetto a un ritardo che finisce con il pesare sul livello prestazionale complessivo. Inoltre, trattandosi di elementi interni condivisi, è alto il rischio che se un elemento si guasta, ciò impatti anche su altri che gli sono dipendenti e quindi si abbia un degrado significativo delle prestazioni di sistema. Emc ha poi abbinato alla neonata architettura una modalità funzionale in cui gli elementi critici interni sono triplicati e il risultato di un’operazione è considerato valido solo quando vi è la corrispondenza di due su tre. In pratica, se l’elaborazione di uno dei tre elementi che svolgono la stessa operazione dà un risultato diverso dagli altri, l’elemento è considerato guasto, escluso dal funzionamento e viene allertato il gestore per la sua sostituzione a caldo. Il tutto con il sistema che continua a operare.


Come concetto generale l’architettura è poi molto semplice e centrata su 3 livelli: I/O, cache (intermedio) e sottosistemi a dischi.


La connessione tra questi elementi è di tipo punto a punto e potenzialmente magliato, cosa che assicura (proprio per come è fatta l’architettura e non perché lo afferma Emc) la disponibilità di una interconnessione point-to-point tra canali di I/O e unità disco, che consente una movimentazione dei dati dal front-end al back-end del sistema storage di tipo non-stop e con canali riservati.


Ogni connessione, secondo Emc, è in grado di trasportare dati a una velocità di 500 MB/s, per un totale di larghezza di banda per il trasporto dati di 64 Gb al secondo e un totale di larghezza di banda per dati aggregati e messaggistica di 72 Gb al secondo. In termini di prestazioni ciò corrisponde, nella configurazione massima rilasciata, a una capacità lorda di 42 Tb, a 64 canali a 2 Gb Fibre channel e a una cache massima di 128 Gb. Corrispondente fisicamente a una struttura che prevede sino a 8 moduli di I/O, 8 moduli cache, 8 moduli Fc verso i dischi (con ogni cache di 16 Gb).

…e una che bada al pratico


Hitachi Data Systems, dal canto suo, fa notare che la sua piattaforma 9900V HiStar 2, pur essendo basata su architettura a Switched Bus, dispone di 4 cache switch, 4 banchi di cache e 32 connessioni dati con 16 Gb di throughput teorico complessivo. In sostanza, il top della gamma della sua serie 9900V, presenta dati di targa di 64 porte Fc, 64 Gb di cache e di una memoria sino a 147 Tb, un valore che Hds ritiene sia molto di più di quello che serve alla grandissima parte delle aziende.


In sostanza, afferma Hds, l’evoluzione architetturale permette a Emc di colmare un gap che si era andato formando e, seppure l’architettura permetta una elevata espandibilità, questa almeno per alcuni anni sarà una possibilità teorica difficilmente applicabile in pratica. Come al solito, quindi, quando si tratta di comparare apparati, la situazione non è facile da dirimere e i distinguo sono più che altro bizantinismi.


Dove invece Hds sembra sin da ora controbattere efficacemente alle evoluzioni in casa Emc è sul piano della connettività. La società, infatti, ha applicato il concetto di virtualizzazione ai canali Fc, che così possono essere suddivisi in 128 sottocanali logici e permettere sia un miglior tuning dei server e delle unità logiche che un utilizzo ottimizzato dei canali stessi. La competizione, quindi, si preannuncia serrata.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome