Per vincere la partita dei big data servono efficientatori, perché lo storage vive di gerarchia. Emerge il concetto di popolarità del dato. E la tecnologia autonomica può far molto. Ce lo spiega Sergio Resch di Ibm.

«Ognuno ha i suoi big data, mentre il budget è sempre small». La sintesi efficace di Sergio Resch, System storage platform evangelist di Ibm, allude al fatto che sia che si parli di una grande azienda, o di una Pmi, oggi l’ottimizzazione della gestione dei dati è un terreno comune.

Una sfida che non si può improvvisare, ma che si affronta facendo leva su tecnologie che magari nascono in ambiti enterprise e calano poi su un fronte più ampio.

Per Resch la partita a scacchi dell’efficienza dello storage oggi può essere vinta in quattro mosse:
mettere i dati al posto giusto, trattare solo i dati che servono, dargli più spazio,
gestirli in automatico e magari con strumenti semplici.

Il valore della gerarchia
Partiamo dai dati al posto giusto.
Vuol dire provvedere alla gestione automatica della gerarchia delle memorie.
Queste sono una piramide: al vertice ci sono le tecnologie dallo stato solido, in mezzo i dischi, alla base i nastri.

Si tratta di avere strumenti che consentano di spostare nella piramide le informazioni, a blocchi, sulle tecnologie più convenienti.
Il tiering automatico fa questo: ottimizza le prestazioni spostando i dati fra le gerarchie storage, interpretando i dati come “freddi” (da tenere sui drive meno costosi), “caldi” (da collocare sui dispositivi di media portata) e bollenti (da accedere senza latenze).

Questo ordine gerarchico prende corpo sulla base di un concetto di popolaritá del dato, calcolata sulla base degli accessi. Ciò avviene perché il sistema può gerarchizzare autonomicamente i dati.
Per ogni volume logico, in sostanza, indica se si tratta di hot data, warm data, cold data e dà indicazioni su come formare pool ibridi. Questo vale per quanto riguarda le classificazioni automatiche.
Con l’Active Cloud Engine di Ibm si possono gestire le informazioni con policy: metascan, il motore di gestione dei file ad alte prestazioni è collegato al file system, consente gestione a livello locale e globale.

Evitare le azioni inutili
Trattare solo i dati che servono evoca la prassi della compressione dati in tempo reale: si esegue la decompressione solo del blocco richiesto, con conseguente minore utilizzo di Cpu e di I/O, conducendo anche più operazioni in parallelo. La copia leggera (thin copy) fa il resto.

Per dare più spazio ai dati si ricorre ovviamente alla virtualizzazione. Ci vuole, in sostanza, anche un hypervisor per lo storage. Ibm mette in campo Tivoli storage productivity center, o sistemi come Storwize v7000 e San Volume controller. Un sistema complessivo che crea volumi virtuali sempre disponibili anche nel caso di interruzione del datacenter.

Il precipitato tecnologico dei sistemi enterprise
Infine, gestire i dati facilmente. Qui entrano in campo la console grafica concepita per il sistema di fascia enterprise Xiv, che cala su su tutte le piattaforme midrange, da Storwize a Svc, a Sonas, utilizzabile anche come mobile dashboard per iPad e iPhone.

O anche l’applicazione del concetto della Quality of service (QoS) in campo virtual storage.
Con appropriati automatismi, derivanti dall’autonomic computing, un sistema esperto può analizzare i volumi applicativi per verificare il rispetto dei livelli di servizio. Lo fa avendo in mano la mappatura dei dispositivi e utilizzando la virtualizzazione sposta i volumi per rispettare i Qos stabiliti.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome