Disaster recovery: vale il principio delle “tre C”

Capacità, costo, complessità: per Cristian Meloni di CommVault sono i tre assi su cui far ruotare il ragionamento che porterà a scegliere la migliore azione per la conservazione dei dati.

Sul disaster recovery tutti sono d’accordo, almeno a parole. Nel senso che tutti sanno di doverci pensare, prima o poi. Ma “prima” o “poi” può fare differenza, in caso di disastro reale. In questo casi è fondamentale pensarci “prima”. E perché, nonostante questo concetto sia chiaro a tutti, le aziende non lo prendono sempre in esame nei tempi dovuti?

Secondo Cristian Meloni, Pre-Sales and Ps Manager di CommVault Systems Italia, le principali barriere al disaster recovery possono essere raggruppate in tre categorie: budget, competenze e banda.
«Il costo d’implementazione di una soluzione di Dr potrebbe sembrare proibitivo – dice Meloni – per una piccola azienda, così come per una grande impresa con un’infrastruttura distribuita».
È quindi necessario valutare bene il rapporto costi/benefici e tenere sempre presente che non disporre di una soluzione di Dr significa scommettere il futuro della propria azienda sulla speranza che un “disastro” non si verifichi.

Anche le competenze costituiscono una sfida per molte aziende, specialmente per quelle che si affidano a processi manuali basati su nastro per il backup dei dati e la spedizione offsite per il Dr. «Questo approccio le espone infatti al rischio di errore umano, deterioramento dei media e soprattutto lentezza associata al recupero dei dati», spiega Meloni.
L’ampiezza di banda rappresenta, naturalmente, il limite principale. «La mancanza di connettività costituisce un problema specialmente quando si tratta di proteggere i dati nei siti remoti che potrebbero disporre di poca banda verso il data center centrale», considera Meloni.

Una volta il Disaster recovery era semplice: proteggere una quantità limitata di dati spostandoli dal Punto A al Punto B. Oggi però il mondo è molto più complesso, le minacce si sono moltiplicate e i requisiti di data recovery sono divenuti più rigidi.
Un approccio moderno deve essere di tipo tridimensionale: la prima dimensione è l’ampiezza del disastro da cui salvaguardarsi; la seconda l’obiettivo del ripristino (dati o interi ambienti); la terza, la distribuzione dei dati nell’ambiente (non solo a livello centrale ma anche in remoto).

Questo modello “3D” consente di definire l’obiettivo delle attività di Dr, e due requisiti utilizzati comunemente consentiranno di determinare il livello di investimento e capacità necessarie: Rpo e Rto.
Rpo
(Recovery Point Objective) è la quantità massima di dati che ci si può permettere di perdere; Rto (Recovery Time Objective) è la velocità con la quale il ripristino deve avvenire. Per alcuni sistemi mission-critical – quali quelli associati a transazioni finanziarie- il requisito potrebbe comprendere obiettivi Rto e Rpo misurati in secondi.

Sono diversi gli approcci al Disaster Recovery ed è importante comprendere come si rapportano per scegliere quello più indicato.
Il primo approccio è quello dei vendor di soluzioni di replicazione dedicate, molti dei quali sono stati acquisiti da aziende più grandi che desideravano ampliare il proprio portfolio. Ma questo approccio è adatto per applicazioni realmente mission-critical e per grandi imprese, essendo spesso troppo complesso e costoso per un uso più esteso.

La seconda alternativa è molto comune e si avvale di un approccio alla replicazione hardware-based. Il costo di questa soluzione varia a seconda del vendor e della classe del sistema, ma il suo limite è la replicazione tra hardware dello stesso fornitore, spesso raddoppiando i costi di acquisto perché richiede l’implementazione di un setup “mirror” presso il sito di Dr.
In ultimo, il terzo approccio integra funzionalità di replicazione e Dr all’interno di una piattaforma di data management più estesa.

Questo spesso rappresenta un metodo di Dr meno complesso che riduce le esigenze di competenze, di hardware e di console specifiche.
«Suggerisco di adottare il principio delle 3 C, capacità, costo e complessità, per determinare quale approccio Dr sia il più adatto. Il primo passo è restringere le alternative a quelle in grado di soddisfare le esigenze di capacità. Nulla conta se non si possono recuperare i dati necessari, nei tempi richiesti per evitare il mancato rispetto di requisiti normativi e di business», spiega Meloni.
«Poi, consideriamo il costo. Le spese non si limitano agli investimenti storage presso il sito di Dr, e nemmeno a quelli riguardanti la capacità di replicazione. I costi dovrebbero comprendere anche l’investimento in connettività. Come accennato in precedenza, la banda rappresenta spesso una considerazione fondamentale quando si implementa una soluzione di Dr, è quindi importante capire se è possibile riutilizzare ciò che si ha, o se è necessario prevedere una maggiore ampiezza di banda tra siti/location differenti. Infine, si misura la complessità. Questo è l’aspetto solitamente più ignorato. Soluzioni che riducono la complessità evitano due dei principali fallimenti in tema di Dr: minimizzano i costi operativi associati al monitoraggio e alla gestione quotidiana. Più alta è la complessità, più elevato è l’impegno richiesto al personale It. Il secondo rischio è il fallimento. Soluzioni complesse possono fornire false promesse, apparentemente tengono tutto in considerazione, ma rappresentano un rischio di fallimento superiore se anche uno solo dei processi di Dr non è ottimizzato».

Sintetizzando, un approccio software-based al Disaster recovery consente di evitare tutti gli ostacoli dei metodi tradizionali: competenze, budget e banda.
Integrando Dr e replicazione in una piattaforma di data management più estesa, il personale It non deve apprendere come effettuare il setup o la gestione di un nuovo stack tecnologico, oltre a non dover perdere tempo nel monitoraggio e nell’integrazione del Dr con le applicazioni e i sistemi utilizzati più di frequente.

Con un approccio di questo genere, il Dr diventa un’estensione del modo in cui i dati vengono gestiti. Inoltre, in molti casi, un approccio end-to-end alla gestione dei dati mantiene il contesto applicativo, riducendo il potenziale rischio e i ritardi associati al recupero di dati con un metodo dedicato o hardware-based.
Inoltre, un approccio software-based può non solo affrontare i requisiti di Dr, ma può essere utilizzato per ottenere maggiore valore dai dati di Dr. Per esempio, consente di creare copie addizionali dei dati per lo sviluppo applicativo, o di indicizzare i dati presso il sito di Dr per anticipare eventuali esigenze di eDiscovery.
In questo modo è possibile sfruttare l’investimento del Dr per più iniziative, aumentando il Roi complessivo.
E, naturalmente, uno dei principali vantaggi è la possibilità di utilizzare storage di qualsiasi tipo e di qualsiasi marca dove e quando necessario, riducendo la dipendenza da costose appliance storage di un determinato vendor.
I
nfine, un approccio software-based permette di affrontare le problematiche di banda associate al Dr, non solo soddisfacendo i requisiti per il backup, ma offrendo la possibilità di ottimizzare il ripristino e di gestirlo tra siti con diversi requisiti di Rpo/Rto.
La deduplicazione integrata è uno degli abilitatori chiave disponibile sempre più di frequente nelle piattaforme olistiche di data management: la deduplicazione consente infatti di ridurre drasticamente la banda necessaria per i backup, oltre a minimizzare la capacità di storage richiesta presso il sito di Dr.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome