L’Idm è la risposta ai dati che aumentano del 125% all’anno

Dell: le aziende devono gestire il ciclo di vita delle informazioni, dalla creazione alla cancellazione dai sistemi. La classificazione in tier è la base di partenza.

Cominciamo con un dato di fatto: man mano che le informazioni si accumulano sui server di produzione, le performance dei sistemi si deteriorano; aumentano le esigenze di storage; disaster recovery, backup e upgrade richiedono più tempo, prolungando il business outage. Risultato: le aziende non possono permetterselo.

Per Meta Group, i dati aumentano del 125% ogni anno. In un’azienda media, fino all’80% di questi dati è inattivo, tuttavia resta sui sistemi di produzione, limitando le prestazioni.

Uno “tsunami” di dati, che per Dell può essere evitato attraverso la gestione intelligente.
Il concetto di Intelligent Data Management aiuta le aziende a decidere come gestire i dati dal momento della creazione fino alla loro cancellazione dai sistemi, tenendo conto dei tempi di accesso.

Prendendo come esempio la posta elettronica, è evidente come per la maggior parte delle aziende abbia un elevato valore di criticità e di immediata disponibilità, caratteristica che però decresce superato un certo periodo di tempo, dipendente dalla tipicità dell’azienda; altre tipologie di dati invece non necessitano mai di veloce accessibilità ma piuttosto di certa reperibilità.

Il riutilizzo e la deduplicazione dei dati sono stati uno degli indicatori chiave dell’Idm per aiutare le imprese nella messa a punto di una strategia di archiviazione su tier diversi per ottimizzare l’infrastruttura storage e potenziare le performance.

Una strategia Idm ben pianificata permette all’impresa di manutenere tutte le funzionalità di reporting e accesso come se i dati fossero salvati sul server.

L’importanza delle policy di data retention per Dell è fondamentale. Il valore del dato, denominato anche classificazione del dato, rappresenta la base di un’information management efficiente.
Queste policy devono essere condivise da tutti i possessori e utenti di dati. E la loro classificazione, che permette di organizzarli in tier, è probabilmente il passo più importante per l’Idm.

Accade che gli amministratori di database lamentino il fatto che il management non interpreti correttamente la gestione gerarchica dello storage (hierarchical storage management – Hsm) puntando a eliminare totalmente il tier 1 (produzione) dall’ambiente It.

Ma lo storage tier 2 non è in grado di gestire richieste dati di ambienti di produzione in tempo reale, ma solo per i dati a cui si accede di rado.

Suddividere i dati in tier serve a eliminare il carico inutile sui server di produzione, migliorando performance e ottenendo un utilizzo ottimale dello storage.

La deduplicazione è una tecnologia di ottimizzazione dello storage che reduce l’ingombro eliminando le copie multiple di dati ridondanti e salvando solo i dati unici.
Copie di dati ridondanti vengono sostituite con riferimenti al dato originale.

La deduplicazione dei dati ridondanti può avvenire a livello di file, sotto-file, o blocco. In caso di sotto-file e blocco, i dati vengono comunemente divisi in segmenti più piccoli che possono essere facilmente analizzati alla ricerca di ridondanze e archiviati in modo più efficiente.

La deduplicazione dei dati offre le migliori performance quando viene utilizzata per lo storage secondario (di backup data) dove sono presenti grandi quantità di dati ridondanti.

Le aziende hanno anche l’esigenza di aspettarsi l’inatteso ed essere pronte per qualsiasi eventualità.
I dati archiviati sono sempre in modalità “Read only” per motivi di conformità. Il software che permette all’azienda di archiviare i dati deve consentire il trasferimento degli stessi dall’archivio alla produzione senza perdite di integrità e possibilmente attraverso una semplice e veloce operazione sull’interfaccia del sistema.

L’esigenza di definire privilegi di accesso ai dati a livello di utente e gestione aumenta a mano a mano che i dati vengono classificati in tier in base al valore.
Solo determinati utenti devono poter accedere ai dati in produzione, archivio, o entrambi a seconda delle loro responsabilità. Inoltre, i dati sensibili (finanziari, legati alla salute) devono essere protetti in ambienti di archivio, produzione e non (test, sviluppo e outsourcing).

Uno dei principali driver dell’Idm è pertanto la conformità. Numerosi enti normative hanno emanate la propria versione dei regolamenti per la conservazione dei dati. Per le aziende globali il software di archiviazione dovrebbe consentire l’integrazione di tutte le normative per ottenere una conformità globale.
Alcuni enti, poi, impongono che l’accesso ai dati, siano essi di produzione o di archivio, sia effettuato tramite la stessa applicazione che ha creato i dati e questa disponibilità può essere ottenuta unicamente se l’integrità del dato e della referenza vengono mantenute in fase di staging gerarchico.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome