Analisi in memory: perché provarla

Questa tecnologia, che sfrutta la memoria aggiuntiva per processare i dati, è relativamente economica e migliora la vita degli utenti business, che potranno autonomamente compiere analisi e assicurarsi un supporto decisionale utile nel quotidiano.

Tutte le aziende stanno cercando di esplorare nuovi mercati e, contemporaneamente, di mantenere gli attuali clienti.

Lo sforzo profuso ha acquisito una nuova dimensione con l’esplosione dei macro dati e dei social media. Per riuscire a prendere decisioni strategiche in un tempo sempre più breve, ovvero in tempo reale o quasi reale, l’analisi rapida è divenuta cruciale.

Ci sono diverse opzioni per compiere analisi in modo veloce, quali le cosiddette analisi “in memoria”, le analisi su database e le appliance di data warehousing. Mentre il data warehousing è una tecnologia piuttosto matura e stabile ma parecchio costosa, le prime due sono relativamente giovani. Al contrario delle analisi su database, che risultano piuttosto dispendiose, le analisi “in memoria” sono soluzioni piuttosto economiche ed ecco perché in molti scelgono di sfruttare la memoria aggiuntiva disponibile a scopo di analisi. Numerosi sono i fattori che spingono verso questa scelta. Ecco i sei principali.

Sistemi operativi a 64 bit

Nell’era dei computer a 32 bit, una macchina poteva riconoscere solo fino a 4 GB di memoria RAM, quindi anche se si aggiungevano ulteriori chip di memoria, non era possibile sfruttare i vantaggi di questa capacità aggiuntiva. Con i sistemi operativi a 64 bit, è possibile ragionare in termini di Terabyte (TB) di memoria indirizzabile. Utilizzando questa capacità, l’accesso ai dati memorizzati all’interno degli hard disk risulta molto più veloce perché gli OS possono riconoscere la memoria aggiuntiva che arriva fino a 1 TB per processare i dati “in memoria”.

Accessibilità

La RAM diventa una sorta di “spazio di lavoro temporaneo” per l’elaborazione dei dati. Quanta più RAM disponibile c’è, tanto più si potranno eseguire molteplici attività contemporaneamente, con conseguente miglioramento delle prestazioni. In precedenza, un’aggiunta di RAM pari a 8 GB costava da 10 a 150 dollari, mentre ora il prezzo è sceso tra i 50 e i 70. In questo modo, le aziende possono rispondere più velocemente alle richieste impegnative di analisi in tempo reale. Con il calo dei prezzi di hardware e chip di memoria, l’analisi “in memoria” diventa una strada percorribile negli ambienti di Business Intelligence e, in generale, negli ambienti analitici.

Secondo la società di ricerca Gartner, entro il 2012 il 70% di tutte le organizzazioni Global 1000 utilizzerà questa tecnologia come metodo primario per ottimizzare le prestazioni delle applicazioni BI.

Analisi in tempo reale

Nei tradizionali scenari di data warehousing, a causa delle diverse architetture fisiche, l’estrazione, il carico e l’accesso ai dati per l’interrogazione richiede molto tempo. Le analisi “in memoria” sono in grado di rimuovere questa latenza e consentire l’utilizzo in tempo reale, da parte dei decisori, delle informazioni operative e transazionali.

Incremento del volume dei dati

Si dice che ogni giorno vengono generati 15 Petabyte di dati. Il volume dei dati sta raggiungendo il massimo storico in modo molto veloce e si è reso necessario incrementare la rapidità di analisi di questi record. Tuttavia, la costruzione di un data warehouse richiede molto tempo. La velocità di risposta alle dinamiche del mercato è fondamentale e, per questo, sempre più aziende devono trovare il modo per elaborare e rispondere più velocemente alle richieste del mercato. Oggi, l’analisi “in memoria” è una delle opzioni a loro disposizione. Infatti, i database a colonne più famosi forniscono tecniche di compressione tali da rendere disponibili molti più dati per l’analisi “in memoria”.

Analisi esplorativa rapida

Il visual data mining è diventato piuttosto popolare negli ultimi anni. In questo processo, gli utenti possono vedere tutti i dati su una sorta di “tela”, filtrare i dati richiesti per renderli più congrui e ottenere risposte attraverso l’analisi veloce. Con l’analisi “in memoria”, gli utenti possono visualizzare i dati completi in una sola volta. Possono anche renderli in formato grafico e aggiungere filtri per visualizzare modelli, tendenze o anomalie e per compiere rapide analisi di tipo “what if”, con l’ausilio delle tecnologie “in memoria”. Un vantaggio evidente di questo approccio è il miglioramento delle prestazioni delle applicazioni analitiche. Le query e i dati relativi risiedono nella memoria del server e l’analisi non richiede alcun accesso alla rete o alle funzionalità di I/O (input/output) del disco. L’analisi “in memoria”, quindi, permette di migliorare sensibilmente il time-to-value delle funzionalità decisionali, anche perché alcuni strumenti consentono il caricamento di interi insiemi di dati nella memoria, in modo che gli utenti possano fare un’analisi esplorativa in tutta fretta.

Riduzione dei costi dell’IT

Con questa tecnologia, lo spostamento dei dati da data warehouse e database viene ridotto e, di conseguenza, il personale IT dedicato potrà essere impiegato in mansioni alternative. L’analisi “in memoria” può anche semplificare le analisi fatte da strumenti privi di capacità di data mining. In questo modo, sarà più facile per gli utenti business compiere autonomamente analisi esplorative del tipo “what if”, senza dover aspettare che il personale IT fornisca loro i dati richiesti o dei cruscotti analitici ad hoc.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome