Il «fardello hardware» dell’analisi dati

Investire in Bi operazionale spesso non basta. Occorre valutare i “costi occulti” di un progetto di intelligenza distribuita

I tradizionali sistemi di intelligenza diffusa contengono funzionalità
di data mining, allarmi e cruscotti che si focalizzano sul supporto alle attività
decisionali. Negli anni passati, a questi sistemi “analitici” (utilizzati
per indirizzare in genere le scelte di medio/lungo periodo), si sono aggiunti
quelli “operazionali”, gestiti da funzionari esecutivi per decisioni
più di tipo tattico che strategico. La Bi operazionale utilizza le stesse
tecnologie impiegate in passato, ma le svincola dalla dipendenza rispetto al
data warehouse, tradizionale serbatoio di dati standardizzati, pronti da utilizzare
a fini analitici e statistici. Estrae, infatti, i record dai database applicativi
in tempo reale, in modo che gli strumenti di intelligenza diffusa possano essere
utilizzati con facilità da un numero di utenti decisamente più
ampio.

Il suo scopo è di consentire interventi tempestivi da parte di chi,
nell’organigramma aziendale, è incaricato di assumere decisioni
relative, ad esempio, alla redditività di clienti e prodotti, all’economicità
o tempestività dei fornitori. Per garantire tali performance, questi
strumenti forniscono una visualizzazione grafica il più possibile esaustiva,
ma elementare, della situazione analizzata.
Tale visualizzazione potrà essere rappresentata da una torta, un grafico
a barre, una mappa o un semplice elenco che fotografino, però, in modo
abbastanza intuitivo, il fenomeno osservato.

Virtualizzazione o partizionamento?
Le informazioni presentate nel grafico dovranno essere necessariamente delle
grandezze di sintesi, ma consentiranno all’utente di entrare nel dettaglio
(drill down) delle informazioni osservate. Quasi tutti gli strumenti di questo
tipo consentono la pubblicazione e condivisione online (in genere sulla intranet
aziendale all’interno della Wide area network dell’impresa) delle
tabelle di sintesi e prevedono anche una gestione selettiva degli accessi ai
dati. Questo tipo di soluzioni, specie nelle grandi aziende, sottopone le risorse
informatiche ad alcuni problemi che implicano, inevitabilmente, investimenti
ulteriori a supporto della Bi. Il più rilevante è l’impatto
sulle risorse It dell’accesso simultaneo a queste macro applicazioni da
parte di un numero consistente di utenti. Per non incorrere in cali prestazionali
significativi, infatti, si renderà necessario aumentare considerevolmente
le risorse dedicate.

Questo, oggi, può avvenire in due diverse modalità. La prima,
decisamente più costosa, prevede l’acquisto di server aggiuntivi,
tarando le risorse It sui picchi di lavoro, in modo da evitare i colli di bottiglia.
L’altra, invece, poggia sull’astrazione delle risorse. La virtualizzazione
potrà avvenire secondo due procedure. Da un lato, alcuni software (come
VmWare, Microsoft Virtual Server o il progetto open source Xen) permettono di
gestire in pool i diversi server utilizzati in azienda, per creare un cluster
(di prodotti omogenei) o una griglia/grid (di soluzioni eterogenee), in grado
di suddividersi il carico di lavoro. In alternativa, invece, sarà possibile
partizionare un server, in modo che sia in grado di supportare diverse applicazioni
e Os, senza ulteriori investimenti in hardware.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome