Guida alla Bi, per prendere decisioni più veloci

Le caratteristiche da valutare per la scelta di una piattaforma di Business Intelligence. Fondamentale è ridurre il tempo di latenza.

La Bi operazionale è l’area dell’intelligenza diffusa che
sta trainando il mercato. Ha come scopo quello di ottimizzare il ciclo decisionale
tattico, che abbraccia orizzonti temporali molto brevi.

Ottimizzare il ciclo decisionale (ovvero il tempo che intercorre tra il verificarsi
di un certo evento che ha ripercussioni per il business e il momento in cui
si prende una decisione sulla base di questo accadimento) significa, in genere,
ridurre la sua durata temporale, ovvero controllare quella che è definita
la latenza di una soluzione di intelligenza diffusa.

La latenza, vero elemento fondamentale nella valutazione della bontà
di una piattaforma Bi, può essere intesa come il tempo intercorso fra
il momento in cui accade uno specifico evento e quello in cui un’azione concreta
relativa a quell’evento viene intrapresa. Tre sono i componeti chiave della
latenza:

  1. Latenza a livello dati: è il tempo richiesto per
    raccogliere i dati grezzi, ripulirli e prepararli per l’analisi, oltre
    che per immagazzinarli laddove potranno, in qualsiasi momento, essere richiamati
    e utilizzati.
  2. Latenza analitica: è l’intervallo che serve
    per accedere e analizzare i dati, convertirli in informazioni strutturate,
    applicare le regole di business o la gestione delle eccezioni e generare gli
    allarmi del caso. L’analisi potrà essere condotta direttamente
    da un’applicazione o da un utente.
  3. Latenza decisionale: è il tempo speso per controllare
    le analisi e gli allarmi, decidere quali azioni debbano essere intraprese
    sulla base delle informazioni ottenute e agire.

Altro punto non trascurabile è l’integrazione dei dati di business
provenienti dalle fonti più disparate (vendite, ordini, clienti, fornitori,
prodotti o inventari), che incide sul processo di latenza migliorando l’accessibilità
delle applicazioni di Business intelligence da parte del suo utente.

La componente operazionale dell’intelligenza diffusa è pensata
per supportare gli utenti meno tecnici, tipicamente gli executive, che saranno
in grado di formulare domande semplici (del tipo: cosa succede ai margini se
cambio il mix di prodotto?) e di ottenere, in risposta, dati sintetici e grafici
che, immediatamente, forniscano una vista chiara del fenomeno analizzato.

L’acquisizione dei dati
Un sistema di acquisizione dati flessibile è il requisito principale
di un siffatto sistema: la Bi operazionale, infatti, fa uso dei record relativi
alle transazioni, accanto a una moltitudine di altre informazioni, strutturate
o meno, che provengono dall’interno o dall’esterno dell’organizzazione.
Per ottimizzare l’efficacia di questi strumenti, si renderà necessario
definire dei livelli di qualità cui i dati debbano sottostare.

Questo implica isolare chiaramente i processi d’integrazione e definire
regole e procedure di profilazione, validazione, riconciliazione, estrazione,
ripulitura, trasformazione, aggregazione e reimmissione dei dati. Se l’obiettivo
per l’azienda è quello di ridurre la latenza, ovviamente il tradizionale
aggiornamento in batch (tipicamente notturno) dei dati non potrà più
considerarsi sufficiente e dovrà, necessariamente, essere rimpiazzato
da un sistema di alimentazione semi-automatico.

In linea di principio sono tre, secondo Ventana Research, le metodologie usate
per uniformare i dati nelle applicazioni di Bi:

  • Data consolidation: si tratta di un approccio di integrazione
    “fisico”, che estrae i dati dalle diverse fonti e li fa confluire
    all’interno di un repository. Il processo di consolidamento avviene
    attraverso le operazioni di “ripulitura” (eliminando duplicazioni
    e inconsistenze) o “riformattazione” (facendo in modo che i dati
    siano espressi in grandezze tra loro confrontabili). Il repository fisico
    potrà essere rappresentato da un data store operazionale (Ods), da
    un data warehouse o da un data mart. La latenza dei dati immagazzinati nel
    repository dipende da quanto spesso i processi di consolidamento sono eseguiti.
  • Data federation: questo approccio virtuale si realizza
    lasciando fisicamente i dati immagazzinati presso le fonti che li hanno generati
    e fornendo all’utente di Bi un accesso diretto agli stessi, creando
    apposite “viste”. La latenza dei dati dipenderà dalle prestazioni
    della fonte dati.
  • Data propagation: tale metodologia si realizza copiando
    i dati da una o più fonte a uno o più sistemi target. La data
    propagation è utilizzata, spesso, per copiare piccoli eventi o lievi
    modifiche intervenute nei dati, attraverso dei sistemi che sono definiti Changed
    data capture (Cdc). La propagazione potrà essere sia sincrona (se le
    copie sono create nel momento stesso in cui avviene la modifica) sia asincrona,
    se si decide che le modifiche saranno copiate sul sistema target a cadenze
    temporali predefinite (ad esempio, ogni notte).

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome