Oltre i limiti dell’Etl per dati consistenti

La data integration assicura una vista univoca delle informazioni, che saranno immediatamente utilizzabili da qualsiasi operatore in azienda

Le soluzioni di intelligenza distribuita sono state per molti anni ancorate
alla “bontà” dei processi di estrazione, trasformazione e
caricamento dei dati (Etl). Queste tecnologie sono fondamentali per uniformare
le informazioni provenienti dai diversi sorgenti alimentanti (quali Erp, soluzioni
di gestione della catena della fornitura o altre applicazioni enterprise), instradandole
verso il sistema di destinazione. Tali attività hanno rappresentato per
molto tempo il vero punto critico dell’implementazione di un progetto
di data warehousing o data mart, che costituiscono, in linea di principio, le
fondamenta informative di una soluzione analitica.

Informazioni stratificate
La causa dei fallimenti delle implementazioni Etl del passato non è univoca:
spesso si è trattato di decisioni dipartimentali, frutto di una visione
limitata della realtà locale, che si sono semplicemente appoggiate sulle
tecnologie esistenti. Altri, per contro, hanno scelto la strada delle soluzioni
“fatte in casa”, con l’utilizzo di strumenti personalizzati
che, però, richiedevano programmatori deputati alla scrittura del codice
e al suo aggiornamento e mantenimento, cosa questa che ha comportato un aumento
indiscriminato del costo totale di possesso di queste soluzioni. Ecco perché,
negli ultimi anni, molte aziende hanno iniziato a porre rimedio agli errori
del passato, adottando un approccio di data integration, condiviso in ottica
aziendale e non più dipartimentale. L’integrazione implica l’analisi
qualitativa dei sistemi alimentanti, la raccolta dei dati, la bonifica, validazione
e movimentazione degli stessi, sulla base di processi in tempo reale o in batch.
Permette di gestire volumi consistenti di dati, rendendoli fruibili da tutte
le realtà dell’azienda. In passato, anche i progetti di integrazione
dati si sono, però, stratificati, contribuendo a creare blocchi o isole
applicative e, proprio per questo, si sta facendo strada un nuovo approccio,
che fonde in sé l’integrazione e l’intelligenza diffusa.

Le nuove filosofie di integrazione prevedono che le singole isole applicative
interessate demandino a un repository centrale, che funge da hub, il ruolo di
gestore dei processi di integrazione. Tale approccio si basa sulla crazione
di un codice di relazione unitario, che sfrutta i metadati (ovvero le informazioni
che classificano e descrivono un dato) per superare le difficoltà che
le singole applicazioni hanno nel comunicare tra loro.

Guardare all’integrazione dati in quest’ottica significa introdurre
dei livelli di connessione indipendenti, che permettano di sganciare le metodologie
di integrazione dai vincoli gerarchici precostituiti. Questo significa, sostanzialmente,
creare una nuova infrastruttura basata su una piattaforma virtualmente unificata,
in grado di interagire con altri sistemi in precedenza sconnessi. L’obiettivo
è riuscire a ottenere una singola vista del dato, facendo leva sulle
informazioni che lo contestualizzano, ovvero i cosiddetti master data. Questi
ultimi sono i record che racchiudono, in modo univoco, le informazioni relative
a un certo cliente, prodotto o fornitore, anche se virtualmente allocato all’interno
delle più svariate applicazioni. La creazione di master data permetterà
di superare il concetto di “qualità dei dati”, che generalmente
assicura la veridicità dei record attraverso la loro ripulitura, che
elimina errori e duplicazioni. Il master data, invece, fungerà da riferimento
cui tutti i dati delle diverse applicazioni dovranno interfacciarsi: in genere,
un database centrale sarà deputato a raccogliere i diversi master data
e, per questo, potrà essere definito come policy hub o master data repository.

Questo approccio all’integrazione dati ottiene, oggi, crescenti consensi.
Il perché è presto detto: da un lato, le esigenze di conformità
a normative sempre più stringenti, obbligano le aziende a presidiare
in modo sempre più diretto il dato. Dall’altro, infine, la data
integration rappresenta un passaggio quasi obbligato nella creazione di architetture
orientate alle Soa, in grado cioè di creare intersezioni tra processi
di business e strati di tecnologie.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome