Data warehousing targato Usa per Albacom

L’operatore di telefonia fissa ha utilizzato la soluzione di Teradata per migliorare la gestione del cliente. Il progetto, realizzato per aree tematiche in tre diverse fasi, è stato sviluppato con il contributo di applicativi Clarify, Hummingbird e Business Objects

Nata nel ’95 da un accordo strategico tra British Telecom e Banca
Nazionale del Lavoro, nel 2000 Albacom ha fatturato 677 miliardi di lire,
offrendo servizi di comunicazione indirizzati alle aziende, per l’esattezza a
oltre 95mila clienti. Avendo a che fare con questi numeri, la gestione
dell’utente rappresenta una delle aree più critiche dell’attività della società
di telefonia fissa e richiede un impianto strutturale fatto ad hoc. La società
ha quindi deciso di implementare un sistema di data warehousing per ottenere la
centralizzazione di tutti i dati, compresi i servizi, la fatturazione e così
via.
Nel marzo dello scorso anno, è stata avviata l’implementazione
della soluzione di Teradata, conclusosi a fine anno e seguita da alcuni
ritocchi per ampliare le funzionalità già utilizzate, introducendone di
nuove. Al progetto sono state dedicate a tempo pieno quattro persone di
Albacom ma il gruppo di lavoro era misto e comprendeva anche tecnici e
consulenti di Teradata/Ncr e del system integrator Cap Gemini Ernst &
Young.
L’applicativo cardine della customer care e
delivery è una soluzione Clarify mentre l’ambiente di supporto alla gestione dei
dati e dei servizi relativi al cliente è piuttosto eterogeneo e comprende anche
soluzioni di Oracle, Siebel e altri vendor. «La scelta di utilizzare un
sistema di data warehousing piuttosto corposo
– ha sottolineato Cristina
Bertolo, responsabile dei progetti e delle soluzioni di data warehousing presso
Albacom – è stata, quindi, in qualche modo forzata

».

Le fasi programmate
Il progetto ha vissuto tre
distinti step. La prima fase, di business discovery, è stata condotta
attraverso interviste agli utenti. Nel corso di questa tranche, sono state
definite le aree di interesse e le necessità aziendali sulle quali
approfondire l’analisi. Per quanto attiene la parte potenzialmente di
competenza dell’area data warehouse, si è proceduto con un’operazione di
data discovery.
Evidenziatasi una specifica esigenza, si è proceduto alla
verifica dell’esistenza, all’interno del patrimonio informativo aziendale,
della disponibilità dei dati necessari a soddisfare le richieste
manifestate dagli utenti. A seguito di questo studio è nato un elenco di
gap, ovvero di esigenze che, al momento dell’analisi, non potevano essere
convogliate all’interno del progetto. L’attività di data discovery si è
rivelata portante e di peso significativo per quanto riguarda la conduzione
del progetto in quanto l’ambiente applicativo di riferimento era piuttosto eterogeneo e
l’obiettivo ambizioso. «Si è deciso di procedere
alla costruzione di un corporate data warehouse


ha precisato Bertolo -, anziché
affrontare specifiche aree tematiche verticali in termini di data mart. Si
è, quindi, resa necessaria la verifica di tutto il patrimonio informativo
aziendale e l’eventuale esistenza di correlazioni. Lo scopo era di dare una
visibilità complessiva alla posizione del cliente, indipendentemente
dal sistema sul quale risiedevano i dati specifici
». Per avere un’idea della
complessità dell’ambiente di riferimento, basti pensare che esiste,un
sistema a supporto del processo di fatturazione in base agli ordini
(invoice-to-order) all’interno del quale vengono convogliate tutte le
informazioni di processo relative a quest’area. Accanto a ciò, coesiste un
sistema di delivery che raccoglie le informazioni relative alla
configurazione e definizione del servizio erogato al cliente. Quest’ultima
funzionalità si riallaccia, poi, al sistema di fatturazione vero e
proprio. «Il tentativo – ha
sottolineato Bertolo – è stato quello di
recuperare tutti i dati relativi al cliente, disponibili all’interno dei
vari sistemi, per uniformare le informazioni e ottenere una visione integrata e completa della posizione
raggiunta

».

L’implementazione
A
seguito della fase di data discovery è partita l’implementazione vera e
propria, divisa per aree progettuali tematiche. Il primo step ha consentito
di organizzare la gestione del traffico, ovvero il flusso di dati relativo a
clienti, ordini e access method.
Quest’ultimo è l’elemento che permette ad
Albacom di ricondurre il traffico al singolo cliente, sito o servizio.
Sostanzialmente, nella maggioranza dei casi, tale elemento coincide con le
Cli (le linee telefoniche), in altri casi si tratta di numerazioni non
geografiche come i numeri verdi. I dati di traffico sono caricati su base
giornaliera, entro la mezzanotte, e sono disponibili già il mattino
successivo, classificati sulla base di dimensioni significative quali il
cliente, i prefissi chiamanti o chiamati, la fatturabilità o meno del
servizio. La seconda parte, vale a dire il cuore del corporate data
warehouse, ha permesso di razionalizzare il flusso dei dati relativi a
valorizzazione di fatture, crediti complessivi, scoperti, verifica dei
crediti in scadenza e dell’anzianità degli stessi. Su questa base
informativa sono state sviluppate applicazioni di front end specifiche per
l’analisi del traffico, del fatturato o dell’ordinato.


L’architettura
Il database utilizzato è una
macchina Unix System 5 con architettura Ncr Mpp (Massive Parallel
Processing) che permette ai diversi nodi, collegati tra loro, di funzionare
come un solo server ed eseguire i processi in parallelo. Il motore
relazionale è stato fornito da Teradata e ha una potenza di elaborazione
pari a 1 Tb di dati. In abbinamento alla soluzione della controllata di Ncr
sono stati utilizzati alcuni application server. Su uno è stato installato
il prodotto di Etl (Genio di Hummingbird), con cui si gestisce
l’estrazione dati dai sistemi sorgenti, la loro trasformazione, la
pulizia e il caricamento nel database di destinazione (target). Per il
front end, invece, è stato utilizzato un application server dedicato alle
soluzioni di Business Objects, disponibili in azienda sia in modalità
client-server che Web. Di recente è stato anche implementato un altro
strumento, sempre di Business Objects (Set Analyzer) per la parte di
segmentazione dichiarativa dei clienti. I volumi giornalieri elaborati sono
più o meno dell’ordine dei 10 milioni di record, cifre relative al processo
standard di caricamento dei dati di traffico e suddivise tra fatturazione e
report di interconnessione. A ciò si aggiungono i processi di
riconciliazione col billing.
«Ci riteniamo abbastanza soddisfatti di questo periodo
iniziale

  – ha concluso Bertolo -, anche se tale tipo di
progetto non si esaurisce con la prima implementazione. Le future evoluzioni
saranno indirizzate a completare alcune aree tematiche come, ad esempio, le
modalità di accesso dei clienti alla rete. Abbiamo, poi, la necessità di
mantenerci allineati con i sistemi sorgenti. Nel corso degli ultimi mesi,
infatti, abbiamo subìto evoluzioni architetturali rilevanti e, di
conseguenza, dobbiamo adeguare il data warehouse. A breve, ad esempio,
partiremo con un’analisi dell’opportunità di implementare una soluzione di
misurazione dei Kbi, Key business indicator
».

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome