Informatica accerta la qualità del dato, poi la monetizza

A oggi il 40% dei progetti informativi fallisce o non rispetta i tempi. La causa? I dati aziendali sono di pessima qualità e a bassa integrazione. Ma il manager non lo sa.

In tempi di crisi ascoltate chi guadagna, diceva un vecchio saggio. E se a guadagnare è un’azienda che colma il gap tra qualità attesa e qualità reale dei dati, rendendoli inoltre indipendenti dalla soluzione, ascoltare potrebbe essere utile. Come diventare un’azienda data-driven, insomma, è quanto propone Informatica nell’incontro romano del 17 giugno.
“Siamo l’unico vendor che su master data management e data integration ottiene il 100% del proprio business”, dice Fredi Agolli, Country Manager per l’Italia. Siamo indipendenti da tutti gli altri e ci teniamo molto”, prosegue. “Anche se fronteggiamo svariati competitor, Il nostro principale avversario è lo sviluppo custom di applicazioni”.
Laddove è necessaria qualità e reperibilità dei dati, infatti, qualsiasi deviazione da uno standard noto è un problema difficile da affrontare a posteriori. In tutti i casi noti, invece, questo problema non c’è.
“Informatica offre l’accesso ai dati indipendente dalla piattaforma”, prosegue il manager: “sappiamo leggere e scrivere nativamente i dati su mainframe, Sap, Siebel, As400 e su tutti gli altri sistemi, ma non molti altri possono garantire la stessa competenza”.
Molti manager ancora non si rendono conto che la mancanza di risultati spesso deriva da una sopravvalutazione della qualità dei dati e degli skill aziendali di accesso ed elaborazione. La sfida di Informatica è proprio questa, e se l’azienda cresce continuamente da oltre 20 trimestri vuol dire che l’approccio è premiante.

Data quality come asset aziendale
In pratica, spesso i progetti Ict vecchi e nuovi sono basati su due assunti: i dati sono accessibili; i dati sono conosciuti. Nella maggior parte dei casi sono entrambi falsi.
“Per stanare l’esigenza di qualità dei dati”, sorride Fredi, “facciamo ai manager una semplice domanda: siete in grado di documentare a terzi la conoscenza che avete dei dati?”.
E’ una domanda che porta al risultato per via indiretta, perché a domanda diretta tutti rispondono di avere dati di elevata qualità e disponibilità, mentre dovendola documentare si accorgono della reale situazione.
“Informatica offre una piattaforma unica per qualsiasi tipo di dato, reperibile anche con con le giuste tempistiche: batch, near real time, real time, change data capture”.

Le più recenti novità, in mostra nella giornata romana, sono i Data Services e Informatica Cloud. I services entrano in gioco se si deve accedere subito a dati anche parzialmente nel datawarehouse, per fare immediatamente business intelligence su flussi preesistenti o nuovi.
Informatica Cloud invece mette a disposizione on-line il software in versione semplice, adatta anche a non programmatori. Inoltre l’azienda si attende un forte incremento nel settore Master Data Management, avendo recentemente integrato la propria offerta con l’acquisizione di Siperian, leader di settore; l’offerta complessiva Mdm e Ilm (Information Lifecycle Management) è stata poi oggetto di un accordo con Emc, che l’ha integrata nel suo programma commerciale Select.

Crescita italiana
E’ curioso che un’azienda californiana abbia un nome italiano che in patria non abbia nessun senso. In realtà secondo i due fondatori il nome era vagamente latineggiante, ed indicava la gestione delle informazioni in senso stretto.
Dopo molti anni di presenza indiretta, tre anni fa l’azienda ha cambiato il goto market, aprendo una filiale italiana. I risultati si fanno vedere: “In Italia nel 2009 solare siamo cresciuti del 43%”, dice il Country Manager. Il target primario sono le realtà medio-grandi private (bancarie, assicurative, telecom) e della PA centrale, “ma esistono realtà con poche centinaia di addetti, o alle volte anche alcune decine, la cui attività si avvantaggerebbe molto con un discorso di qualità dei dati”.
L’approccio di vendita può comprendere un assessment anche gratuito, magari su un sottoinsieme di dati significativo ma non determinante da un punto di vista progettuale. L’analisi viene fatta senza assunzioni ma solo sui dati reali, dei quali si identificano parametri significativi quali, ad esempio, l’integrità referenziale o la correlazione tra dati di sistemi diversi.
“Evidenziamo subito dei buchi qualitativi come dati non presenti, errati, ridondanti, verità multiple”, dettaglia il manager, “eventualmente anche in termini di antiterrorismo, frode, antiriciclaggio e evasione fiscale”. Si passa poi alla bonifica dei dati e quindi all’Etl (extract, transform and load). E la qualità del dato è servita.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome