Sei grandi aziende su dieci credono nei big data

Il dato emerge da un’indagine presentata nei giorni scorsi. Il 62% delle grandi organizzazioni ha già implementato o si prepara a introdurre in azienda un sistema di gestione delle grandi quantità di dati.

Jaspersoft ha reso pubblici i risultati di una recente indagine condotta tra oltre 600 membri della propria community sull’utilizzo enterprise di big data nel processo decisionale delle grandi aziende.
L’indagine globale ha rivelato tendenze su come molte aziende stiano indirizzando le proprie opportunità, oltre a dove sono utilizzati i big data nelle organizzazioni.

Risulta che il 62% dei partecipanti o ha già effettuato il deployment di una soluzione big data o ha piani per farlo entro i prossimi 12 mesi. Di quelli che non hanno alcun piano di deployment, il 35% ha citato una mancanza di comprensione su big data come la barriera principale.

Perché i big data
Le cinque principali categorie di utilizzo di big data sono analisi della customer experience (48%); analisi della clientela, churn, segmentazione (37%); ottimizzazione delle campagne marketing (28%); analisi dei rischi finanziari (27%); analisi marketing competitive (27%).

Tra i partecipanti che hanno implementato o pianificato iniziative big data, i tipi di progetto sono andati da analisi dei clienti a scoperta di medicinali, targeting basato sulla location nelle campagne marketing e analisi delle minacce.

Capire cosa c’è nelle applicazioni enterprise
Dal sondaggio emerge anche che per il 60% i database relazionali sono i loro big data store primario, mentre Hadoop e MongoDB sono i loro data store principali; la sorgente primaria di big data sono le applicazioni enterprise (79%) e all’interno di queste CRM, Finanza (31%) ed e-commerce (28%) sono le più comuni; il 40% degli utenti attivi su progetti Big data lo sta facendo nel cloud; il 44% richiede capacità analitiche in tempo reale o in quasi-tempo reale (near real-time) per i propri big data; le tecnologie più importanti di analisi ed elaborazione sono i report (76%), la visualizzazione dei dati (64%), l’integrazione dei dati/ETL (59%), l’analisi statistica/predittiva (54%) e la ricerca (50%), e il 68% utilizza contenuti generati da macchine (web log, dati da sensori) come sorgente primaria per un progetto big data, mentre il 46% usa testo generato da soggetti umani (social media, blog).

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome