Home Big Data I big data crescono con il cloud e spingono i profitti

I big data crescono con il cloud e spingono i profitti

La spesa delle imprese per le tecnologie dei big data continua ad aumentare. Secondo Idc, i ricavi mondiali per l’analisi di big data e business passeranno da 150,8 miliardi di dollari nel 2017 a 210 miliardi di dollari nel 2020. Si tratta di un tasso di crescita annuo composto dell’11,9%.

Non si tratta solo di investimenti visto che le organizzazioni che hanno implementato iniziative per i big data stanno avendo un impatto positivo sui profitti.

In un sondaggio sui Big Data di NewVantage Partners, l’80,7% degli intervistati ha dichiarato che i propri investimenti per i big data hanno avuto successo e il 48,4% ha dichiarato di aver ottenuto benefici misurabili grazie alle iniziative per i big data.

Questo tipo di risultati incoraggerà probabilmente le imprese a continuare ad investire nei big data, ma i tipi di soluzioni adottate si stanno modificando.

Secondo Forrester Research, il passaggio al cloud per i grandi volumi di dati è in corso. In effetti, la spesa globale per le soluzioni di big data tramite abbonamenti cloud crescerà di quasi 7,5 volte più rapidamente di quella per gli abbonamenti on-premise.

Big data, cloud e machine learning

Il cloud è particolarmente popolare per l’analisi di dati di grandi dimensioni che si basano su tecnologie di apprendimento automatico. L’apprendimento automatico richiede hardware di elaborazione avanzato e costoso, ma l’esecuzione dell’apprendimento automatico in-the-cloud consente alle organizzazioni di accedere a questa tecnologia a una frazione del costo necessario per installarla nei propri data center.

Sebbene le organizzazioni si trovino ad affrontare alcune sfide legate all’analisi del cloud, gli esperti affermano che questa tendenza è destinata ad accelerare nei prossimi anni.

Con la maturazione del mercato dei grandi dati, i fornitori hanno sviluppato un’ampia varietà di tecnologie diverse per soddisfare le esigenze delle imprese.

Si tratta di un mercato molto ampio ela maggior parte delle soluzioni per dati di grandi dimensioni rientra in una delle seguenti categorie.

Business Intelligence. Le soluzioni di Bi forniscono funzionalità di analisi e reportistica sui dati aziendali solitamente archiviati in un data warehouse. Secondo Gartner, la Bi e il mercato analitico dovrebbero passare da 18,3 miliardi di dollari nel 2017 a 22,8 miliardi di dollari nel 2020. Si tratta tuttavia di una crescita più lenta rispetto al passato.

Data mining. Il data mining è un’ampia categoria che comprende varietà di tecniche per la ricerca di modelli nei dati di grandi dimensioni. Mentre molte soluzioni per grandi dati offrono ancora capacità di data mining, il termine è caduto un po’ in disuso in quanto i fornitori invece stanno usando termini come “analisi predittiva” e “machine learning” per descrivere le loro soluzioni.

Integrazione. Una delle grandi sfide con l’analisi di dati di grandi dimensioni è raccogliere tutti i dati rilevanti da fonti diverse e convertirli in un formato che ne consenta la facile analisi. Questo ha portato ad un’intera serie di soluzioni di integrazione dei dati, che a volte sono anche chiamate soluzioni Etl (Extract, transform, load). Secondo i mercati, i ricavi dell’integrazione dei dati potrebbero ammontare a 12,4 miliardi di dollari entro il 2022.

Gestione. Questa categoria di soluzioni include strumenti che aiutano le organizzazioni a integrare, pulire, archiviare, proteggere e garantire la qualità dei dati digitali. Markets&Markets prevede che questa categoria di strumenti di grandi dati potrebbe generare 105,2 miliardi di dollari di fatturato entro il 2022.

Open source. Molte delle più diffuse tecnologie big data sono disponibili sotto licenze open source. In particolare, tecnologie come Hadoop e Spark, gestite dalla Fondazione Apache, sono diventate molto popolari. Molti fornitori offrono versioni supportate commercialmente di queste tecnologie open source per il trattamento di grandi dati.

Data lake. Un data lake è un repository che ingerisce dati da un’ampia varietà di fonti e li memorizza nel loro formato nativo. Si tratta di una tecnologia popolare tra le organizzazioni che desiderano eseguire analisi su dati strutturati e non strutturati.

NoSQL database. A differenza dei sistemi di gestione dei database relazionali (Rdbms), i database NoSQL non memorizzano le informazioni nelle tabelle tradizionali con righe e colonne. Utilizzano invece altri modelli, come colonne, documenti o grafici, per tracciare i dati. Molte aziende utilizzano i database NoSQL per memorizzare dati non strutturati per l’analisi.

Analisi predittiva. Attualmente una delle forme più popolari di analisi di big data, l’analisi predittiva esamina le tendenze storiche al fine di offrire una buona stima su ciò che potrebbe accadere in futuro. Molte delle moderne soluzioni di analisi predittiva incorporano funzionalità di apprendimento automatico in modo che le previsioni diventino più accurate nel tempo. Secondo un rapporto di Zion Market Research, la spesa per l’analisi predittiva potrebbe passare da 3,49 miliardi di dollari nel 2016 a 10,95 miliardi di dollari entro il 2022.

Analisi prescrittiva. L’analisi prescrittiva va un passo più lontano dell’analisi predittiva. Oltre a dire alle organizzazioni cosa accadrà in futuro, queste soluzioni offrono anche delle linee d’azione suggerite per raggiungere i risultati desiderati. Gli esperti dicono che poche (se non nessuna) soluzioni di analisi dei dati di grandi dimensioni attualmente sul mercato hanno reali capacità prescrittive.

In-memory database. La tecnologia in-memory rende l’analisi dei gig data molto più veloce. In qualsiasi sistema informatico, l’accesso ai dati in memoria è molto più veloce rispetto all’accesso ai dati memorizzati su un disco rigido o su un’unità a stato solido. Gli In-memory database consentono agli utenti di memorizzare grandi quantità di dati, con un notevole incremento della velocità.

Intelligenza artificiale e apprendimento automatico. Molti strumenti di analisi dei big data di nuova generazione incorporano il machine learning. Il Machine learning utilizza algoritmi per aiutare i sistemi a migliorare nel tempo l’esecuzione delle attività senza una programmazione esplicita. Si tratta di uno dei settori in più rapida crescita del mercato dei grandi dati.

Data science platform. Molti fornitori hanno iniziato a etichettare le loro soluzioni di analisi dei big data come data science platform. I prodotti di questa categoria in genere incorporano molte funzionalità diverse in una piattaforma unificata. Quasi tutti sono dotati di alcune funzioni di analisi e apprendimento automatico, e molti hanno anche funzioni di integrazione o gestione dei dati.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php