Gartner data analytics

Analytics aumentati, intelligenza continua e intelligenza artificiale spiegabile sono i trend principali delle tecnologie di data & analytics per il 2019. Secondo la società di analisi e ricerca Gartner, queste tecnologie possono dispiegare un notevole potenziale trasformativo nel corso dei prossimi tre-cinque anni.

Gli analisti di Gartner evidenziano come il settore data e analytics sia in continua evoluzione. La sfida posta dalla rivoluzione digitale, dei troppi dati, ha anche creato un’opportunità senza precedenti.

Opportunità data proprio dalla grande quantità di dati, unita alle capacità di elaborazione sempre più potenti abilitate dal cloud. È ora possibile addestrare ed eseguire gli algoritmi su larga scala necessari per realizzare finalmente il pieno potenziale dell’intelligenza artificiale.

Il consiglio di Gartner è che i responsabili della gestione e analisi dei dati esplorino come queste tendenze possano contribuire alle priorità di business dell’azienda.

I dieci principali trend del 2019

Gartner data analytics1. Analytics aumentati

Quello degli analytics aumentati non è un concetto inedito, ma è ora al primo posto tra le tendenze del prossimo futuro. Secondo Gartner, rappresenta la prossima ondata dirompente nel settore data e analytics. Gli analytics aumentati utilizzano tecniche di machine learning e intelligenza artificiale per trasformare il modo in cui il contenuto dell’analisi viene sviluppato, consumato e condiviso.

Entro il 2020, gli analytics aumentati saranno un fattore predominante per i nuovi acquisti di analytics e business intelligence, secondo Gartner. Così come per le piattaforme di scienza dei dati e di apprendimento automatico, e per l’analisi integrata. I responsabili del settore dovrebbero pianificare l’adozione di analytics aumentati man mano che le funzionalità della piattaforma matureranno.

2: Gestione dei dati aumentata

L’Augmented Data Management, la gestione dei dati aumentata, converte i metadati dal poter essere utilizzati solo per audit, lineage e reporting, all’alimentare sistemi dinamici. I metadati si trasformano da passivi in attivi e stanno diventando il principale motore per l’intelligenza artificiale e il machine learning.

La gestione dei dati aumentata sta automatizzando molte delle attività manuali e consente agli utenti meno esperti di tecnologia di essere più autonomi nell’uso dei dati. Permette inoltre di rendere disponibili risorse tecniche altamente specializzate su compiti di maggior valore.

Entro la fine del 2022, le attività manuali di data management saranno ridotte del 45 percento. Ciò, grazie all’aggiunta di machine learning e alla gestione automatizzata a livello di servizio.

3. Intelligenza continua

Entro il 2022, più della metà dei principali nuovi sistemi aziendali incorporerà una intelligenza continua. Questa utilizza dati contestuali in tempo reale per migliorare le decisioni.

L’intelligenza continua è un design pattern in cui le analisi in tempo reale sono integrate all’interno di un’operazione aziendale. Elaborando dati correnti e storici, prescrive azioni in risposta agli eventi. L’intelligenza continua fornisce automazione decisionale o supporto decisionale.

4. Intelligenza artificiale spiegabile

I modelli di intelligenza artificiale sono sempre più impiegati per potenziare e sostituire il processo decisionale umano. Tuttavia, in alcuni scenari, le aziende devono giustificare il modo in cui questi modelli arrivano alle loro decisioni. Per creare fiducia negli utenti e nelle parti interessate, i responsabili delle applicazioni devono rendere questi modelli più interpretabili e spiegabili.

Sfortunatamente, la maggior parte di questi modelli avanzati di intelligenza artificiale sono scatole nere complesse che non sono in grado di spiegare perché hanno raggiunto una specifica raccomandazione o decisione.

5. Graph analysis

La graph analysis è un insieme di tecniche d’analisi che consente di esplorare le relazioni tra entità di interesse quali organizzazioni, persone e transazioni.

L’applicazione di graph processing e graph database crescerà fino al 100% annuale, fino al 2022. Essa accelera la preparazione dei dati e abilita una scienza dei dati più complessa e adattabile.

Questo tipo di analisi crescerà nei prossimi anni a causa della necessità di porre domande complesse su dati complessi. Attività che non è sempre pratico, o addirittura possibile, fare su larga scala utilizzando query SQL.

6. Data Fabric

Un Data Fabric consente accesso e condivisione dei dati in modo fluido, in un ambiente di dati distribuiti. Consente un framework di gestione dei dati unico e coerente, che consente accesso ed elaborazione in base al design, attraverso storage altrimenti in silos.

Entro il 2022, i progetti di Data Fabric su misura verranno implementati principalmente come infrastruttura statica, costringendo le aziende a una nuova ondata di costi per una riprogettazione completa per approcci con mesh di dati più dinamici.

7. NLP e analisi conversazionale

Entro il 2020, il 50% delle query di analisi verrà generato tramite ricerca, Natural language processing (NLP) o voce. Oppure verrà generato automaticamente.

La necessità di analizzare combinazioni complesse di dati e di rendere gli analytics accessibili a tutti nell’organizzazione, determinerà un’adozione più ampia. Ciò consentirà agli strumenti di analisi di risultare semplici quanto un’interfaccia di ricerca o una conversazione con un assistente virtuale.

8: Intelligenza artificiale commerciale

Gartner prevede che entro il 2022 il 75% delle nuove soluzioni per l’utente finale che sfrutta le tecniche di intelligenza artificiale e machine learning sarà costruito con soluzioni commerciali piuttosto che con piattaforme open source.

I vendor commerciali hanno ora costruito connettori nell’ecosistema open source. E forniscono le funzionalità aziendali necessarie per scalare e democratizzare intelligenza artificiale e machine learning. Funzionalità quali gestione di progetti e modelli, riutilizzo, trasparenza, data lineage e coesione e integrazione della piattaforma. Caratteristiche che mancano alle tecnologie open source.

9. Blockchain

La core value proposition della blockchain e delle tecnologie di distributed ledger è fornire trust decentralizzata attraverso un network di partecipanti untrusted. Le potenziali conseguenze per i casi di utilizzo degli analytics sono significative, specialmente quelli che sfruttano le relazioni e le interazioni dei partecipanti.

Tuttavia, secondo Gartner ci vorranno diversi anni prima che le quattro o cinque principali tecnologie blockchain diventino dominanti. Finché ciò non accadrà, gli utenti finali della tecnologia saranno costretti a integrarsi con le tecnologie e gli standard blockchain dettati dai loro clienti o network dominanti. Ciò include l’integrazione con i propri dati esistenti e con l’infrastruttura di analitycs. I costi di integrazione possono superare qualsiasi potenziale vantaggio. Le blockchain sono una fonte di dati, non un database, e non sostituiranno le tecnologie di gestione dei dati esistenti.

10. Server a memoria persistente

Le nuove tecnologie di memoria persistente contribuiranno a ridurre i costi e la complessità dell’adottare architetture abilitate all’in-memory computing (IMC). La memoria persistente rappresenta un nuovo tier di memoria tra quella DRAM e la flash NAND. Essa può fornire una memoria di massa economica per workload ad alte prestazioni.

La memoria persistente ha il potenziale per migliorare le prestazioni delle applicazioni, la disponibilità, i tempi di avvio, i metodi di clustering e le practice di sicurezza. Il tutto, tenendo i costi sotto controllo. Aiuterà inoltre le organizzazioni a diminuire la complessità di applicazioni e architetture dei dati, riducendo la necessità di duplicazione dei dati.

Maggiori informazioni e report completi sono disponibili sul sito Gartner, a questo link.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome