Big data, la strategia ideale poggia su quattro pilastri

Il valore della data analysis, intesa come archivio, gestione e analisi delle informazioni, svolgerà un ruolo sempre più importante nell’agenda aziendale, non solo per la divisione IT ma anche per il top management, ed esistono quattro pilastri su cui improntare l'azione.

Nonostante le aziende debbano fare affidamento su repository di grandi dimensioni per attività di analytics at scale, la diffusione di dispositivi IoT, e di conseguenza la quantità di dati provenienti dalla periferia della rete e la necessità di disporre di una data governance coerente, ha avviato un’ondata di modernizzazione che richiede uno stack tecnologico end-to-end supportato dalle potenzialità del cloud.

Il cloud pubblico è già stato sperimentato da molte organizzazioni che ne apprezzano la sua semplicità ed elasticità. Tuttavia, costi operativi imprevisti e vendor lock-in hanno spinto le imprese a valutare modelli di infrastruttura cloud alternativi che offrano libertà di scelta, ma anche la possibilità gestire workload impegnativi a prescindere da dove risiedano e abbiano origine, dalla periferia fino all’intelligenza artificiale.

Le tendenze cloud in Italia

Si tratta di una tendenza presente anche sul mercato italiano, nel quale si riscontra una crescente distribuzione dei dati in ambienti ibridi e multicloud, oltre che uno sviluppo importante di applicazioni IoT che accelerano la quantità delle informazioni da analizzare provenienti da sistemi edge.

I business use case più preziosi e con il più elevato potere di trasformazione – che si tratti di manutenzione predittiva IoT-enabled, diagnosi molecolari o compliance monitoring in tempo reale – richiedono svariati workload di analytics, strumenti di data science e algoritmi di machine learning per interrogare gli stessi data set al fine di generare valore per l’organizzazione.

Tuttavia, molte imprese sono in difficoltà: i dati non vengono più originati esclusivamente nel data center e la velocità con cui avviene la digital transformation significa che i dati provengono dai cloud pubblici e dai sensori IoT.

L’eterogeneità dei dati e i picchi nei volumi fanno sì che molte imprese non abbiano ancora trovato un modo pratico per gestire gli analytics o per applicare gli algoritmi di machine learning ai loro dati.

I loro workload di analytics girano in maniera indipendente, in silos, perché anche i cloud data warehouse e gli strumenti di data science più recenti non sono stati progettati per interagire tra loro. Inoltre, l’esigenza di gestire dati che provengono da fonti diverse rende un approccio coerente alla data privacy praticamente impossibile, o, al meglio, impone onerosi controlli che limitano la produttività e incrementano i costi.

Data-driven, approccio totalizzante

Analisi semplici che migliorano la visibilità sui dati non sono più sufficienti per stare al passo con la concorrenza. Per essere data-driven è necessario applicare diverse discipline di analytics rispetto ai dati che risiedono ovunque.

Guardiamo per esempio ai veicoli autonomi e connessi: bisogna elaborare ed effettuare lo streaming di dati in tempo reale da diversi endpoint in periferia, prevedendo al contempo gli esiti e applicando il machine learning a quegli stessi dati per ottenere insight utili a fornire valore.

Lo stesso vale per data steward e data scientist che devono valutare i dati in momenti diversi del loro percorso. È quindi necessario adottare un nuovo approccio, uno che preveda una piattaforma che integra tutti i dati di data centre e ambienti cloud pubblici, privati, ibridi e multi-cloud; Una piattaforma sempre aggiornata su location, status e tipologie di dato e in grado di offrire altri servizi quali data protection e compliance.

In mercati potenzialmente critici come il finance e la Pubblica Amministrazione, le opportunità da cogliere possono essere frenate da quadri normativi e regole di sicurezza particolarmente stringenti, difficili da rispettare in uno scenario di evoluzione tecnologica costante. Per questo motivo, una strategia sviluppata su una piattaforma Enterprise Data Cloud sicura, veloce e gestita, a prescindere da dove i dati provengono o dove fisicamente risiedono, consente di imprimere una svolta nell’adozione di tecnologie che possono dare una forte accelerazione alla competitività e alla qualità del servizio.

I quattro pilastri dei big data su cloud

Per assicurare alle imprese massima flessibilità e permettere loro di ottenere insight preziosi da dati complessi residenti in qualunque luogo, per Stephen Line, VP Emea di Cloudera è necessario lavorare sulla base di quattro pillar.

  1. Ibrido e multicloud: le aziende oggi richiedono architetture aperte e la flessibilità di spostare i workload tra diversi ambienti cloud, pubblici o privati. Essere in grado di operare con lo stesso livello di funzionalità on e off costituisce il primo ingrediente per superare la maggior parte delle sfide legate ai dati.
  2. Multifunzione: I casi d’uso moderni generalmente richiedono l’applicazione di svariate funzioni di analytics che operano sugli stessi dati. Per esempio, i veicoli autonomi necessitano l’applicazione lo streaming di dati in tempo reale e gli algoritmi di machine learning. Le discipline dei dati – tra cui edge analytics, streaming analytics, data engineering, data warehousing, operational analytics, data science, e machine learning – dovrebbero far parte di un toolset multi-funzionale cloud-enabled in grado di risolvere le principali sfide in modo semplice e immediato.
  3. Sicuro e gestito: Poiché i dati provengono da diverse fonti, anche la responsabilità è elevata. Le imprese desiderano svolgere numerose analisi sullo stesso set di dati all’interno di un framework di sicurezza e governance condiviso – abilitando così un approccio olistico a privacy e compliance in tutto gli ambienti.
  4. Aperto: un enterprise data cloud deve essere aperto. Certamente questo implica un software open source, ma anche architetture di elaborazione aperte e open data store come Amazon S3 e Azure Data Lake Storage. In ultima istanza le aziende vogliono evitare il vendor lock-in optando per piattaforme, integrazione ed ecosistemi di partner aperti. In caso di problemi tecnici, non solo l’azienda, il fornitore originale o chi fornisce il supporto, ma l’intera comunità open source può aiutare, assicurando anche rapidi cicli di innovazione e un vantaggio competitivo.

Per raggiungere gli obiettivi di digital transformation e diventare data-driven, le aziende hanno bisogno di più che migliori data warehouse, data science o strumenti di Business intelligence.

Con l’emergere di nuove tipologie di dati e nuovi casi d’uso, si dovranno affidare a una gamma di capacità di analisi – dal data engineering al data warehousing fino a database operativi e data science – disponibili all’interno di un’infrastruttura cloud completa.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome