Come si costruisce una strategia per i big data

Per implementare un'efficace strategia di big data le aziende devono sviluppare in tre aree principali: ingegneria dei dati, analisi avanzata e visualizzazione.

Lo sviluppo di un livello centrale di ingegneria dei dati è necessario per creare un archivio robusto. I file system distribuiti e le tecnologie di elaborazione dei dati sono utilizzati per gettare le basi di una pipeline di implementazione.

Questa base può quindi essere sovrastata da modelli analitici e statistici di apprendimento avanzati che pongono le basi per l'analisi predittiva, il riconoscimento dei modelli e l'ottimizzazione.

Gli strumenti per costruire questo livello secondario includono ambienti di programmazione open source come R e Python. Infine, per colmare il divario tra i modelli statistici e l'analisi decisionale, è essenziale fornire un'interfaccia di visualizzazione che consenta agli utenti di dare un senso alle intuizioni dei modelli analitici.

Tali strumenti includono librerie di visualizzazione open source, così come software enterprise. Le imprese non dovrebbero avere paura di iniziare a piccoli passi utilizzando i dati che già devono sperimentare e creare un ciclo di feedback.

Le tre aree principali possono anche essere rappresentate da sei fasi della pipeline di consegna dei dati analitici, che copre la produzione dei dati, l'ingestione, la memorizzazione, elaborazione, analisi e consumo.

Comprensione dei componenti dei big data

Le imprese che hanno affinato il loro mestiere nel campo delle tecnologie per i big data hanno trasformato l'industria al dettaglio attraverso raccomandazioni di prodotto e contenuti personalizzati per i consumatori.

Per esempio, la gestione basata sui dati di Netflix ha portato a un cambiamento paradigmatico nel settore dell'intrattenimento attraverso lo streaming video on-demand e la previsione dei contenuti che i telespettatori vogliono guardare.

È attraverso un'approfondita valutazione di questa pipeline che la promessa di grandi quantità di dati può essere praticamente realizzata in modo più appropriato attraverso l'allocazione efficiente delle competenze giuste per le relative fasi al fine di garantire una minima discrepanza e un'eccessiva dilatazione delle risorse di business.

Il valore della big data analytics si presenta tipicamente sotto forma di un'utile applicazione di dati, la creazione di nuove conoscenze e, soprattutto, nella sua capacità di ispirare azioni prescrittive e decisionali basate sulle intuizioni generate che possono essere di natura descrittiva, diagnostica o predittiva.
È opportuno utilizzare il giusto mix di strumenti, tecniche e risorse per ottenere la sinergia necessaria per il successo della pipeline analitica.

Team orientati ai big data

Più in generale, i principi guida nello sviluppo delle tabelle di marcia per lo sviluppo dei dati comprendono i seguenti tre punti: progettare un archivio dati; investire nella corretta architettura; costruire un team efficiente e di grandi dimensioni in sintonia con gli obiettivi aziendali. Le prime due sono estensioni naturali della grande pipeline di sviluppo dati, mentre l'ultima riguarda le persone come epicentro di tutte le risorse critiche.

L'archivio dati. Le imprese non dovrebbero avere paura di iniziare a piccoli passi con un test. Nel corso della sperimentazione, potrebbe emergere la rilevanza di nuovi campi di dati che si desidera iniziare a raccogliere. Alcune domande che possono guidare la progettazione e la costruzione dei dati includono quali dati sono necessari per raggiungere i miei obiettivi di business? Quali sono i dati esistenti? Quali dati non abbiamo, ma vorremmo iniziare a raccogliere? Ci sono dati difficili da raccogliere? Le imprese che perfezionano il proprio archivio dati attraverso una continua sperimentazione potranno trarre vantaggio da un approfondimento più approfondito.

L'architettura. Un team di big data efficiente dovrebbe essere guidato da un leader aziendale, che sia ben preparato sui concetti tecnici e con una solida esperienza pratica. Avere una buona comprensione delle soluzioni big data presenti sul mercato assicura che le aziende spendano solo su ciò che è necessario. Ottenere le capacità di dati giuste per soddisfare le esigenze aziendali significa tenere a bada i costi.

Le imprese che hanno appena iniziato potrebbero voler concentrarsi sullo sviluppo di un data science workbench e adottare un approccio modulare nello sviluppo di un'architettura dei dati. Framework open source come Hadoop sono soluzioni convenienti e a basso costo per soddisfare le esigenze di analisi. Man mano che le imprese progrediscono sulla base di una tabella di marcia pronta per l'uso dei dati, potrebbero trovare la necessità di aumentare la loro capacità e complessità.

Quando le strategie aziendali passano dall'analisi pura alla modellizzazione predittiva, i repository di dati in crescita richiedono uno storage più ampio e un'analisi avanzata dei dati per una generazione di intuizioni più efficace. Queste imprese potrebbero trovare la necessità di personalizzare il software e andare oltre per investire nella propria R&S e sviluppare applicazioni di dati che migliorino le loro attività e, in ultima analisi, la produttività.

Il team. Scegliere le persone giuste per guidare lo sforzo è importante. Avere una combinazione di know-how tecnico e obiettivi aziendali è essenziale. Un grande team di dati efficiente dovrebbe essere guidato da un leader di business, che sia ben fondato su concetti tecnici con una solida esperienza pratica. Il transito in una cultura data-ready non deve necessariamente essere una profonda revisione della struttura organizzativa. È importante avere un giusto mix di ingegneri, scienziati e sviluppatori di dati e software. A

d esempio, le imprese all'inizio del progetto richiederanno un maggior numero di ingegneri incaricati dell'implementazione e della gestione di grandi piattaforme e repository di dati. Più avanti sarà necessario un maggior numero di scienziati per costruire algoritmi di analisi e previsione dei dati. Infine, gli ingegneri software sono necessari per sviluppare dashboard front end e strumenti di visualizzazione che aiutano i product manager nel processo decisionale e nelle operazioni quotidiane.

Il legacy. Mentre le soluzioni di big data possono essere utilizzate per acquisire informazioni in modo più efficiente per decisioni aziendali più rapide, spingere le aziende ad adottare un approccio basato sui dati è spesso pieno di inerzia. L'avvio può essere scoraggiante. Come strutturare un team di dati efficiente per raggiungere gli obiettivi aziendali? Quanto investimento fate per il rinnovamento delle infrastrutture e la ridistribuzione della forza lavoro? La verità è che il transito in una cultura data-ready non deve essere una profonda revisione della struttura organizzativa, ma una roadmap ben ponderata con obiettivi a lungo termine è necessario per facilitare la transizione. Per far sì che una cultura basata sui dati si diffonda in tutta l'organizzazione, l'integrazione di grandi team di data science all'interno delle organizzazioni richiede che ogni membro del team abbia un forte apprezzamento degli obiettivi aziendali e della capacità di comunicare con i principali stakeholder, invece di agire in un silo.

 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche iscriviti alla newsletter gratuita.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here