Data mesh, gestione dei dati, competenze: sono questi, e altri ancora, gli argomenti trattati con gli esperti di Agile Lab.
A rispondere sono: Paolo Platter, CTO & Co-Founder di Agile Lab, Roberto Coluccio, Big Data Architect & Project Lead di Agile Lab, e Ugo Ciracì, Business Unit Lead di Agile Lab.
Come si evolverà l’approccio delle aziende alla gestione dei dati nel 2023?
Vi è una sempre maggiore consapevolezza legata al valore che i dati potrebbero generare. Il condizionale è d’obbligo, in quanto non tutte le iniziative in termini di Data Lake, Data Warehouse, ML & AI degli ultimi 15 anni sembra stiano portando i ROI attesi.
La disponibilità di un’infrastruttura cloud facilmente scalabile ha sicuramente abilitato rapide migrazioni/implementazioni di sistemi analitici. Tuttavia, non sono state sempre affiancate da strategie orientate al business, alla qualità, alla capacità di considerare i dati come prodotti sui quali basarle, e non solo dei costi da sostenere “perché prima o poi quei dati serviranno”.
La tendenza a considerare i dati come un prodotto (Data Productization) si sta facendo sempre più strada, è un approccio innovativo ed efficace che consente di estrarne il valore e sbloccare il loro reale potenziale. Trattare i dati “as product” ha impatti positivi su tempi e costi di gestione, riducendo nel contempo i rischi legati alla data governance. Il product thinking impone maggiore attenzione alla qualità del prodotto stesso e al suo posizionamento all’interno del mercato, andando a massimizzare il rapporto tra benefici e costi.
I dipartimenti IT, da essere puri centri di costo a servizio del business da un punto di vista progettuale, si stanno trasformando in abilitatori che costruiscono piattaforme e asset, veri e propri prodotti che possono essere anche rivenduti sul mercato. Questo movimento, insieme alla transizione al cloud, comporterà la traslazione dei costi da CAPEX a OPEX, imponendo di ripensare l’intero piano budget che oggi giorno viene impiegato nei dipartimenti dati.
Quali le nuove esigenze che emergeranno in modo più deciso?
Sicuramente continueranno le migrazioni verso il cloud, almeno nelle prime fasi di ridefinizione delle strategie di business orientate ai dati analitici. La scalabilità del cloud può nascondere però dei rischi, in termini di interoperabilità, costo e sostenibilità.
Si parla sempre più spesso di supporto multi-cloud, per quanto riguarda la possibilità di prevedere architetture multi-vendor (per ridurre lock-in e ottimizzare i costi), nonché di FinOps e GreenOps come practice per indirizzare tematiche di sviluppo, creazione e manutenzione infrastrutturale in ottica sostenibile, non solo per il portafoglio, ma anche per l’ambiente. In particolare, a seguito dell’aumento di sensibilità dovuto a eventi recenti come il rincaro energetico e i cambiamenti climatici, anche il mondo IT è chiamato a una presa di consapevolezza.
L’altro tema importantissimo è la necessità di costruire piattaforme dati che non siano più incentrate totalmente sulla tecnologia, ma che permettano di abbracciarne diverse e di farle evolvere (Technology Agnosticity). Questo è dettato dal fatto che le ingenti somme di denaro introdotte dai fondi di Venture Capitalist hanno accelerato il mercato delle tecnologie, diminuendone l’aspettativa di vita e costringendo quindi le grandi aziende a mitigare il rischio di lock-in collegato. Sposare una tecnologia che diventerà obsoleta nell’arco di 5 anni, se approcciata nel modo sbagliato, può portare infatti a enormi e ricorrenti costi di migrazione.
Infine, emergerà in modo sempre più evidente la necessità di riunire proprietà e responsabilità sul ciclo di vita dei dati del mondo analitico e “operazionale”, per indirizzare specifiche strategie di business orientate ai domini. Di conseguenza, gli approcci centralizzati (standard degli ultimi 15-20 anni) diventeranno via via sempre meno sostenibili e scalabili, per riuscire a tenere il passo delle opportunità derivanti da un utilizzo ben governato dei dati.
Questo processo di decentralizzazione deve essere supportato dalla costruzione di piattaforme che riducano gli sprechi, la duplicazione di sforzi e conoscenza, e migliorino significativamente l’autonomia dei domini di business per quanto riguarda l’infrastruttura e tutti i temi di compliance.
Quali i mercati verticali che dovranno affrontare i cambiamenti più significativi e perché?
Non si può indicare un settore che subirà un impatto maggiore, perché ogni azienda, indipendentemente dall’ambito operativo, ha la propria cultura e storia in ambito di gestione dati. Il manufacturing è il settore che ha le maggiori difficoltà nell’estrarre valore dai dati e si trova ad affrontare sfide non banali in termini di valorizzazione di dati che spesso provengono da contesti multi-country e multi-plant, con normative complesse e infrastrutture IT spesso non adeguate.
Anche il comparto Banking and Insurance, notoriamente tra i più avanzati a livello IT e gestione del dato, si trova ad affrontare una crescente stratificazione di sistemi e practice, che prima o poi bisognerà affrontare in maniera decisa.
A questi si affianca inoltre il settore Utility/Energy, dove la valorizzazione della grande mole di dati a disposizione rappresenta uno strumento fondamentale per rispondere alle esigenze legate alla previsione e pianificazione del consumo energetico, soprattutto in un contesto mondiale così mutevole e delicato come quello attuale.
Infine, non va dimenticato il settore della sanità, che sta attraversando una vera e propria rivoluzione in termini di gestione e governance dei dati. Diventa infatti sempre più pressante la necessità di garantire una visione unica del paziente, raccogliendo e gestendo dati eterogenei generati da piattaforme e dispositivi di natura estremamente diversa.
Gestione, protezione, valorizzazione: quale aspetto legato ai dati prevarrà nel prossimo anno?
Nel prossimo anno, con l’adozione del Data Mesh ci si concentrerà maggiormente sulla rivisitazione dei processi di gestione del dato, impattando i sistemi di ownership delle varie attività, di change management e budget. Sembrerà di fare un passo indietro, per poi farne tre in avanti nei prossimi anni. Gli attuali processi di gestione del dato si sono dimostrati incapaci di supportare il business con la velocità adatta, motivo per cui è necessario rivedere proprio l’intero impianto.
Come vedete l’adozione del Data Mesh, in Italia e all’estero?
Siamo ancora nella fase di innovation dell’hype cycle, sia in Italia che all’estero. C’è grandissimo interesse sul tema, motivo per cui le aziende si stanno muovendo. Ci aspettiamo che nel 2023 si intensifichino le attività legate alla realizzazione di MVP e POC su questo tema da parte di chi ancora non ha fatto esplorazioni sul tema. Gli early adopter, nel mentre, continuano con le loro implementazioni e a investire sulla costruzione di piattaforme abilitanti che diventeranno un elemento centrale per la Data Mesh adoption.
Quali saranno le nuove competenze necessarie per affrontare l’innovazione?
Fondamentalmente, la comprensione dei processi di business è di critica importanza per poter modellare i dati nella maniera corretta e trovare nuovi modi di estrarre valore da essi. Le competenze tecniche stanno diventano sempre più una commodity, in quanto facilmente integrabili, mentre la comprensione di principi, pratiche e processi diventa ogni giorno più complessa e sofisticata, ed è qui che si nasconde la vera sfida per i professionisti in ambito dati.
L’”ingegneria” della produzione di dati e del processo di delivery, come pratica dalle prospettive di design, metodologia, operations e tooling, consente la creazione e mantenimento di una reale innovazione. Pratiche organizzative, metodologiche ed ingegneristiche ben strutturate consentono infatti una reale evoluzione e innovazione costante per le aziende.