Home Digitale La digitalizzazione di Eni passa per big data e supercomputer

La digitalizzazione di Eni passa per big data e supercomputer

L’Eni di oggi che viaggia verso la digitalizzazione è la diretta conseguenza dell’Eni di ieri che negli anni Duemila ha riscritto i propri algoritmi. Un esempio di un cammino che oggi si sostanzia in 150 progetti trasversali a tutte le aree di business e oltre 150 manager coinvolti.

La trasformazione digitale della società, destinata a coinvolgere tutte le aree di attività della compagnia, ha una pluralità di obiettivi: dal miglioramento della sicurezza e della salute degli addetti, all’aumento del livello di affidabilità, operabilità e integrità tecnica degli impianti, con benefici in termini di sicurezza e di impatto ambientale; dal rafforzamento delle performance economico-operative, allo sviluppo di nuovi modelli di business e all’incremento della rapidità dei processi decisionali, che diventeranno sempre più data driven.

Il ruolo di Hpc4

Un cammino che ha incrociato competenze interne ed esterne con università e centri di ricerca e che ha portato all’elaborazione interna di una piattaforma software per l’architettura di supercalcolo Hpc4 che permette di generare immagini 3d del sottosuolo per superfici di 600 chilometri quadrati con una profondità di dieci km.

Se prima questa immagine veniva generata in una settimana oggi Hpc4 permette di avere il risultato in un giorno. L’obiettivo è di evidenziare nel terreno l’accumulo di idrocarburi e scoprire altri giacimenti tipo l’enorme Zohr, il giacimento egiziano che è il più grande mai trovato nel Mediterraneo. Il fulcro di questa spinta verso la digitalizzazione è il nuovo supercomputer che ha iniziato a lavorare nel green data center di Ferrera Erbognone nei pressi di Pavia.

Eni ha cominciato ad approcciare il mondo digital con i primi calcolatori potenti e software proprietari associati al calcolo e trattamento di enormi quantità di dati: sia quelli geologici relativi all’esplorazione, sia quelli alla base delle simulazioni fluido dinamiche in giacimento. Successivamente, la società ha avviato lo sviluppo di algoritmi proprietari nelle attività di esplorazione.

Negli anni 2000 ha riscritto i propri algoritmi, ingegnerizzandoli secondo una struttura dell’hardware integrata (Cpu+Gpu) che consentisse di superare la logica sequenziale e di lavorare per cluster di calcolo. In questo modo, ogni elaborazione viene scomposta in diversi job che vengono poi ricomposti alla fine, permettendo di lavorare in parallelo più velocemente.

Oggi è il momento di Hpc4 che consente alla società di disporre di un’infrastruttura di calcolo con una capacità di picco pari a 22,4 Petaflop, 22,4 milioni di miliardi di operazioni matematiche svolte in un secondo. Fornito da Hpe, è costituito da 1.600 nodi Hpe ProLiant DL380, ognuno costituito da 2 processori Intel 24-core Skylake (per un totale di oltre 76,000 cores) e 2 acceleratori Gpu NVidia Tesla P100. I nodi sono connessi attraverso una rete ad alta velocità Edr Infiniband e il sistema è affiancato da un sistema di archiviazione di 15 Petabytes ad alte prestazioni.

Secondo Claudio Descalzi, amministratore delegato di Eni: “Gli investimenti dedicati al potenziamento delle infrastrutture di supercalcolo e allo sviluppo di algoritmi rappresentano una parte importante del processo di trasformazione digitale di Eni. Possiamo elaborare e stoccare enormi quantità di dati per l’imaging geofisico, la modellizzazione di sistemi petroliferi e di giacimento e altresì utilizzare algoritmi predittivi e di cognitive computing per tutte le nostre attività di business. Per la nostra industria è sempre più vitale poter elaborare una quantità di dati in continua crescita, garantendo risultati sempre più accurati e in tempi rapidi: con Hpc4 stiamo tracciando la strada dell’utilizzo di supercalcolatori di potenza exascale nel mondo dell’energia, sistemi che potrebbero rivoluzionare le modalità di gestione delle attività oil&gas”.

De Scalzi ha sottolineato l’importanza dei big data con i quali si lavora dagli anni Settanta. “Per Eni sono importanti perché lavoriamo su dati indotti e dobbiamo interpretare ciò che è 4.000 metri sotto di noi. Questo comporta però investimenti per miliardi su ciò che non vediamo”.

Siamo qua, ha proseguito, perché non potremmo essere da nessun’altra parte. “D’altronde il nostro lavoro è minimizzare le incertezze”. De Scalzi ha ricordato come l’insourcing sia stata la scelta della società che ha progettato internamente il supercomputer perché l’harware doveva adattarsi ai bisogni di Eni.

Il sistema di supercalcolo sorge all’interno del Green data center, una struttura che vanta Pue (Power usage effectiveness) di 1,175 rispetto a una media mondiale di 1,8. Questo ha permesso nel triennio 2014-17 di risparmiare 18.000 ton di CO2 e oltre 50.000 MWh. L’infrastruttura viene alimentata alla centrale termoelettrica di Enipower, situata accanto al centro, e da un parco fotovoltaico da circa 1 MW installato presso la struttura che fornisce il 15% delle necessità dell’impiato che utilizza come raffreddamento un sistema di free cooling che mantiene al fresco tutte le macchine utilizzando l’aria fuori dall’impianto. Così, solo convogliando l’aria, funziona per il 92% del tempo.

 

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php