Download Pdf

 ENI
READER’S AND EDITOR’S CHOICE AWARD 2014
Indice
 Il Supercomputer HPC
 Scheda R&D per Upstream
 Scheda Imaging sismico avanzato per la ricerca di idrocarburi
 Link HPCwire
IL SUPERCOMPUTER HPC
Eni ha messo in funzione il secondo importante sistema di High Performance
Computing. Il nuovo supercomputer utilizza un approccio innovativo basato
sull'uso di acceleratori di calcolo operanti insieme ai tradizionali processori
collegati da una rete di interconnessione ad alte prestazioni, la cosiddetta "hybrid
cluster architecture". Questa si compone di 1500 nodi di calcolo IBM iDataPlex
dx360 M4, con più di 30.000 core complessivi, ai quali si affiancano 3000
acceleratori NVIDIA Tesla GPU collegati da una interconnessione InfiniBand ad
alta velocità. La scelta è frutto di anni di ricerche condotte per individuare la
soluzione più efficiente capace di fornire la grande potenza di calcolo richiesta
dagli algoritmi di elaborazione dei dati del sottosuolo e dalle applicazioni di
simulazione di giacimento, garantendo contemporaneamente la migliore
efficienza energetica. Il nuovo sistema HPC si affianca ad un precedente sistema
di calcolo dotato di GPU installato nello scorso anno (1500 nodi IBM iDataPlex e
1300 acceleratori NVIDIA Tesla GPU).
Ciascun nodo è equipaggiato con due microprocessori (CPU) ciascuno con 10
core alla frequenza di clock di 2.6 GHz, supportati da due schede grafiche
ciascuna con 2600 core grafici. Ogni nodo dispone di 120 GigaByte di memoria
RAM per le CPU, e ciascuna scheda grafica è equipaggiata con 6 GigaByte di
memoria RAM ad alta velocità.
Per l’I/O su disco di dati e risultati è disponibile un file system parallelo ad alte
prestazioni con capacità di 5 PetaByte.
Con una capacità totale di calcolo di 3 PetaFlops (misurati con i benchmark
Linpack utilizzati per calcolare le prestazioni dei computer) ed una elevata
capacità di memorizzazione pari a 7,5 Petabytes, il nuovo sistema HPC Eni - che
si è classificato 11° nella nuova classifica TOP500 che elenca i maggiori
calcolatori del mondo - è il più potente supercomputer in Europa destinato alla
produzione industriale Oil&Gas e uno dei più grandi in tutto il settore petrolifero.
La natura “ibrida‘ dell’architettura di calcolo garantisce una straordinaria
performance in termini di efficienza energetica che con 2.8 GigaFlops/Watt
colloca il sistema HPC di Eni al 9° posto della classifica Green500 dei calcolatori
più efficienti. L'efficienza complessiva del sistema beneficia inoltre dell’innovativo
sistema di raffreddamento dell’Eni Green Data Center che lo ospita.
Il nuovo HPC è a supporto del core business dell’azienda, consentendo una più
veloce e accurata elaborazione dei dati del sottosuolo. La strategia di Eni è
quella di utilizzare la più moderna tecnologia di elaborazione per supportare
l’esplorazione e la simulazione dei giacimenti. Utilizzando codici proprietari
sviluppati dalla propria ricerca interna e combinati con i più recenti strumenti di
programmazione parallela, Eni può ottenere dai dati sismici –cinque volte più
rapidamente rispetto a quanto possibile con i supercomputer tradizionali –
immagini 3D del sottosuolo in alta risoluzione, nonché dati di altissimo valore utili
a ridurre i rischi legati alle attività di esplorazione.
Per quanto riguarda la simulazione dinamica di giacimento il nuovo sistema
permette simulazioni sempre più accurate dei giacimenti di idrocarburi che
servono a ricreare modelli sempre più dettagliati, oltre che a ridurre il tempo di
simulazione. Questi due aspetti possono essere cruciali per l'ottimizzazione dello
sviluppo dei giacimenti di idrocarburi e del time to market.
SCHEDA R&D PER UPSTREAM
1. Come si passa dalla ricerca all’innovazione
2. La remunerazione del rischio della ricerca
Punti salienti
 La tecnologia, e l'innovazione tecnologica, insieme con le risorse finanziarie e la
capacità di gestire progetti complessi, rappresentano una leva fondamentale per
l'accesso a nuove risorse di idrocarburi e alla loro trasformazione in prodotti.
 La tecnologia ha un ruolo chiave ad esempio nell'esplorazione. Grazie alla
disponibilità di tecnologie sofisticate di interpretazione dei dati sismici, che consentono
di "vedere" ciò che si nasconde nel sottosuolo, Eni ha una posizione di assoluto rilievo
a livello mondiale nella capacità di scoperta di nuovi giacimenti. Dal 2008 a oggi
abbiamo trovato 9.5 miliardi di barili di petrolio, nuove risorse di petrolio e di gas, 2
volte e 1/2 quanto abbiamo prodotto nello stesso periodo, 10 volte il consumo annuale
del nostro Paese.
 Altrettanto importante e' il ruolo della tecnologia per assicurare la sicurezza delle
operazioni lungo tutta la catena della produzione trasporto trasformazione degli HC, e
nel minimizzare gli impatti sull'Ambiente, elementi questi fondamentali per la
sostenibilità delle nostre attività.
 Il ruolo della R&D e' pertanto quello di sviluppare soluzioni tecnologiche a sostegno
del business, lungo tutta la catena esplorazione - produzione - trasporto trasformazione degli HC. E la misura dell'efficacia della R&D sta proprio nella capacità
di tradursi in innovazione. Affinché ciò avvenga e' necessario soddisfare due
condizioni:
o La ricerca deve essere finalizzata, ovvero deve corrispondere a esigenze del
business nel breve o nel lungo termine;
o I risultati della ricerca devono essere portati all'applicazione: il trasferimento
tecnologico e' elemento essenziale di successo.
 Una collocazione organizzativa ottimale della funzione R&D e' quella che la avvicini il
più possibile alle funzioni operative, che possono in tal modo fornire input alla ricerca e
successivamente recepire e valorizzare velocemente i risultati.
 Il target della R&D in Eni è quindi sviluppare nel concreto le tecnologie studiate, con un
modello dell’innovazione il cui obiettivo è ridurre il time to market, storicamente molto
lungo nel settore della ricerca energetica.
 La dimensione dell'impegno economico di Eni in R&D e' dell'ordine di 1 mld € in un
quadriennio. 5 Centri di Ricerca, quasi 1000 addetti in termini di personale equivalente.
Numerose le collaborazione esterne: oltre 220 rapporti di collaborazione con circa 90
istituzioni di ricerca in Italia e all’estero.
o Per il 50% la ricerca di eni si concentra su tematiche dell'upstream, quindi della
esplorazione e produzione di petrolio e gas naturale: modelli di analisi dei dati
geologici e geofisici, massimizzazione del recupero degli HC, operazioni in
ambienti estremi dal punto di vista climatico o della accessibilità come l'Artico e
le acque profonde, il trattamento, trasformazione e trasporto di gas, l'efficienza e
sicurezza delle operazioni.
o Per il 30% circa i progetti di R&D in corso riguardano tematiche di
trasformazione degli idrocarburi in prodotti, quindi i processi della
raffinazione e della petrolchimica, tematiche di efficienza energetica, sviluppo di
nuovi prodotti, bioraffineria, chimica verde.
o Un 20% circa riguarda infine l'Ambiente e le Energie Rinnovabili: tecniche di
risanamento e recupero ambientale, studi sui cambiamenti climatici, energia
solare, utilizzo di biomasse di 2a e 3a generazione per usi energetici.
 Lavoriamo sulle energie rinnovabili, nella convinzione che per risolvere il conflitto tra
energia e ambiente e' necessario sviluppare nuove tecnologie che possano rendere le
energie rinnovabili una reale alternativa al carbone, al petrolio e al gas. Tecnologie più
efficienti, a minor costo e maggiore intensità energetica rispetto a quelle attuali, e che
consentano di immagazzinare l'energia superando i problemi della disponibilità e della
ciclicità tipici di molte fonti rinnovabili.
 La remunerazione della ricerca. In Eni siamo convinti che la R&D non sia un costo,
ma un investimento. In quanto tale, e' necessario misurarne i ritorni, tangibili e
intangibili. Abbiamo messo a punto un sistema di valutazione del ritorno economico
considerando che le tecnologie sviluppate internamente possano generare un
vantaggio addizionale rispetto alle tecnologie disponibili sul mercato in un periodo di
tempo che va dai 3 ai 5 anni dal momento in cui vengono applicate per la prima volta.
In questo modo stimiamo un valore generato che in un anno e' di 4/5 volte superiore
rispetto alla spesa in r&d. Difficile trovare investimenti altrettanto remunerativi!
Imaging sismico avanzato per l’esplorazione petrolifera
Introduzione
In analogia all’imaging biomedicale, l’imaging sismico fornisce informazioni vitali per
l’esplorazione di idrocarburi. In campo petrolifero, le immagini sismiche non solo servono
per localizzare i potenziali giacimenti, ma forniscono anche informazioni fondamentali per
gestire problematiche ambientali e di sicurezza.
La ricerca di idrocarburi sul pianeta si sta spostando in aree sempre più sfidanti, come
quelle dei mari profondi e nei bacini sedimentari a tettonica salina, dove l’imaging sismico
standard raggiunge i propri limiti. L’industria sta perciò sviluppando nuove e più sofisticate
tecniche di acquisizione ed elaborazione per ottenere informazioni del sottosuolo sempre
più accurate. L’obiettivo è quello di utilizzare
al meglio i due processi fondamentali
dell’imaging sismico: la Migrazione, che focalizza i dati sismici registrati in superficie in
immagini tridimensionali del sottosuolo, e le Analisi di Velocità, che stimano la velocità di
propagazione usata dalla Migrazione per trasformare i segnali sismici in immagini.
La tecnologia che oggi Eni dispone in questo campo è allo stato dell’arte, avendo
sviluppato negli ultimi anni codici di calcolo proprietari per l’analisi di velocità e la
migrazione in profondità, chiamati rispettivamente e-DVA (Depth Velocity Analysis) e
RTM (Reverse Time Migration); questi codici di calcolo sono stati progettati, scritti e
compilati
“ibride”
in modo da sfruttare con la massima efficacia le più avanzate architetture
di supercalcolo (HPC). Oggi eni ha la capacità di ricostruire immagini
tridimensionali del sottosuolo estremamente accurate e in tempi sensibilmente ridotti
utilizzano supercalcolatori in grado di fornire una performance di calcolo d’eccellenza
garantendo al contempo un’elevata efficienza energetica.
Informazioni di base
Le vibrazioni meccaniche, che si propagano molto facilmente attraverso solidi, liquidi e
gas (per questa proprietà vengono anche chiamate "onde"), raccolgono e trasportano
informazioni non solo sulle proprietà della sorgente che le ha generate, ma anche sulle
strutture che attraversano lungo il percorso di propagazione.
L’idea di utilizzare le vibrazioni per localizzarne la sorgente nacque nel corso della prima
guerra mondiale, nel tentativo di individuare le batterie di artiglieria a terra e i sottomarini
in mare. Solo pochi anni prima era stata proposta per la prima volta l’idea di localizzare
strutture metalliche distanti anche centinaia di kilometri mediante onde elettromagnetiche,
intuizione scientifica che avrebbe poi portato all’invenzione del radar.
Oggi, dopo circa un secolo di sviluppi tecnologici, le tecniche che sfruttano le onde
sismiche o elettromagnetiche per ottenere informazioni sulle rispettive “sorgenti” o sul
mezzo attraversato sono note con il nome di “remote sensing” o “telerilevamento”.
Queste tecniche hanno trovato numerose applicazioni nel campo non militare, come ad
esempio la diagnostica medica e, nel settore oil & gas, l’imaging sismico.
L’Imaging Sismico per l’esplorazione petrolifera
Il nome imaging sismico designa l’insieme delle tecniche e degli strumenti utilizzati per
trasformare i dati sismici in immagini del sottosuolo (figura 1). In questo caso le onde
sismiche utilizzate per investigare il sottosuolo non sono generate da sorgenti naturali, ma
vengono trasmesse nel suolo in modo controllato mediante sorgenti artificiali, ad
esempio vibratori meccanici a terra e compressori d’aria per le acquisizioni marine.
Le vibrazioni prodotte in questo modo hanno ovviamente intensità di parecchi
ordini di grandezza inferiori a quelle generate da un terremoto e non comportano
alcun rischio sismico né per l’ambiente circostante.
I dati sismici sono le registrazioni, effettuate in superficie terrestre o in mare con appositi
sensori (geofoni e idrofoni rispettivamente), delle onde riflesse dal sottosuolo; questi dati
che vengono successivamente elaborati grazie alle tecniche di imaging sismico per
ottenere la ricostruzione di immagini tridimensionale del sottosuolo.
Una campagna di acquisizione sismica, tipicamente, copre aree con estensioni variabili
da poche decine ad alcune migliaia di chilometri quadrati; sulla superficie vengono
dispiegate centinaia migliaia di sorgenti e altrettanti ricevitori disposti secondo opportune
geometrie. Nella acquisizione marina sorgenti e ricevitori sono trainati da apposite navi
specificatamente progettate.
La propagazione delle onde sismiche e la loro interazione con le proprietà fisiche del
sottosuolo (ad esempio la densità) sono descritte da complessi modelli fisico-matematici
(studiati dalla geofisica) su cui si basano gli algoritmi di imaging sismico; questi modelli,
come detto, sono estremamente complessi e gli algoritmi per risolverli richiedono potenze
di calcolo molto elevate.
Nella sua essenza l’imaging sismico è un’evoluzione della misura della distanza
attraverso la conversione del tempo di arrivo di un eco. La complessità nasce dal fatto che
l’imaging sismico deve:

Trattare contemporaneamente tutti i segnali provenienti dalle riflessioni prodotte
dalle molteplici stratificazioni del sottosuolo

coprire aree molto estese,

eliminare i rumori dai segnali

stimare al meglio
la velocità alla quale le onde sismiche hanno viaggiato nel
sottosuolo.
La velocità di propagazione delle onde sismiche dipende dal tipo di rocce, dalla loro
profondità, dalla geometria del sottosuolo, dalla presenza negli spazi porosi delle rocce di
acqua, gas o olio, dalla presenza di sforzi di compressione o dilatazione di origine
tettonica.
La conseguenza è che, se nell’imaging sismico l’immagine del sottosuolo è l’incognita
principale da determinare, la velocità sismica rappresenta invece una sorta di incognita
ausiliaria, senza la quale non si può ottenere quella principale. Ciò implica che in pratica
l’Imaging Sismico consiste nell’applicazione di due strumenti principali di analisi, la
migrazione sismica e l’analisi di velocità:
la migrazione sismica è l’algoritmo che focalizza i dati sismici nell’immagine
tridimensionale in profondità
l’analisi di velocità fornisce alla Migrazione la velocità necessaria per trasformare le
riflessioni registrate dai dati nell’immagine in profondità.
Codici di “imaging sismico” proprietari Eni
Eni ha recentemente sviluppato due codici di calcolo parallelo per implementare le più
avanzate soluzioni di imaging sismico in profondità; in particolare i codici trattano
la
migrazione in profondità e le analisi di velocità e sono chiamati rispettivamente RTM
(Reverse Time Migration) ed e-DVA (eni-Depth Velocity Analysis), figura 2.
Questi algoritmi, per fornire immagini dettagliate del sottosuolo,
richiedono enormi
quantità di potenza di calcolo e sono stati specificamente progettati per essere eseguiti su
architetture Hardware HPC (High Performance Computing) di tipo “ibrido” (ovvero che,
oltre ai normali microprocessori, sfruttano schede con processori grafici come acceleratori
di calcolo); questa combinazione consente elevate performance computazionali e al
contempo, rispetto all’utilizzo dei soli processori tradizionali, fornisce una elevata efficienza
energetica.
Link HPCwire
http://www.HPCwire.com