ENI READER’S AND EDITOR’S CHOICE AWARD 2014 Indice Il Supercomputer HPC Scheda R&D per Upstream Scheda Imaging sismico avanzato per la ricerca di idrocarburi Link HPCwire IL SUPERCOMPUTER HPC Eni ha messo in funzione il secondo importante sistema di High Performance Computing. Il nuovo supercomputer utilizza un approccio innovativo basato sull'uso di acceleratori di calcolo operanti insieme ai tradizionali processori collegati da una rete di interconnessione ad alte prestazioni, la cosiddetta "hybrid cluster architecture". Questa si compone di 1500 nodi di calcolo IBM iDataPlex dx360 M4, con più di 30.000 core complessivi, ai quali si affiancano 3000 acceleratori NVIDIA Tesla GPU collegati da una interconnessione InfiniBand ad alta velocità. La scelta è frutto di anni di ricerche condotte per individuare la soluzione più efficiente capace di fornire la grande potenza di calcolo richiesta dagli algoritmi di elaborazione dei dati del sottosuolo e dalle applicazioni di simulazione di giacimento, garantendo contemporaneamente la migliore efficienza energetica. Il nuovo sistema HPC si affianca ad un precedente sistema di calcolo dotato di GPU installato nello scorso anno (1500 nodi IBM iDataPlex e 1300 acceleratori NVIDIA Tesla GPU). Ciascun nodo è equipaggiato con due microprocessori (CPU) ciascuno con 10 core alla frequenza di clock di 2.6 GHz, supportati da due schede grafiche ciascuna con 2600 core grafici. Ogni nodo dispone di 120 GigaByte di memoria RAM per le CPU, e ciascuna scheda grafica è equipaggiata con 6 GigaByte di memoria RAM ad alta velocità. Per l’I/O su disco di dati e risultati è disponibile un file system parallelo ad alte prestazioni con capacità di 5 PetaByte. Con una capacità totale di calcolo di 3 PetaFlops (misurati con i benchmark Linpack utilizzati per calcolare le prestazioni dei computer) ed una elevata capacità di memorizzazione pari a 7,5 Petabytes, il nuovo sistema HPC Eni - che si è classificato 11° nella nuova classifica TOP500 che elenca i maggiori calcolatori del mondo - è il più potente supercomputer in Europa destinato alla produzione industriale Oil&Gas e uno dei più grandi in tutto il settore petrolifero. La natura “ibrida‘ dell’architettura di calcolo garantisce una straordinaria performance in termini di efficienza energetica che con 2.8 GigaFlops/Watt colloca il sistema HPC di Eni al 9° posto della classifica Green500 dei calcolatori più efficienti. L'efficienza complessiva del sistema beneficia inoltre dell’innovativo sistema di raffreddamento dell’Eni Green Data Center che lo ospita. Il nuovo HPC è a supporto del core business dell’azienda, consentendo una più veloce e accurata elaborazione dei dati del sottosuolo. La strategia di Eni è quella di utilizzare la più moderna tecnologia di elaborazione per supportare l’esplorazione e la simulazione dei giacimenti. Utilizzando codici proprietari sviluppati dalla propria ricerca interna e combinati con i più recenti strumenti di programmazione parallela, Eni può ottenere dai dati sismici –cinque volte più rapidamente rispetto a quanto possibile con i supercomputer tradizionali – immagini 3D del sottosuolo in alta risoluzione, nonché dati di altissimo valore utili a ridurre i rischi legati alle attività di esplorazione. Per quanto riguarda la simulazione dinamica di giacimento il nuovo sistema permette simulazioni sempre più accurate dei giacimenti di idrocarburi che servono a ricreare modelli sempre più dettagliati, oltre che a ridurre il tempo di simulazione. Questi due aspetti possono essere cruciali per l'ottimizzazione dello sviluppo dei giacimenti di idrocarburi e del time to market. SCHEDA R&D PER UPSTREAM 1. Come si passa dalla ricerca all’innovazione 2. La remunerazione del rischio della ricerca Punti salienti La tecnologia, e l'innovazione tecnologica, insieme con le risorse finanziarie e la capacità di gestire progetti complessi, rappresentano una leva fondamentale per l'accesso a nuove risorse di idrocarburi e alla loro trasformazione in prodotti. La tecnologia ha un ruolo chiave ad esempio nell'esplorazione. Grazie alla disponibilità di tecnologie sofisticate di interpretazione dei dati sismici, che consentono di "vedere" ciò che si nasconde nel sottosuolo, Eni ha una posizione di assoluto rilievo a livello mondiale nella capacità di scoperta di nuovi giacimenti. Dal 2008 a oggi abbiamo trovato 9.5 miliardi di barili di petrolio, nuove risorse di petrolio e di gas, 2 volte e 1/2 quanto abbiamo prodotto nello stesso periodo, 10 volte il consumo annuale del nostro Paese. Altrettanto importante e' il ruolo della tecnologia per assicurare la sicurezza delle operazioni lungo tutta la catena della produzione trasporto trasformazione degli HC, e nel minimizzare gli impatti sull'Ambiente, elementi questi fondamentali per la sostenibilità delle nostre attività. Il ruolo della R&D e' pertanto quello di sviluppare soluzioni tecnologiche a sostegno del business, lungo tutta la catena esplorazione - produzione - trasporto trasformazione degli HC. E la misura dell'efficacia della R&D sta proprio nella capacità di tradursi in innovazione. Affinché ciò avvenga e' necessario soddisfare due condizioni: o La ricerca deve essere finalizzata, ovvero deve corrispondere a esigenze del business nel breve o nel lungo termine; o I risultati della ricerca devono essere portati all'applicazione: il trasferimento tecnologico e' elemento essenziale di successo. Una collocazione organizzativa ottimale della funzione R&D e' quella che la avvicini il più possibile alle funzioni operative, che possono in tal modo fornire input alla ricerca e successivamente recepire e valorizzare velocemente i risultati. Il target della R&D in Eni è quindi sviluppare nel concreto le tecnologie studiate, con un modello dell’innovazione il cui obiettivo è ridurre il time to market, storicamente molto lungo nel settore della ricerca energetica. La dimensione dell'impegno economico di Eni in R&D e' dell'ordine di 1 mld € in un quadriennio. 5 Centri di Ricerca, quasi 1000 addetti in termini di personale equivalente. Numerose le collaborazione esterne: oltre 220 rapporti di collaborazione con circa 90 istituzioni di ricerca in Italia e all’estero. o Per il 50% la ricerca di eni si concentra su tematiche dell'upstream, quindi della esplorazione e produzione di petrolio e gas naturale: modelli di analisi dei dati geologici e geofisici, massimizzazione del recupero degli HC, operazioni in ambienti estremi dal punto di vista climatico o della accessibilità come l'Artico e le acque profonde, il trattamento, trasformazione e trasporto di gas, l'efficienza e sicurezza delle operazioni. o Per il 30% circa i progetti di R&D in corso riguardano tematiche di trasformazione degli idrocarburi in prodotti, quindi i processi della raffinazione e della petrolchimica, tematiche di efficienza energetica, sviluppo di nuovi prodotti, bioraffineria, chimica verde. o Un 20% circa riguarda infine l'Ambiente e le Energie Rinnovabili: tecniche di risanamento e recupero ambientale, studi sui cambiamenti climatici, energia solare, utilizzo di biomasse di 2a e 3a generazione per usi energetici. Lavoriamo sulle energie rinnovabili, nella convinzione che per risolvere il conflitto tra energia e ambiente e' necessario sviluppare nuove tecnologie che possano rendere le energie rinnovabili una reale alternativa al carbone, al petrolio e al gas. Tecnologie più efficienti, a minor costo e maggiore intensità energetica rispetto a quelle attuali, e che consentano di immagazzinare l'energia superando i problemi della disponibilità e della ciclicità tipici di molte fonti rinnovabili. La remunerazione della ricerca. In Eni siamo convinti che la R&D non sia un costo, ma un investimento. In quanto tale, e' necessario misurarne i ritorni, tangibili e intangibili. Abbiamo messo a punto un sistema di valutazione del ritorno economico considerando che le tecnologie sviluppate internamente possano generare un vantaggio addizionale rispetto alle tecnologie disponibili sul mercato in un periodo di tempo che va dai 3 ai 5 anni dal momento in cui vengono applicate per la prima volta. In questo modo stimiamo un valore generato che in un anno e' di 4/5 volte superiore rispetto alla spesa in r&d. Difficile trovare investimenti altrettanto remunerativi! Imaging sismico avanzato per l’esplorazione petrolifera Introduzione In analogia all’imaging biomedicale, l’imaging sismico fornisce informazioni vitali per l’esplorazione di idrocarburi. In campo petrolifero, le immagini sismiche non solo servono per localizzare i potenziali giacimenti, ma forniscono anche informazioni fondamentali per gestire problematiche ambientali e di sicurezza. La ricerca di idrocarburi sul pianeta si sta spostando in aree sempre più sfidanti, come quelle dei mari profondi e nei bacini sedimentari a tettonica salina, dove l’imaging sismico standard raggiunge i propri limiti. L’industria sta perciò sviluppando nuove e più sofisticate tecniche di acquisizione ed elaborazione per ottenere informazioni del sottosuolo sempre più accurate. L’obiettivo è quello di utilizzare al meglio i due processi fondamentali dell’imaging sismico: la Migrazione, che focalizza i dati sismici registrati in superficie in immagini tridimensionali del sottosuolo, e le Analisi di Velocità, che stimano la velocità di propagazione usata dalla Migrazione per trasformare i segnali sismici in immagini. La tecnologia che oggi Eni dispone in questo campo è allo stato dell’arte, avendo sviluppato negli ultimi anni codici di calcolo proprietari per l’analisi di velocità e la migrazione in profondità, chiamati rispettivamente e-DVA (Depth Velocity Analysis) e RTM (Reverse Time Migration); questi codici di calcolo sono stati progettati, scritti e compilati “ibride” in modo da sfruttare con la massima efficacia le più avanzate architetture di supercalcolo (HPC). Oggi eni ha la capacità di ricostruire immagini tridimensionali del sottosuolo estremamente accurate e in tempi sensibilmente ridotti utilizzano supercalcolatori in grado di fornire una performance di calcolo d’eccellenza garantendo al contempo un’elevata efficienza energetica. Informazioni di base Le vibrazioni meccaniche, che si propagano molto facilmente attraverso solidi, liquidi e gas (per questa proprietà vengono anche chiamate "onde"), raccolgono e trasportano informazioni non solo sulle proprietà della sorgente che le ha generate, ma anche sulle strutture che attraversano lungo il percorso di propagazione. L’idea di utilizzare le vibrazioni per localizzarne la sorgente nacque nel corso della prima guerra mondiale, nel tentativo di individuare le batterie di artiglieria a terra e i sottomarini in mare. Solo pochi anni prima era stata proposta per la prima volta l’idea di localizzare strutture metalliche distanti anche centinaia di kilometri mediante onde elettromagnetiche, intuizione scientifica che avrebbe poi portato all’invenzione del radar. Oggi, dopo circa un secolo di sviluppi tecnologici, le tecniche che sfruttano le onde sismiche o elettromagnetiche per ottenere informazioni sulle rispettive “sorgenti” o sul mezzo attraversato sono note con il nome di “remote sensing” o “telerilevamento”. Queste tecniche hanno trovato numerose applicazioni nel campo non militare, come ad esempio la diagnostica medica e, nel settore oil & gas, l’imaging sismico. L’Imaging Sismico per l’esplorazione petrolifera Il nome imaging sismico designa l’insieme delle tecniche e degli strumenti utilizzati per trasformare i dati sismici in immagini del sottosuolo (figura 1). In questo caso le onde sismiche utilizzate per investigare il sottosuolo non sono generate da sorgenti naturali, ma vengono trasmesse nel suolo in modo controllato mediante sorgenti artificiali, ad esempio vibratori meccanici a terra e compressori d’aria per le acquisizioni marine. Le vibrazioni prodotte in questo modo hanno ovviamente intensità di parecchi ordini di grandezza inferiori a quelle generate da un terremoto e non comportano alcun rischio sismico né per l’ambiente circostante. I dati sismici sono le registrazioni, effettuate in superficie terrestre o in mare con appositi sensori (geofoni e idrofoni rispettivamente), delle onde riflesse dal sottosuolo; questi dati che vengono successivamente elaborati grazie alle tecniche di imaging sismico per ottenere la ricostruzione di immagini tridimensionale del sottosuolo. Una campagna di acquisizione sismica, tipicamente, copre aree con estensioni variabili da poche decine ad alcune migliaia di chilometri quadrati; sulla superficie vengono dispiegate centinaia migliaia di sorgenti e altrettanti ricevitori disposti secondo opportune geometrie. Nella acquisizione marina sorgenti e ricevitori sono trainati da apposite navi specificatamente progettate. La propagazione delle onde sismiche e la loro interazione con le proprietà fisiche del sottosuolo (ad esempio la densità) sono descritte da complessi modelli fisico-matematici (studiati dalla geofisica) su cui si basano gli algoritmi di imaging sismico; questi modelli, come detto, sono estremamente complessi e gli algoritmi per risolverli richiedono potenze di calcolo molto elevate. Nella sua essenza l’imaging sismico è un’evoluzione della misura della distanza attraverso la conversione del tempo di arrivo di un eco. La complessità nasce dal fatto che l’imaging sismico deve: Trattare contemporaneamente tutti i segnali provenienti dalle riflessioni prodotte dalle molteplici stratificazioni del sottosuolo coprire aree molto estese, eliminare i rumori dai segnali stimare al meglio la velocità alla quale le onde sismiche hanno viaggiato nel sottosuolo. La velocità di propagazione delle onde sismiche dipende dal tipo di rocce, dalla loro profondità, dalla geometria del sottosuolo, dalla presenza negli spazi porosi delle rocce di acqua, gas o olio, dalla presenza di sforzi di compressione o dilatazione di origine tettonica. La conseguenza è che, se nell’imaging sismico l’immagine del sottosuolo è l’incognita principale da determinare, la velocità sismica rappresenta invece una sorta di incognita ausiliaria, senza la quale non si può ottenere quella principale. Ciò implica che in pratica l’Imaging Sismico consiste nell’applicazione di due strumenti principali di analisi, la migrazione sismica e l’analisi di velocità: la migrazione sismica è l’algoritmo che focalizza i dati sismici nell’immagine tridimensionale in profondità l’analisi di velocità fornisce alla Migrazione la velocità necessaria per trasformare le riflessioni registrate dai dati nell’immagine in profondità. Codici di “imaging sismico” proprietari Eni Eni ha recentemente sviluppato due codici di calcolo parallelo per implementare le più avanzate soluzioni di imaging sismico in profondità; in particolare i codici trattano la migrazione in profondità e le analisi di velocità e sono chiamati rispettivamente RTM (Reverse Time Migration) ed e-DVA (eni-Depth Velocity Analysis), figura 2. Questi algoritmi, per fornire immagini dettagliate del sottosuolo, richiedono enormi quantità di potenza di calcolo e sono stati specificamente progettati per essere eseguiti su architetture Hardware HPC (High Performance Computing) di tipo “ibrido” (ovvero che, oltre ai normali microprocessori, sfruttano schede con processori grafici come acceleratori di calcolo); questa combinazione consente elevate performance computazionali e al contempo, rispetto all’utilizzo dei soli processori tradizionali, fornisce una elevata efficienza energetica. Link HPCwire http://www.HPCwire.com
© Copyright 2025 ExpyDoc