Technology

La cittadella del supercomputer

 By Marco Alfieri

Siamo andati nel cuore della Pianura Padana, a Ferrera Erbognone, paese con poco più di mille abitanti, alla scoperta del Green Data Center, uno dei più potenti al mondo. Visto da fuori sembra un enorme bunker; all’interno c’è un sistema di calcolo efficiente e sostenibile in grado di eseguire milioni di miliardi di operazioni al secondo. Soprattutto la cittadella informatica ospita il super computer HPC (High Performance Computing) che serve per elaborare i dati sismici e simulare i giacimenti di idrocarburi. Dalla combinazione di geofisica e informatica, “imaging sismico” e HPC (insieme allo straordinario talento degli esploratori Eni), sono nate tutte le più recenti scoperte del Cane a sei zampe. Zohr, ma non solo Zohr…

Non si vede niente, solo la sagoma del centro sportivo con la piscina scoperta e lo scivolo giallo, un passaggio a livello sulla ferrovia e la stazione del treno con la pensilina come una volta. Da queste parti l’autunno non tradisce mai e il Green Data Center sbuca fuori dalla nebbia all’improvviso, quando sei già davanti al cancello. Sembra un enorme bunker, una specie di Fort Knox se non fossimo in piena Lomellina… Prima che costruissero questa grande astronave, resistente a intrusioni, eventi sismici, incendi, inondazioni e atti di terrorismo, qui c’era una risaia.

Tutto intorno è ancora e sempre risaie, prati, stradine strette, fossati, paeselli con poche centinaia di anime, rotonde, canali, quiete, un piccolo fiume (l’Erbognone) che taglia in due la piana e qualche macchia di alberi che si perdono in una Bassa Pavese indistinta, potremmo essere già in Emilia o in Piemonte senza accorgercene. Il comune di Ferrera Erbognone d’altronde vuol dire riso da sempre; nel 1912 un imponente sciopero di mondine portò all’arresto della “pasionaria” Maria Provera da cui il famoso canto popolare “Il 24 di maggio a Ferrera” (noto anche come la canzone di Maria Provera).

Eni ha deciso di costruire qui la sua cittadella informatica per un paio di motivi pratici. Il primo è che era un’area di proprietà non troppo distante dal quartier generale di San Donato; il secondo è che a cinquanta metri dalla recinzione c’è la Centrale elettrica Enipower, il primo nuovo impianto realizzato in Italia dopo la liberalizzazione del mercato elettrico, che pompa l’energia richiesta (ridondata) al Data Center, eliminando le dispersioni tipiche del trasporto su rete elettrica geografica (pari al 5-6%, secondo l’Autorità per l’Energia) e garantendo un controllo integrale (produzione e consumo) completamente interno al gruppo. In questo modo il comune di Ferrera, i due bar del paese, i pochi negozi, le sue case e le cascine godono dell’internet più veloce del mondo perché “l’astronave” è collegata direttamente con la banda larghissima di tutti i grandi operatori Telco. Smart city in Lomellina, chi l’avrebbe mai detto!

2008

Nel corso del 2008 Eni ha studiato l’ipotesi di dotarsi un nuovo Data Center

2009

Nel 2009 è stato sviluppato un concept per la costruzione di un nuovo Data Center di proprietà per ospitare tutti i sistemi centrali di elaborazione della società

inizio 2010

Inizia la costruzione

del Green Data Center

29 ottobre 2013

Inaugurazione

del Green Data Center

2008

Nel corso del 2008 Eni ha studiato l’ipotesi di dotarsi un nuovo Data Center

2009

Nel 2009 è stato sviluppato un concept per la costruzione di un nuovo Data Center di proprietà per ospitare tutti i sistemi centrali di elaborazione della società

inizio 2010

Inizia la costruzione

del Green Data Center

29 ottobre 2013

Inaugurazione

del Green Data Center

Oltre 7.000
i sistemi ospitati
dall'impianto
Più di 60.000
core CPU
Sistemi IT con
assorbimenti energetici
fino a 30MW
di potenza IT utile
Uno spazio fino a
5.200 mq

Il Green Data, inaugurato nel 2013, ospita tutti i sistemi di calcolo Eni destinati all’informatica gestionale (ad esempio 5 milioni di fatture gas/mese) e soprattutto alle elaborazioni che i tecnici chiamano di “simulazione computazionale”, il cosiddetto super computer HPC (High Performance Computing) che serve per elaborare i dati sismici e simulare i giacimenti di idrocarburi.
A vederla da fuori questa cittadella fortificata ha la forma di un trifoglio, anzi due trifogli affiancati e simmetrici, separati da un canyon d’erba largo venti metri, completamente indipendenti in tutto per garantire la continuità d’esercizio dal punto di vista strutturale e logistico. Niente capannoni a vista, niente cubotti di calcestruzzo come i Data Center tradizionali.
Ognuno dei due trifogli contiene 3 sale per gli apparati IT, due per gli “Standard computing” e una più grande per l’HPC ma la cittadella è progettata per ospitare e alimentare fino a 30MW di carico utile informatico ai massimi livelli di affidabilità “Tier IV”, che ho imparato essere non solo un criterio bancario deciso a Basilea. L’altra cosa che si nota di un mega edificio per il resto interrato per motivi di sicurezza e sormontato da collinette artificiali piantumate, sono i 6 camini di aspirazione-espulsione dell’aria la cui funzione è importantissima, come vedremo dopo.

Perché un’azienda energetica come Eni abbia investito svariati milioni di euro in un Data Center così sofisticato, neanche fosse un colosso web di Silicon Valley, me lo spiega invece Nicola Bienati, ingegnere geofisico, Senior Research & Project Leader del Cane a sei zampe. “Per focalizzare un’immagine il più precisa possibile di ciò che si trova in profondità, anche a 10-15 chilometri per un’estensione dell’area investigata di centinaia se non migliaia di km quadrati, si usa una tecnica cosiddetta di imaging sismico e per ricostruire queste immagini tridimensionali si utilizzano modelli matematici molto sofisticati.”
E quindi…? “Quindi per la complessità dei modelli che dobbiamo utilizzare per trasformare i dati in immagini nei tempi richiesti – prosegue Bienati -, non è sufficiente utilizzare i normali personal computer. Servono architetture di calcolo dedicate che facciano in contemporanea il lavoro di migliaia di pc.”

Giusto per capirsi, i livelli di risoluzione delle immagini e la quantità di dati raccolti in una tipica acquisizione sismica si misurano nell’ordine dei terabyte, ossia di alcune migliaia di dischetti DVD. Per questo se vuoi competere con le aziende concorrenti, se vuoi mantenere la leadership nella Exploration, servono anche Data Center e codici di calcolo, i cosiddetti “algoritmi di elaborazione”, all’avanguardia.Nello sviluppo di questi algoritmi di “imaging sismico”, mi spiega ancora Bienati, oggi Eni è all’avanguardia nell’industria petrolifera mondiale. Ciascun codice risulta particolarmente adatto a ricostruire le immagini del sottosuolo in specifici domini geologici. Proprio qui a Ferrera vengono elaborati i dati geofisici relativi alle aree nelle quali il Cane a sei zampe programma di eseguire sondaggi e viene studiata l’ubicazione ottimale dei pozzi esplorativi per minimizzarne il rischio di insuccesso (magari per decidere alla fine di non farli del tutto).

“A differenza di quanto si potrebbe immaginare, in un Data Center moderno causa dimensioni, concentrazione, smaltimento e trasporto del calore ed efficienza complessiva, il problema principale da risolvere oltre alla gestione dei dati è quello dell’energia utilizzata per alimentare i sistemi di facility necessari al raffreddamento dei sistemi informatici”

Girando per i corridoi e le stanze del Green Data capisci allora che tutto ha una sua logica e niente è lasciato al vezzo estetico. Le sale computer, le spalliere nere con 7200 server che lavorano a ciclo continuo collegati da chilometri di cavetti colorati, le centinaia di metri di tubature, valvole, pompe, manometri, cavi elettrici, colonnine e contatori, le serrande per il ricircolo dell’aria, i camini, la sala per il trattamento delle acque (e quella dell’aria), la sala meccanica, la sala ventilazione. E poi il silenzio, infranto solo dal ronzio in sottofondo dei calcolatori. Colpiscono soprattutto i grandi spazi come dev’essere in un Data Center. Stanze spoglie in cemento armato e porte taglia fuoco che sembrano il set di un film con Jack Nicholson. L’impressione è che abbiano raggiunto l’efficienza lavorando tra i vuoti, quasi per sottrazione.

“Con i supercalcolatori HPC1 e HPC2 alloggiati nel Green Data Center Eni è entrata nella famiglia dei calcolatori capaci di eseguire milioni di miliardi di operazioni al secondo”, conferma Marco Bianchi, HPC Knowledge Owner del Cane a sei zampe. “L’HPC ha un’architettura molto peculiare rispetto a quelle adottate da altre compagnie petrolifere, è un’architettura ibrida nella quale ai tradizionali processori si affiancano dei particolari acceleratori di calcolo di tipo GPU (Graphic Processing Units)”, processori grafici largamente presenti nei pc portatili ma anche negli smartphone e nei tablet.

Ma soprattutto: gli acceleratori sono dei dispositivi pensati per velocizzare le elaborazioni mantenendo basso il consumo elettrico, proprio per massimizzare la durata delle batterie degli apparati commerciali portatili. “Grazie all’uso dell’architettura ibrida abbiamo raggiunto il target di potenza di calcolo prefissato di 3 Petaflops con un consumo complessivo di poco superiore al megawatt, risultato di assoluta eccellenza mondiale”, continua Bianchi.

Qui i puristi parlerebbero di un valore di P.U.E. (Power Usage Effectiveness, cioè il rapporto tra il consumo elettrico complessivo e consumo dei soli apparati informatici) inferiore a 1,2 (la media degli altri Data Center è 2), ma ci siamo capiti.
A differenza di quanto si potrebbe immaginare, in un Data Center moderno causa dimensioni, concentrazione, smaltimento e trasporto del calore ed efficienza complessiva, il problema principale da risolvere oltre alla gestione dei dati è quello dell’energia utilizzata per alimentare i sistemi di facility necessari al raffreddamento dei sistemi informatici.
Il tema del raffreddamento è molto sentito per il suo alto impatto sul P.U.E. in posti come Silicon Valley, dove i colossi tech sono costretti a consumare enormi bacini d’acqua. Al Green Data Center la performance di 1,2 è ottenuta con l’adozione del cosiddetto “free-cooling”, il raffreddamento naturale ad aria attraverso un sistema di circolazione, trattamento e filtraggio grazie ai famosi sei camini che spuntano dall’edificio.

Anche per questo l’altro record di cui gode Ferrera Erbognone, insieme all’internet super veloce, è di avere previsioni del tempo sempre precisissime: il sistema di raffreddamento delle macchine e la temperatura impostata nelle stanze del Green Data sono continuamente tarate sul meteo, ora dopo ora. L’umidità gioca un ruolo fondamentale, e qui non c’è posto migliore della Lomellina dove in mezzo ai campi, tra nebbia e zanzare, ti vedi spuntare il più potente super computer in Europa destinato alla produzione industriale Oil&Gas, uno dei più grandi in tutto il sistema petrolifero.
Per la cronaca, la combinazione di geofisica e informatica, “imaging sismico” e HPC, insieme allo straordinario talento degli esploratori Eni, ha contribuito a tutte le più recenti scoperte esplorative nel mondo. Zohr, ma non solo Zohr…

informazioni sull'autore
Marco Alfieri
Sono nato a Varese nel 1973. Sono responsabile della struttura di Content Strategy & Newsroom di Eni e curo una newsletter per Il Foglio ma in precedenza sono stato direttore de Linkiesta, inviato de La Stampa e ho lavorato per Il Riformista, Il Sole 24Ore e la Prealpina.