Sparks

Alta pressione, bassa pressione

 By RP Siegel

I popoli hanno osservato, misurato e cercato di fare previsioni meteo sin dal 1400. Ma è solo con l’invenzione del telegrafo negli anni ’40 dell’800 che nacque la moderna meteorologia. RP Siegel racconta l’affascinante evoluzione della “scienza del tempo” fino ai moderni satelliti, i Big Data, i supercomputer predittivi e i radar intelligenti. Perchè se uragani e calamità naturali vanno spesso in prima pagina, molte persone non sanno che tantissime catastrofi vengono evitate ogni anno grazie agli allerta e alle previsioni meteo…

(Cover foto tratta da www.newsweek.com)

Anche se le calamità naturali e le vittime vanno spesso in prima pagina, la maggior parte delle persone non sono consapevoli delle numerose catastrofi evitate grazie agli allerta e alle previsione meteorologiche. Secondo la Banca Mondiale, gli investimenti in agenzie meteorologiche potrebbero salvare fino a 23.000 vite ogni anno, oltre a benefici economici pari 30 miliardi di dollari.

I popoli hanno osservato, misurato e cercato di fare previsioni meteo sin dal 1400. Secondo la NOAA History page pluviometri, barometri, anemometri, igrometri e termometri, apparvero tutti negli anni compresi fra il 1400 e il 1700. Ma è stato solo con l’invenzione del telegrafo negli anni ’40 dell’800 — grazie al quale le informazioni meteorologiche potevano essere rapidamente condivise sulla lunga distanza in modo da determinare i modelli, e individuare i temporali in arrivo — che nacque davvero la moderna meteorologia. Il servizio meteo nazionale (National Weather Service) iniziò la prima pubblicazione regolare delle previsioni meteo nel 1871.

Nel  1904, il matematico norvegese Vilhelm Bjerknes fu il primo ad applicare i principi della fisica per fare previsioni meteorologiche. Bjerknes definì le condizioni necessarie di questa nuova scienza. Innanzitutto, “la condizione atmosferica deve essere nota a una data ora con sufficiente precisione.” Secondo, “si devono conoscere le leggi che determinano lo sviluppo di una condizione atmosferica piuttosto che un’altra.” L’idea c’era, ma le dimensioni di calcolo si dimostrarono impraticabili. È stato solo dopo la Seconda guerra mondiale che pionieri del calcolo come John Van Neumann si convinsero che (solo) i computer sarebbero stati in grado di prevedere l’andamento del tempo.

Nel frattempo la tecnologia radar che in quegli anni era in via di sviluppo, si stava facendo promettente. Era però costosa, e coperta dal segreto militare. I primi radar a scopo difensivo utilizzati per le previsioni meteo vennero installati sulla costa panamense nel 1943.

(Foto tratta da www.bloomberg.com)

Dopo la guerra, in Texas e nel Midwest nacquero le reti per l’osservazione e individuazione dei temporali (storm spotter networks), che sollevarono la questione dell’utilizzo del radar per l’individuazione dei tornado. Dopo che diversi uragani colpirono e fecero ingenti danni sulla costa est (metà degli anni ’50) – e l’utilizzo di tre installazioni radar da parte del National Weather Service per fornire allerta precoci -, l’interesse per i radar meteorologici subì un’impennata. Negli anni ’60, invece, grazie all’avvento dell’elettronica a stato solido, le stazioni televisive cominciarono a installare propri sistemi radar per le previsioni meteorologiche. La tendenza si diffuse negli anni ’70, passando dai radar locali alle stazioni radar a distanza per fornire maggiori informazioni, più dettagliate ed esaustive, sulle condizioni meteo in avvicinamento.

Oggi lo studio delle previsioni meteo è ancora in evoluzione, sempre nella direzione inizialmente tracciata da Bjerkes. Vi è l’ingegneria dei sistemi per la raccolta e la trasmissione di dati dettagliati che cattura all’istante le condizioni meteo su un’ampia area di interesse, oltre alla scienza di interpretazione dei dati da parte di meteorologi e computer che sfruttano le leggi della fisica per prevedere come una serie di condizioni dia origine a un nuovo insieme. Un terzo elemento è la questione di quanto anticipo sia necessario perché un’area possa prepararsi ad affrontare un evento meteorologico catastrofico. La combinazione di questi tre elementi determina  il “livello di approntamento” di un’area, un fattore sempre più critico in un momento di tempeste di intensità crescente. In base ai dati ONU, negli ultimi vent’anni sono morte più di 600.000 persone durante tempeste catastrofiche.

In una situazione in cui ogni minuto potrebbe fare la differenza tra la vita e la morte, la migliore tecnologia disponibile nel 2012 era in grado di fornire un allerta tornado diretto con un anticipo medio di 14 minuti. I ricercatori del National Weather Service sono ottimisti sul fatto che fra dieci anni questo valore arriverà a un’ora.

Non basta. Se i primi radar utilizzavano la riflessione delle particelle nell’atmosfera per “conoscere” la posizione e l’intensità delle precipitazioni, la messa a punto del radar Doppler alla fine degli anni ’80 ha aggiunto la capacità di determinare la direzione e la velocità dei venti con cui si muovono le precipitazioni. Si tratta di un importante miglioramento.

Studenti Usa di meteorologia, 1953

La Doppia polarizzazione ha poi consentito ai meteorologi di differenziare fra gocce di pioggia e grandine. Utilizzata per la prima volta nel 2011, può essere impiegata anche per identificare i detriti trasportati dal vento durante un uragano. Questi sistemi radar possono inoltre valutare con maggiore precisione l’intensità delle precipitazioni, che può rivelarsi molto utile nella previsione delle inondazioni.

Dato che il tempo è un fattore critico, i ricercatori che operano nel campo dei radar stanno anche investigando su come accelerare le operazioni. Per aggiornare una scansione completa rispetto alla precedente possono infatti volerci anche 4-6 minuti. Il radar phased-array, già utilizzato in applicazioni militari, invia al contempo fasci multipli, riducendo così il tempo di scansione a meno di un minuto. Questo miglioramento potrebbe portare i tempi di allerta a 18 minuti. Mentre gli algoritmi intelligenti, ovvero quelli per la  scansione adattiva, potrebbero ridurre ulteriormente tali tempistiche.

Altre aree di miglioramento nell’affrontare la condizione iniziale di Bjerknes sono i palloni meteorologici che analizzano le condizioni e la velocità del vento (la NASA ne lancia più di 200 al giorno) e le radio sonde, piccoli dispositivi di campionamento che vengono lanciati dagli aerei e che contengono una strumentazione simile. Entrambi “inviano telefonicamente” le letture rilevate utilizzando le trasmissioni radio.

Poi, naturalmente, ci sono i satelliti. Più del 90 percento delle oltre 210 milioni di osservazioni/giorno che vengono caricate nei computer è di fonte satellitare. Vi sono due tipi fondamentali di satelliti: geostazionari e in orbita polare. I satelliti geostazionari restano in una posizione fissa a circa 22.000 miglia (35.406 chilometri) sopra la superficie terrestre e trasmettono  quasi continuamente le immagini della sezione che stanno guardando. I satelliti in orbita polare sono satelliti in bassa orbita terrestre (LEO-Low-Earth Orbit), che volano a un’altitudine di circa 515 miglia (829 chilometri). Una rete integrata di questi dispositivi è in grado di fornire un’immagine completa delle condizioni meteo sulla terra, con aggiornamenti ogni 12 ore.

Questi satelliti sono in procinto di essere aggiornati. I sistemi LEO più nuovi conterranno infatti sensori a microonde e infrarossi migliori, in grado di fornire mappe estremamente dettagliate, tridimensionali dell’atmosfera, il che significa previsioni più precise e migliore previsione delle tempeste. Parimenti, i satelliti Geostazionari verranno aggiornati a breve con i sistemi della serie GOES-R  che prevedono un aggiornamento ogni cinque minuti, tre volte più rapidamente di prima. Ciò consentirà di avere maggiori informazioni sulle tempeste in rapido cambiamento oltre che sul comportamento dei fulmini.

LEGGI ANCHE: Quando la terra trema di Eniday Staff

terremoti

Con tutta questa tecnologia disponibile per conoscere “le condizioni dell’atmosfera,” con “sufficiente precisione,” ciò che resta da fare è la seconda condizione di Bjerknes, che consiste nell’applicare le leggi della fisica per “determinare lo sviluppo di una condizione atmosferica da un’altra”. Tutti questi dati di input suddividono la superficie terrestre in quadrati di ampiezza compresa fra 5 e 30 miglia (da 8 a 48 chilometri), producendo indicativamente 15 milioni di campi. Fortunatamente oggi sono disponibili supercomputer in grado di macinare tutti quei dati a una velocità compresa che va da 14  a 73 trilioni di calcoli al secondo.

Le prime elaborazioni dati per il meteo richiedevano ore prima di essere completate. Oggi vengono portate a termine in pochi secondi. Per passare a griglie più fini, che possono fornire informazioni molto più dettagliate in condizioni di tempesta, sarà necessaria una capacità di calcolo molto maggiore, e saranno necessari computer ancora più veloci. Bill Lapenta  dell’Environmental Modeling Center del  NOAA spera che tutto divenga realtà entro il 2020.

Trasformare tutti questi dati in previsioni significative e precise richiede capacità che a oggi i modelli informativi ancora non hanno, anche se i ricercatori stanno lavorando anche su questo aspetto. Inoltre, al fine di migliorare l’elaborazione dati, interviene sempre il fattore umano, visto che i  meteorologi utilizzano l’euristica per riconoscere i pattern in questa enorme quantità di dati di immagine. Per esempio, una distribuzione della pressione atmosferica unica, nota come Tornado Vortex Signature, è stata individuato per la prima volta negli anni ’70. Alla fin fine questo tipo di conoscenze viene codificato in modelli informatici che sono poi applicati a questa montagna di dati.

È qui che oggi si combatte la battaglia, fra servizi pubblici e privati di previsioni meteo, che promuovono i propri modelli come i migliori e più precisi di tutti. Molti si basano sulle previsioni del National Weather Service, integrate da ulteriori analisi e previsioni. Altri consolidano le previsioni sulla base di diversi modelli prevalenti, utilizzando una tecnologia proprietaria che integra i dati meteo storici. È probabile che le condizioni meteo restino sempre un argomento di conversazione, tuttavia potrebbe arrivare un momento in cui il loro mistero sarà una cosa del passato…

informazioni sull'autore
RP Siegel