Diario di una stazione (micro-)meteorologica urbana – Prima puntata: Nascita

Antefatto

Correva il… Mah. 2015?

Certe date la memoria fa fatica a ricordarle: non sono come le nascite vere. O, forse, sì? Nel caso, però, per così dire “in miniatura”.

Perché a Servizi Territorio avevamo bisogno di un “muletto”, una stazione di misura esattamente uguale a quelle che avremmo di lì a poco consegnato per un grosso lavoro, in modo da essere assolutamente sicuri che il sistema di acquisizione non contenesse errori 🙂    E soprattutto, una volta scoperti i “bachi” mancanti all’appello, avremmo avuto modo di correggerli.

Missione compiuta. E poi…

La stazione è rimasta lì, sul tetto dell’ufficio, con il suo bellissimo anemometro ultrasonico tri-assiale USA-1 della Metek GmbH, ed un esemplare “arricchito” del nostro sistema eddy covariance MeteoFlux Core V2 (scusate le parolacce)..

Posizione della stazione micro-meteorologica sperimentale di Cinisello Balsamo. Vista di dettaglio del punto di misura.
Una vista più in grande della collocazione della stazione micro-meteorologica sperimentale di Cinisello Balsamo

Con vergogna, devo confessare che me la sono dimenticata lì, la stazione…

La pressione del collaudo era finita, tutto bene, si poteva passare ad altre cose più urgenti, più o meno frenetiche.

Lei intanto, la stazione, acquisiva, elaborava, registrava…

Anni dopo, chiedendo al mio sistema di fare un elenco dei nodi di rete, ne noto uno il cui indirizzo mi diceva qualcosa…

Attimi di rossore. La stazione sul tetto!

Era rimasta là, abbandonata, lontana dal cuore, ma, accesa (consumando così poco che non c’eravamo accorti della sua esistenza in vita).

Tento di collegarmi.

Non ci posso credere.

Dati, dat, dati.

Una montagna.

Per tutto questo tempo, il mio cucciolo MeteoFlux Core ha compiuto indefessamente la sua missione. Povera stella, senza che nessuno glie lo chiedesse.

“Il bello dei sistemi embedded, quando funzionano,” mi dissi, “fanno le loro cose stando nell’ombra, senza farsi notare.”

E, col regalo di qualche gigabyte di dati grezzi sonici…

Un’occasione inattesa

Dire che il tetto dell’ufficio di Servizi Territorio sia un sito di misura ideale, ecco…

Però, siamo proprio in mezzo all’urban canopy, come dicono gli esperti veri: quella parte di atmosfera tra tetti, balconi, terrazze, vie. Sopra la città, ma non tanto da lasciar libera l’aria di fluire come meglio crede.

La canopea urbana (?) (spero la parola esista davvero, comunque, è “quella roba lì”) è, anche, sede di fenomeni importantissimi. E’ lì, che la città e l’aria scambiano energia, schifezze, e quant’altro. Ed è lì, che la turbolenza ed il flusso dell’aria assumono caratteristiche tutte loro.

Insomma: cercando di collaudare il nostro MeteoFlux Core, eravamo riusciti a costruire, senza averlo pianificato, una stazione micro-meteorologica urbana.

Micro-meteorologica?

Una stazione insolita

Le stazioni meteorologiche sul tetto, o sul balcone, abbondano, e dunque una più, una meno non fa poi una gran notizia.

Questa, però, è micro-meteorologica: non è proprio la stessa cosa.

Al centro, l’anemometro ultrasonico tri-assiale USA-1 della stazione micro-meteorologica urbana di Servizi Territorio srl. Più in basso a sinistra vediamo invece gli strumenti della stazione “Cinisello Balsamo” della rete urbana della Fondazione OMD (Osservatorio Meteorologico di Milano Duomo).
Da solo, l’anemometro ultrasonico USA-1 misura, ad altissima risoluzione, le tre componenti del vento e la temperatura “virtuale” (comprensiva degli effetti dell’umidità) dell’aria.

Vediamo, allora, di capirci qualcosa.

Cenni minimi di micro-meteorologia.

Il prefisso “micro” ci suggerisce che la micro-meteorologia non ha molto a vedere con le previsioni del tempo, od il moto delle grandi masse d’aria. Evoca, piuttosto, un concetto di “piccolo”. Ma: piccolo quanto?

Meglio che ci rifacciamo ad una definizione assestata.

Secondo Glickman (Glickman, 2000)

“La micro-meteorologia è la parte di meteorologia che si occupa delle osservazioni e dei processi che si svolgono alle scale più piccole dello spazio e del tempo, approssimativamente più piccole di 1 chilometro ed 1 giorno. I processi micro-meteorologici si limitano a sottili strati che risentono dell’influenza diretta della frizione (fenomeni a scala leggermente maggiore come le termiche convettive non sono parte della micro-meteorologia). Quindi, il soggetto della micro-meteorologia è la parte più bassa dello Strato Limite Planetario (PBL), cioè, in particolare, lo Strato Superficiale. I processi di scambio di energia, gas, eccetera, tra l’atmosfera e gli elementi della sottostante superficie (suolo, acque, vegetazione) ne sono soggetti importanti.”

La definizione lascia nel vago i fenomeni micro-meteorologici, ma qui possiamo far ricorso all’esperienza di tutti i giorni:

  • E’ di sicuro appannaggio della micro-meteorologia la diffusione turbolenta, con applicazioni alla dispersione di inquinanti in atmosfera, ma anche di pollini, spore, animaletti.
  • Certamente, anche, appartengono alla micro-meteorologia i flussi turbolenti verticali (quindi tra superficie e atmosfera) di calore, vapore acqueo, anidride carbonica, metano, ammoniaca, …

Una presentazione divulgativa dei principali fenomeni micro-meteorologici, scritta in Italiano, si può trovare nel primo capitolo  del libro (Sozzi et al, 2002). Di questo bel testo, ormai da tempo fuori catalogo, è possibile trovare versioni PDF scaricabili, per esempio al sito di ARPA Lazio.

E quindi ci siamo…

Ciò che avviene sopra il tetto di Servizi Territorio dunque, appartiene a tutti gli effetti al campo della micro-meteorologia.

Di più: siamo certamente in città, e dunque in un ambiente micro-meteorologico di tipo urbano – in particolare, dei sotto-tipi “LCZ 2/3/E” (Oke et al, 2017).

Cos’è che compone una stazione micro-meteorologica?

Le componenti chiave di una stazione micro-meteorologica sono:

  • Un anemometro ultrasonico tri-assiale (come l’USA-1 della stazione di Cinisello Balsamo).
  • Un sistema di acquisizione ed elaborazione in tempo reale (una unità eddy-covariance MeteoFlux Core V2, nel caso della stazione di Cinisello).

A queste possono aggiungersene altre, ad esempio radiometri ed altri sensori più o meno esoterici.

Un primo esempio di dati (senza commento, per ora)

Le stazioni micro-meteorologiche misurano grandezze “in più”, rispetto alle stazioni meteorologiche tradizionali.

Una di queste grandezze in più, di cui in questa prima puntata non diciamo nulla, è la velocità verticale del vento.

Distribuzione empirica della componente verticale del vento.

Nelle puntate che seguiranno riprenderemo questa ed altre grandezze. E, cercheremo di trarne vantaggio.

Fonti e riferimenti

  • (Glickman, 2000) T.S. Glickman (ed.), Glossary of Meteorology, American Meteorological Society, 2000
  • (Oke et al., 2017) T.R. Oke, G. Mills, A. Christen, J.A. Voogt, Urban Climates, Cambridge University Press, 2017
  • (Sozzi et al., 2002) R. Sozzi, T. Georgiadis, M. Valentini, Introduzione alla turbolenza atmosferica: Concetti, stime, misure, Pitagora Editrice, 2002

 

ALAMO: un modello a particelle amico di anemometri ultrasonici 3D e SODAR

Un poco di storia (ma proprio poca)

Fu all’incirca nel 2002 che, in una mattina tutto sommato uggiosa, con un’aria che presentiva d’autunno, affacciatosi alla finestra e guardate le nubi rincorrersi nel ritaglio di cielo lasciato dagli alti palazzi dirimpetto, il dottor Roberto Sozzi decise che il modo migliore per capire cos’è e come funziona un modello a particelle sarebbe stato senz’altro scriverne uno.

E così, fu.

Ed essendo il cielo appunto bigio, dovendo scegliere il nome della propria creatura, il dottor Roberto optò per un nome un poco fatale, ALAMO, attribuendogli poi un acronimo che stesse bene in società, “Air LAgrangian particle dispersion MOdel”.

Personalità di un modello

ALAMO è, sì, un modello di dispersione a particelle, come del resto dice il suo nome.

Ma si discosta, per così dire, dal gregge dei modelli  particelle normali in due particolari importanti.

Intanto, ha un’architettura molto semplice, che ne permette l’uso come strumento didattico.

E poi, è “unidimensionale”.

Su quest’ultimo punto è importante che ci soffermiamo, perché è una differenza importante rispetto ai modelli a particelle “tradizionali”.

E facciamo, in proposito, qualche esempio: GRAL, LAPMOD, Spray, Flexpart. Quattro modelli a particelle tra i più diffusi.

Ciascuno di loro porta, nella sua formulazione di dettaglio, la traccia delle necessità e della visione strategica dei propri Autori.

Tutti, però, hanno in comune una cosa: l’uso di una meteorologia “tri-dimensionale”: il loro input meteorologico è costituito, ad ogni passo temporale, da un campo tri-dimensionale di vento, e da altri campi a due o tre dimensioni che descrivono cose importanti come lo spessore dello strato rimescolato, l’intensità del rimescolamento turbolento, ed altro ancora.

Tutte cose molto utili, in certe applicazioni: è “bello” potere utilizzare un campo di vento tri-dimensionale che tenga conto dell’orografia, delle variazioni di rugosità alla superficie del suolo, e degli altri inevitabili cambiamenti che caratterizzano, nel loro complesso, la “dinamica di un paesaggio”.

Ma…

Ricostruire i campi di vento a tre dimensioni richiede di prendere una o più misure, od un campo prodotto da un modello meteorologico a mesoscala, e ricostruire una situazione “locale” a partire da tutte queste.

La ricostruzione è, a tutti gli effetti, una stima: costruisce un “modello plausibile di realtà”, che però non è la realtà vera e propria.

In alcune applicazioni, l’uso di una meteorologia “plausibile ma non (necessariamente) vera” comporta pochi dubbi. Ad esempio, nelle valutazioni dell’impatto di un impianto sulla qualità dell’aria: nel caso, si ragiona su tempi di mediazione molto lunghi, annuali od anche di più. Se si compie qualche errore nei dettagli, pazienza: questo verrà quasi sempre compensato da qualche altro errore “uguale e contrario”.

Ci sono però dei campi come il monitoraggio degli odori o dei rilasci tossici accidentali, nei quali occorrerebbe sapere cosa accade in ogni istante. Con effetti principalmente locali, e non a grande distanza.

In casi come questi, è molto importante usare dei campi di vento che riflettano meglio che possono la realtà, almeno localmente. Casi, nei quali non serve una stima, ma una misura.

Ed è in situazioni del genere, che un modello “uni-dimensionale” mostra tutta la sua utilità: quello che dice non riguarda situazioni “lontane” nello spazio, ma è basato su vere misure.

Tastare il polso al vento (in tre dimensioni)

Sino a qualche tempo fa (un paio di decenni) la misura del vettore tri-dimensionale del vento era cosa davvero da pochi.

Poi, è arrivato questo oggetto:

Anemometro ultrasonico tri-assiale (l'”attaccapanni” sulla sinistra: la capannina in basso a destra è lo scudo di un “normale” termo-igrometro).
Il modello raffigurato è un uSonic-3 Scientific di Metek GmbH, distribuito da Servizi Territorio srl.

Insieme a quest’altro:

Sistema SODAR/RASS PCS-2000 (di Metek GmbH, distribuito da Servizi Territorio srl) in funzione presso il depuratore di Pero (Cortesia Amiacque / AMSA)

Questi nuovi strumenti servono per scopi completamente differenti, ma complementari.

Il primo, l’anemometro ultrasonico tri-assiale, misura il vettore vento ad un rateo di campionamento fittissimo, e con una risoluzione inimmaginabile per chi conosca solo gli anemometri meccanici.

La sua funzione è di compiere misure di altissima precisione del vento e della turbolenza atmosferica, quest’ultima fondamentale per fare in modo che modelli come ALAMO possano stabilire quanto rapidamente avviene la diffusione delle sostanze rilasciate.

L’anemometro ultrasonico tri-assiale, però, dice che cosa accade soltanto in un punto, di solito vicino alla superficie del suolo.

Il SODAR, invece, è in grado di misurare il vettore tri-dimensionale del vento lungo un profilo verticale, con risoluzione spaziale molto fitta, ed un’accuratezza paragonabile a quella di anemometri meccanici “professionali”. Il SODAR/RASS aggiunge alla misura verticale del vento quella della temperatura, e quindi, indirettamente, del grado di stabilità dell’atmosfera.

Combinate, la misura di precisione di vento e turbolenza presso il suolo dell’anemometro ultrasonico, e quella del vento del SODAR (della temperatura, anche, con l’estensione RASS) permettono di alimentare ALAMO, e modelli simili, con misure dirette.

L’importanza di essere diretti

Misure dirette, dunque, e non stime. Questa, la dieta di ALAMO.

Ma perché una cosa del genere è così importante?

Per una ragione molto pratica, anzi, due.

Perché la turbolenza è molto difficile da stimare in modo accurato partendo da misure “convenzionali”. E, perché l’andamento del vento in quota si guarda spessissimo dal seguire le previsioni dei modelli matematici. A volte, in modo assolutamente macroscopico, come durante l’arrivo di fronti o l’ingresso del Favonio a Sud delle Alpi.

Quando le cose stanno in questo modo, in pratica non c’è modello che tenga…

E se volessi provare io?

Nulla di più facile: il modello ALAMO è pubblico, ed open source.

Per usarlo, è necessario scaricare prima la libreria pbl_met, che si trova alla URL

https://github.com/serv-terr/pbl_met

Una volta compiuta questa operazione, bisogna ricompilare la libreria usando il proprio compilatore: i modello ALAMO si trova nella directory examples.

Se vi va di farlo, anche, non esitate a chiedermi lumi: aspetto i vostri commenti!

 

Perché i puff gaussiani sono Gaussiani?

“Watson, la faccenda è alquanto oscura.”

Eh, già: nei modelli a puff per riprodurre le concentrazioni nello spazio si usano dei puff, appunto, Gaussiani.

Ma certo, verrebbe da dire. Per forza. Così stanno le cose per pura abitudine, perché i modelli a puff sono venuti dopo quelli stazionari Gaussiani, e devono quindi avere ereditato qualcosa da quest’ultimi.

A giudicare dall’espressione del suo volto, anche quel signore dal buffo cappello, la strana pipa e la lente, parrebbe condividere la mia perplessità al riguardo.

Qualcosa, in effetti, non torna.

I modelli a puff sono Lagrangiani, o così almeno si dice.

E di un modello Lagrangiano possiamo dire tutto, tranne che sia stazionario, ed in particolare Gaussiano.

Forse, il pragmatico assistente di quel signore sopra evocato suggerirebbe l’unica cosa sensata da fare, ovvero, un minimo d’ordine. E così, prima ancora ch’egli apra bocca, vediamo di provarci.

Un esperimento mentale

“Facciamo finta che…?” Chissà quante volte ce lo saremo detto, nella nostra infanzia.

Potrebbe essere il caso di rifarlo, adesso, da grandi.

Facciamo finta, allora, di abbandonare uno sciame di “particelle” al vento. Per semplificare le cose, immaginiamo pure che queste particelle siano fatte della stessa sostanza dell’aria, ed anzi, che siano proprio dei volumetti di aria vera e propria, abbastanza grandi da contenere tante molecole che abbia senso esprimere un loro stato, caratterizzato da variabili macroscopiche come posizione, velocità, pressione e temperatura; al contempo, però, così piccole da rimanere pressappoco invariate per forma anche nel rimescolamento turbolento più intenso.

Ora, facciamo finta che le particelle condividano tutte la stessa posizione iniziale (cosa fisicamente assurda, ma, facciamo finta), e che la loro velocità coincida in ogni istante con la somma vettoriale della velocità del vento in quell’istante ed in quel punto preciso, e di una fluttuazione casuale con errore quadratico medio proporzionale all’intensità dell’energia cinetica turbolenta.

Concentriamo, per semplicità, tutta la nostra attenzione su questa posizione “media”. Anzi, meglio ancora: immaginiamo che il vento medio sia esattamente nullo, cosicché questa posizione media coincida esattamente con la posizione iniziale delle particelle, e da lì non si muova mai – cosa essenziale, per evitare il mal di mare cognitivo.

E adesso (ultimo passaggio), facciamo finta che il moto di ogni particella non influenzi né sia influenzato da quello delle altre particelle.

Cosa accadrà? Che, per forza di cose, le particelle si dissemineranno, per effetto delle fluttuazioni casuali, attorno alla posizione media. A livello microscopico, ogni particella seguirà un percorso indipendente da quello delle altre, e determinato da un processo del tipo “camminata a caso nel continuo”.

Le camminate a caso nel continuo da parte di più particelle

Proseguendo nel nostro esperimento mentale, per arrivare ad una situazione calcolabile dobbiamo ancora decidere due cose:

  • Qual’è il passo temporale delle camminate?
  • E, qual’è la distribuzione statistica degli spostamenti ad ogni passo?

Per semplificare le cose, partiamo con una sola dimensione: le nostre particelle sono libere di muoversi solo lungo l’asse delle x.

Ora, scegliamo un passo temporale fisso, dal valore qualsiasi (in teoria, il passo temporale potrebbe essere variabile nel tempo, e diverso da una particella all’altra).

E supponiamo, infine, che la distribuzione di ogni spostamento sia uniforme, con limiti inferiore e superiore uguali a -1 e +1 rispettivamente.

Se immaginiamo di generare una pluralità di particelle tutte inizialmente nell’origine (x=0), e di assoggettarle ad un singolo passo, otteniamo per le loro posizioni a spostamento avvenuto un istogramma come quello presentato in figura:

Istogramma delle posizioni delle particelle dopo il primo passo.

Adesso, con le particelle nelle loro nuove posizioni, compiamo un nuovo passo, sempre con distribuzione uniforme tra -1 e +1. Questo il risultato:

Istogramma delle posizioni delle particelle dopo il secondo passo

Un altro passo ancora:

Istogramma delle posizioni delle particelle dopo il terzo passo

Dopo 7 passi:

Istogramma delle posizioni delle particelle dopo 7 passi

Credo si intuisca dove voglio andare a parare: se la distribuzione degli spostamenti ad ogni passo è uniforme, quella delle posizioni delle particelle diviene praticamente indistinguibile da una normale già dopo pochissimi passi.

La cosa funziona esattamente allo stesso modo, se invece che una dimensione ne consideriamo due:

Istogramma delle posizioni 2D dopo un passo
Istogramma delle posizioni 2D dopo due passi
Istogramma delle posizioni 2D dopo 3 passi

Lo stesso si può dire con tre o più dimensioni, e, “qualunque” sia la distribuzione dei singoli spostamenti.

Questo effetto è conseguenza del Teorema Limite Centrale della Teoria della Probabilità, ed è garantito per una vastissima classe di distribuzioni deli spostamenti (tanto vasta, da contenere tutte quelle possibili o ipotizzabili in Natura).

Ecco quindi la risposta: non esiste alcuna ragione perché i puff, che rappresentano la distribuzione delle posizioni di una schiera “infinita” di particelle coeve rilasciate dalla medesima sorgente, non debba essere Gaussiana.

E la cosa non ha nulla, ma proprio nulla, a che vedere con la Gaussianità di molti modelli stazionari…

Il primo dinosauro lombardo (per ora)

Un incontro grazioso

Sono, pressappoco, le otto del 20 Dicembre 2018, e come ogni mattina mi sto preparando la colazione.

D’un tratto, sento un rumore lieve dal davanzale della finestra. Mi giro, e lo vedo. Un passero! Con le penne arruffate per il freddo.

Non faccio in tempo a riflettere su quanto pochi siano ormai i passeri, che lui vola via. Chi sa, forse un mio movimento più brusco del solito…

Esperienza, questa, forse non da tutti.

Un poco, perché quella graziosa creaturina rappresenta, per noi, una forma di familiare (e sempre meno comune) alienità.

Ma anche perché, ieri, alla Conferenza Stampa di cui vi dirò, Cristiano Dal Sasso, paleontologo di fama mondiale che opera presso il Civico Museo di Storia Naturale di Milano, lo ha detto chiaro: il passerotto che ho per un attimo guardato negli occhi, un uccello, da qualche tempo è ufficialmente annoverato tra i Dinosauri Teropodi. Antiche origini, dunque, e nobili. Con alcuni cugini come il Tyrannosaurus rex, per dire di un personaggio conosciuto a tutti.

Certo, mi dicevo, seguendo nel cielo i voli di altri piccoli dinosauri Teropodi, di strada l’evoluzione ne ha fatta moltissima. Gli uccelli, come siamo abituati a chiamarli, intanto hanno piume, penne, ed ali.

E gli altri Teropodi? Quelli terricoli, estinti?

Recenti ritrovamenti in Cina non lasciano dubbi: erano pennuti anche loro. Magari le loro penne non erano molto attraenti (ma chissà?), più simili a setole rigide che ad un piumaggio elegante. E di alcuni di essi si sa che avevano ali, e magari erano anche capaci di brevi voletti, chissà, forse da un albero all’altro.

Insomma: il processo che ha portato da animali terrestri di taglia media e grande all’uccellino che ho quasi potuto salutare questa mattina è stato graduale, e si è dipanato lungo un tempo che si misura in molte decine di milioni di anni.

Mi sembra di vederle, quelle piccole creature, non ancora (del tutto) uccelli, che fanno le loro prove di volo. Si arrampicano su un albero, con una certa fatica, poi, una volta in cima, planano giù, tutte eccitate, ogni volta atterrando un po’ più lontano.

“Mauri, guarda che l’evoluzione non funziona mica così!” Inutile che me lo dica, però: è più forte di me. Ogni tanto, nella mia immagine, arriva qualche creatura nuova (un po’ più evoluta), che guarda le altre dall’alto del suo ramo con un’espressione condiscendente, e sembra dire “Adesso vi faccio vedere io come si fa.”

Certo, quello che emerge dagli ultimi ritrovamenti è un quadro molto differente da come lo immaginavo al tempo delle scuole medie, quando ci dicevano dell’Archaeopteryx, primo uccello, lasciando la fantasia in preda all’impressione che prima di lui non vi fosse stato altro che il nulla, e che, puf!, ali, piume, penne e tutto il resto fossero comparse d’incanto.

Il bello della scienza, secondo me, sta proprio qui: non pronuncia dogmi, e non ha alcuna paura a dire “ragazz*, ci siamo sbagliat*, credevamo le cose stessero così, invece sono cosà, e queste sono le nuove prove.”

Un bell’insegnamento, non c’è che dire: nulla ha forza di dogma, nel conoscere della scienza.  E chiunque, rispettando semplici regole, può dire, contribuire.

A spasso per la Lombardia del Giurassico Inferiore

Eccoci! Scusatemi per il ritardo. Mi pareva d’aver qualche cosa di importante da fare, ma finalmente ce l’ho fatta, e sono qui. Possiamo partire.

Bella, però, questa spiaggia. Non proprio pulitissima – tronchi e residui vegetali abbondano, si vede che nessuno passa mai a toglierli. Ci sediamo dietro ad un ceppo, strappato chissà dove, e ormai semisommerso nella sabbia sottile, bianca. Lasciamo che il Sole, con i suoi raggi caldi nel mattino, ci accarezzi la pelle.

E’, questo, un momento di assoluta quiete. Restiamo in silenzio: il suono di una sola parola guasterebbe il momento.

Mi accorgo, che non puoi non notarlo, il profumo. Sottile, un po’ greve, resinoso e secco insieme. E pure, percettibile. Lo so, del bosco che la distanza fa verde smeraldo alle nostre spalle. Ma in questo momento mi va di guardare il mare, assolutamente calmo. Una striscia di luce, e baluginii, dove le calme ondine accarezzano la riva. E dietro, una distesa sconfinata.

D’improvviso, una creaturina emerge dall’acqua. Non saprei darle un nome, ma la vediamo chiaramente. Lunga poco più di un palmo, ha l’aspetto di una lucertola grassa, ed una faccia simpatica, per quanto un po’ canagliesca. Guarda verso di noi. Poi decide che non siamo una minaccia, e riprende a fare le sue cose. Ha, mi sembra di vedere, una conchiglia (o qualcosa che le assomiglia) in bocca. Ci guarda ancora, e poi, in uno scatto improvviso, corre a nascondersi dietro un vecchio ramo smozzicato. Non la vediamo più, ma possiamo udire uno scricchiolio. La conchiglia, immagino.

Ma è tempo. Sarebbe bellissimo fare il bagno (non ne ho certezza, ma qualcosa mi dice che l’acqua avrebbe una temperatura gradevole). Non possiamo, però: abbiamo, ed è meglio me ne ricordi, una missione importantissima.

Ci incamminiamo, così, verso l’entroterra: qualche centinaio di metri; mi ricorda, questo luogo, la lunga spiaggia di Ostenda. La sabbia si fa sempre più asciutta, e ad ogni passo vi affondiamo un poco. Giungiamo finalmente su un terreno più solido, e la foresta adesso è proprio vicina. Araucarie. Conifere. Un sottobosco nel quale ci riesce di distinguere, nonostante il quasi buio, felci, e licopodi.

Ci incamminiamo lungo un sentiero, irregolare, ma per fortuna largo, lasciato si vede dal passaggio di altri animali, come si intuisce dalle molte orme.

Di sicuro, questa qui non è un’isoletta..

Una cosa certamente sbagliata, nella mia immagine del passato, riguarda proprio la nostra Lombardia in questo immaginario “adesso”, nel Giurassico Inferiore.

Io ho sempre creduto che “una volta qui ci fosse il mare”. Un ambiente punteggiato di barriere coralline, con piccole isole ed atolli, e spiagge. E, certo, il suono ritmico della risacca, il profumo del mare, il tepore di una spiaggetta riparata.

Un paradiso perduto davvero singolare, nel quale nascevano, passavano la propria vita e morivano animali, piante, funghi, batteri, ed innumerevoli altri, molto diversi a vedersi rispetto a quelli di oggi. Eppure, stranamente simili.

Ma no. Per quanto non avesse alcunché di riconoscibilmente lombardo, questa Lombardia qui è non meno che un mondo. Con un entroterra. Foreste. Fiumi, e laghi.

Un mondo, abbastanza grande e complicato da riuscire a nutrire delle non proprio esattamente silfidi come il nostro Saltriovenator.

Ricostruzione del Saltriovenator zanellai e del suo ambiente. Le immagini che hanno restituito alla vita il nostro amico sono opera di  Davide Bonadonna e Marco Auditore. Le illustrazioni sono fondamentali, sia per “divulgare” che per comprendere la biologia di forme viventi oggi scomparse.

 

Pare quasi di vederlo, il Saltriovenator zanellai, magari mentre tende un agguato. O, cosa altrettanto non impossibile, nell’accudire i suoi piccoli. Oppure ancora, intento (intenta?) a far nulla, o ad un bagno di polvere. A volte dimentichiamo che queste creature meravigliose non erano (solo) “perfette macchine per uccidere”, ma animali, come tutti gli altri, capaci di gioire e soffrire. E, di tanto in tanto, di mangiare, o abbeverarsi.

Di morire, anche, chissà per quale ragione. E magari farsi trascinare dalla corrente del fiume sino al mare, per affondarvi infine, e divenire nutrimento per un piccolo ecosistema capace di durare anni, a spese dei poveri resti, come accade alle balene.

E poi, provvidenziali, i sedimenti che coprono le ossa. Chissà, magari una frana marina nelle vicinanze.

Anni. Anni ancora. Milioni di anni. A decine.

Quella che era una soffice coltre di sedimenti s’è mutata in roccia, sepolta sotto metri, e metri, e metri ancora d’altri sedimenti.

Passano, si succedono periodi caldi e freddi, asteroidi che colpiscono la Terra, glaciazioni. Manca pochissimo, ormai (quanto tempo è intanto trascorso). All’orizzonte, finalmente, si vede comparire contro il Sole un piccolo gruppo di strane creature, bipedi come i Dinosauri, ma prive di penne, o quasi, di pelo. Una porta in braccio un cucciolo. Altre due, con corte lance, e propulsori, scrutano da tutte le parti. Una ancora, che chiude la fila, e trasporta qualcosa in una sacca. Tempo, ancora tempo.

Sino a che…

“Ohé, sun chì!”

Mi piace immaginare che il signor Zanella abbia udito questo muto richiamo, mentre esplorava una cava in quel di Saltrio dove poche ore prima gli operai avevano spaccato a colpi di dinamite un’altra bancata, e milioni di anni prima si era depositato il nostro Saltriovenator.

“Alura? Guarda che sun chì!”

Il signor Zanella si gira, si guarda intorno, non vede nessuno (e del resto, come dicevo, il richiamo è muto, sembra venire dalla mente, più che attraverso l’aria).

“Guardi, che se va avanti ancora un po’ non mi vede più.”

Mi piace immaginare che il signor Zanella, a quel punto, abbia guardato in basso, e che il martello gli sia quasi caduto dalle mani nel notare quelle che avevano tutto l’aspetto di antiche ossa incastrate nei sassi.

E mica ossicini, come si è soliti trovare nelle cave dell’Alto Varesotto, o del Lago di Como. No, ossone grandi, come ne vedresti nello scheletro di una mucca. Anzi, più grandi ancora!

Che magari magari fosse…?

“Eh, ancora un po’, e te me vedevet puu.”

Qualche ora ancora, e quelle antiche ossa sarebbero finite nel tritasassi, magari per farne materiale di risulta per una villetta a schiera.

A quel punto, il signor Zanella si mise all’opera per il salvataggio: informò immediatamente il Museo di Storia Naturale di Milano, che organizzò in tempi rapidissimi una vera e propria spedizione di soccorso.

Tutto questo accadeva una ventina di anni fa. Il malcapitato ossuto ricevette il nome provvisorio di Saltriosaurus, e finì amorevolmente custodito nell’archivio del Museo di Storia Naturale, in attesa di uno studio accurato.

E fu un’opera provvidenziale.

Altre scoperte entusiasmanti gli rubarono la scena per qualche tempo, ma alla fine venne il suo momento. 

Un puzzle affascinante, e non solo

Ed eccoci.

Non più alla bellissima conferenza stampa, ma in un momento tranquillo, a pranzo, quando Cristiano Dal Sasso mi ha fatto l’onore di pranzare con lui e la sua squadra entusiasta (oltre a lui i due co-autori dell’articolo di cui dirò, Simone Maganuco e Andrea Cau, ed altre persone molto interessanti).

Eravamo lì, in attesa di una pizza che non arrivava mai (e che prometteva di divenire un fossile anche lei, cosa forse non del tutto inappropriata date le circostanze) e il dottor Dal Sasso, sapendo del mio interesse per tutt’altra disciplina, mi chiese cosa pensassi dei paleontologi.

Proverò a rispondere qui, finalmente. Inutile lo dica io, lo sappiamo tutti: la paleontologia si occupa di riportare alla luce della consapevolezza creature estinte da lunghissimo tempo, e le comunità e gli ecosistemi che queste formavano mentr’erano in vita.

Ma, potremmo chiederci, cosa ci importa di vecchie ossa, in questi tempi veloci.

Ci importa. Dovrebbe importarci.

Dovrebbe importarci, di saper godere della meraviglia, in tempi come questi dominati dal paraocchi e da discorsi francamente brutti, pronunciati tutti con la stessa identica voce maschile singolarmente priva di melodia. Dovrebbe importarci di quella magnifica creatura viva che è stata, ai suoi tempi, il Saltriovenator zanellai, e così pure dei dipinti della Cappella Sistina, o delle oscure trame di Lady Macbeth, o dell’ondeggiare ritmico evocato dagli archi nella sinfonia Die Hebriden. Ci dovrebbe importare, di tutto ciò che ha il potere magico di rendere le nostre vite qualcosa più che un breve momento miserabile di astio e consumo.

Ma viviamo in tempi rabbuiati, e fare appello ai buoni sentimenti, alle meraviglie (tra loro intrecciate) di Arte e Natura forse non darebbe buona stampa, ed anzi incoraggerebbe qualche polemica circa il fatto che la cultura non da di che riempir la panza.

Mi atterrò, così, all’utilità. Rendendomi ben conto che così non rispondo alla domanda del dottor Dal Sasso (o almeno, non ancora).

Stiamo vivendo un periodo di cambiamento epocale. Il riscaldamento globale minaccia di fare del meraviglioso punto blu che è il pianeta Terra un ambiente non più ospitale per la nostra specie. E mai come ora diventa importante, direi vitale, comprendere a fondo i processi del clima, e la risposta ad essi della biosfera. Dobbiamo capire, e comprendere (il che non è la stessa cosa), sino a che punto potranno spingersi i cambiamenti, perché qui ci sia ancora un posto per noi.

Lo studio del passato ci aiuta. Contiene un cambiamento di prospettiva, ci costringe ad abbandonare la nostra tendenza all’antropomorfismo, ed a toccare con mano quale può essere l’estensione dei cambiamenti, e quale la risposta di tutti i complessi sistemi intrecciati della vita, del clima, della geologia.

E così, gli amici paleontologi si trovano investiti di un’inattesa responsabilità. L’importanza della loro disciplina va molto oltre, oggi, rispetto allo svelamento di meraviglie da Wunderkammer del Barone Cuvier.

Ci mostra, attraverso ogni ritrovamento, un mondo in continua variazione. Nel quale nulla è eterno, nemmeno le specie (e nemmeno quella umana), Dove tutto, ma proprio tutto, cambia. Nel quale si sono verificati cambi di temperatura rispetto ai quali il Riscaldamento Globale impallidisce.

Ci dice, anche, di quanto lungo e complesso sia stato il processo di evoluzione. Ci ricorda che, al momento della caduta dell’Asteroide che ha spazzato via il Cretaceo i dinosauri, che credevamo goffi, ciccioni ed impacciati, abbiano invece spiccato il volo lasciando noi, i superiori Mammiferi, a sguazzare nel fango (pensiero che dovrebbe insegnarci un poco di modestia, e ricordarci che di asteroidi ce n’è un’infinità).

Ma sto divagando, me ne rendo sempre più conto.

Il dottor Dal Sasso mi ha chiesto cosa pensassi dei paleontologi, non della disciplina che da loro la possibilità di vivere (di non estinguersi?)

E torniamo a noi, allora. Al nostro tempo, ed alla conferenza stampa di Cristiano Dal Sasso, con i colleghi paleontologi Simone MaganucoAndrea Cau , gli illustratori Davide Bonadonna e Marco Auditore, ed un’infinità di altre persone, che hanno studiato in modo approfondito il fossile, e pubblicato l’articolo che descrive la nuova specie (Dal Sasso C, Maganuco S, Cau A. 2018. The oldest ceratosaurian (Dinosauria: Theropoda), from the Lower Jurassic of Italy, sheds light on the evolution of the three-fingered hand of birds. PeerJ 6:e5976 https://doi.org/10.7717/peerj.5976).

Dell’eccezionalità della scoperta hanno già detto in molti, in tutto il mondo.

Dire di più, avrebbe poco senso.

Mi limiterò a due cose.

La prima, e forse la più sorprendente per chi si è fatto un’opinione su archeologi e paleontologi guardando I Predatori dell’Arca Perduta o Jurassic Park, è il lavoro che c’è dietro ogni scoperta.

Lavoro d’infinita pazienza, che assomiglia alla risoluzione di un grandissimo puzzle in cui la maggior parte dei pezzi sia andata perduta. E che coinvolge un’infinità di persone, momenti, passaggi logici minuti, studio.

Andiamo al Museo, ci soffermiamo un attimo davanti ad un bellissimo diorama, e non ci rendiamo conto dell’immane lavorio che gli sa dietro.

Verrebbe voglia di pensare cosa ci faccia una vicenda del genere in un blog, il cui titolo è dopotutto Bits e Natura. Eppure, nella vicenda ci sono pure loro, i bit: ogni osso ritrovato è stato scansito, tradotto in una massa di numeri, vagliato da complessi modelli matematici, confrontato.

Che dire, quindi? Quello dei paleontologi è un mestiere affascinante, che oggi si è modernizzato, e che non è più solo scavo ed interpretazioni soggettive.

Dovrei (e lo faccio qui) anche dire non tanto dei paleontologi in generale, ma d’uno in particolare, di Cristiano, di cui prima che la persona ho conosciuto alcuni lavori, e soprattutto i meravigliosi video che ha girato per il National Geographics. Video, nei quali parla di creature morte da milioni di anni, presentandocele per così dire da vive, con la meraviglia ed il terrore che le accompagnavano, ma anche con le debolezze e le inevitabili sofferenze che sono parte necessaria di ogni vita, e che ce la rendono vicina. In quanto a ciò, grazie. Quei video non sono soltanto genericamente belli e molto ben fatti: in qualche modo toccano il cuore.

Contribuiscono, sì, anche loro, a farci vedere un mondo migliore, meno grigio e, scusate, monocorde e stupido di quello che ci si presenta con ostinata e greve tracotanza ogni giorno.

Ed in quanto al Saltriovenator zanellai, infine, arrivederci, a presto: comparirà in tutto il suo splendore, in una sala del Museo di Storia Naturale di Milano.

E poi, si vedrà: in questi ultimi anni Cristiano & C ci hanno abituat* sin troppo bene, e la Lombardia giurassica era grande…

 

Le mie note di studio sui Modelli di Dispersione

Magari, può servire?

Qualche anno fa, ho avuto l’occasione di tenere uno dei laboratori del corso di Fisica dell’Ambiente della mia amica, la prof. Roberta Vecchi presso il Dipartimento di Fisica dell’Università Statale di Milano (corso, tra l’altro, bellissimo, e non lo dico perché Roberta è amica mia: è proprio “insolito”, ampio, molto pratico, utile; e, tenuto col cuore).

Tenere un laboratorio implicava la necessità di dire ai cuccioli-di-fisico qualche cosa di sensato. Il che non è esattamente semplicissimo.

“Mauri”, mi dissi, “forse è il caso che prima di dire agli altri qualcosa, te lo ripassi per bene tu.”

E così ho buttato giù (lo ammetto, abbastanza di fretta, e senza concedermi nemmeno il tempo di fare una brutta copia) delle note, in cui credo di aver riassunto le cose essenziali e, soprattutto, distillato un po’ di esperienza (che poi era la cosa che i cuccioli più avrebbero avuto più necessità di vedere).

A distanza di qualche anno, e senza pretese, ho pensato di condividerle. Appunto, magari possono servire…

AtmosphericPollutantDispersion-ilovepdf-compressed

Un ricordo di Daniele Fraternali

Perdita…

Non è passato nemmeno un mese, da quando Daniele ci ha lasciati.

Passo davanti alla sua scrivania vuota, e mi viene da piangere. Mi manca, moltissimo. M mancano le discussioni con lui, le litigate a volte (cosa che non accadeva spesso: era una persona mite). Mi mancano le sue osservazioni sintetiche, acutissime, sul cuore delle persone (che riusciva a radiografare sin nel profondo, con un solo sguardo). Mi mancano le nostre conversazioni profonde, intime, sul mondo, sui possibili futuri…

Ma inutile ne dica: chi lo ha conosciuto tutto questo lo ha veduto da sé, e sa di cosa sto dicendo.

E in molti hanno avuto avuto la fortuna di conoscerlo, e immagino che come me ne avranno avuta la viva impressione come d’una delle ultime persone rinascimentali.

Ora, però, non vorrei raccontare del Daniele personaggio pubblico,  la sua veste più conosciuta. Desidero dire, semmai, di un Daniele più invisibile. E di un’avventura cominciata ormai un quarto di secolo fa, e che prosegue oggi.

Retrovia

Senza strumenti, non si arriva da nessuna parte.

Questa cosa vale per il signor Pinco, meccanico, come per la signora Pella, tornitrice, o … E certamente non valeva per Roberto Sozzi e Daniele Fraternali quando nei primi anni ’80, al CISE, si buttarono nella nuova esperienza di far funzionare i modelli di dispersione.

Questi, i modelli di dispersione, oggi come allora avevano bisogno, per funzionare, di vari dati di ingresso, tra i quali “la meteorologia”. Questa, però, era costituita da lunghissimi file contenenti non solo dati del tipo normalmente misurato dalle stazioni, ma, anche, indicatori dell’intensità di rimescolamento turbolento, e grandezze come lo spessore dello Strato Limite Atmosferico.

Questi dati “in più” a quei tempi non si misuravano: gli strumenti che lo avrebbero permesso, ad esempio gli anemometri ultrasonici tri-assiali, erano ancora ben nascosti in qualche sperduto laboratorio di ricerca. C’era dunque la necessità di stimarle, cosa che richiedeva di scrivere e usare un “processore meteorologico”.

Permettetemi, qui, una digressione. Scrivere processori meteorologici era, ed è, un lavoro orribilmente noioso. Si rischia di compiere ad ogni passo errori minimi, che però hanno un impatto devastante sui risultati.

E di più: è un’attività invisibile. Agli occhi dei Clienti non riveste alcuna importanza, e non conferisce alcun prestigio. Ma, se non la fai, non puoi dare alcun reale servizio.

Chi non è del ramo, sottovaluta spesso e volentieri le lunghe ore passate davanti ad un terminale, cercando di far funzionare cose complicatissime, senza documentazione, e con la sensazione di non poter ricevere alcun aiuto. Si può dire che ogni ora di lavoro visibile compiuto dalle persone “di linea” ne richiede, o ne ha richieste, tre o quattro di preparazione.

In questo racconto, desidererei rendere visibile, per una volta, questo lavoro sotterraneo.

Ma torniamo, ora, e scusatemi per lo sballottamento, alla noia dei processori meteorologici. Non ne ho certezza, ma mi piace immaginare che l’idea di una libreria capace di alleviare la fatica, che raccogliesse a fattor comune le operazioni più frequenti, abbia preso forma allora. Nelle retrovie. Lontano dai riflettori e dal prestigio.

La PBL_MET

Siamo nel 1993, e intanto sono accadute molte cose.

Tra queste, un fatto piccolo, ma importante: la libreria di codice per facilitare la costruzione di processori meteorologici ha preso una forma tangibile, e con essa un nome, anzi, una sigla insieme imperscrutabile e poco appariscente: PBL_MET.

Quanto a me, più o meno negli stessi giorni in cui Daniele e Roberto presentavano al mondo la nuova nata al workshop di Manno, in Svizzera, ancora mi occupavo di altre cose, di “sistemi programmabili per applicazioni rischiose”. Tutt’altro, insomma. Ma conoscevo da tempo Daniele e Roberto, ed avevo sentito spesso parlare da loro della mitica PBL_MET, e dei suoi molteplici usi, in corso di esplorazione.

Probabilmente non ne avrei saputo più nulla, se non fosse accaduto un evento fortuito: mi chiamarono all’ufficio del personale, e lì il capo delle risorse umane, personalmente di persona, mi informò che il gruppetto di persone che dirigevo sarebbe passato sotto la responsabilità di uno nuovo, con un curriculum meno lungo, ma con il giusto physique du role (personaggio che avrei dovuto “supportare stando nell’ombra, come ogni moglie fedele deve fare” (il corsivo è mio). Il supporto durò tre anni, sino alla chiusura del reparto, e si concluse con le mie dimissioni, nel 1996, ed il mio ingresso in Servizi Territorio. Dovetti (e fu, posso assicurarlo, molto dura) ricominciare da zero, imparando la fisica dell’atmosfera (ed infine innamorandomene), e, cosa che conta qui, partecipando alle attività ed all’uso della PBL_MET.

Una strage annunciata

No, no, non aspettatevi nulla di drammatico. Le vittime non furono persone, né altre creature, ma stazioni meteorologiche.

Uno degli usi meno convenzionali della PBL_MET fu in appoggio allo studio che, intorno al 1996, Daniele e Roberto fecero sulle stazioni meteorologiche presenti in Lombardia. Il lavoro, commissionato dalla Regione, aveva il fine di capire se tra le seicento e più stazioni meteo in carico alla Regione (l’ARPA non esisteva ancora) ve ne fosse almeno qualcuna capace di produrre dati di una qualche utilità. In quella commessa ebbi una particina minore, che mi permise però di vedere i due all’opera.

Il lavoro, nelle sue dimensioni, sembrava scoraggiante. Per ogni stazione, nastri e floppy disk contenenti campioni di dati, dei tipi e nei formati più svariati. Unica costante, il fatto che avevano tutti più o meno a che fare con la meteorologia.

Il piano consisteva, più o meno, nel confrontare i dati di tutte le stazioni con i criteri di qualità della US-EPA, cosa non banalissima ma tutto sommato semplice, se si trascura la logistica. Il vero problema era, però, quest’ultima. Ogni stazione era un mondo a sé, con propri strumenti e finalità. L’anemometro poteva esserci, o no. Alcune avevano un termo-igrometro, altre un termometro (o magari anche due). Una minoranza disponevano di sensori un po’ esotici, per quegli anni, come radiometri globali ed altri. Un confronto diretto dei dati con i criteri EPA non era possibile, senza prima trasformare questi ultimi, e unificarli almeno in parte ad un insieme di grandezze minimo e comune. E fu lì, che la PBL_MET dimostrò la sua utilità. Ciò che non era disponibile per misura, lo divenne per stima.

La fatica improba ve la lascio immaginare tutta: non dico che fu necessario scrivere un processore meteo per ciascuna stazione, ma poco ci mancò. Saranno stati anche abbastanza simili tra di loro, ma i processori scritti ed usati ammontarono a qualche decina…

Ne uscirono vivi, però, ed alla fine la verifica delle stazioni fu compiuta.

Del totale, ne “sopravvisse” una quarantina.

Fumi fosforescenti

Ovvero, l’epopea del modello Radiopuff.

Ma permettetemi un passo indietro. 1994, credo, o giù di lì. L’ISMES, un centro di ricerca dell’ENEL, vinse un bando europeo per la messa in sicurezza della centrale nucleare di Ignalina, in Lituania.

E contattò Servizi Territorio (anzi, nella fattispecie, direttamente Daniele, o Roberto), ponendo loro un problema che avrebbe gelato il sangue di Homer Simpson.

La centrale, letteralmente, faceva acqua. La Lituania si era resa da poco indipendente dalla Russia, ed i Russi per ricompensa avevano abbandonato lì tutta una serie di ricordi, tra i quali, appunto, la centrale di Ignalina (tecnologia Chernobyl, per intenderci: un sito ideale, da lasciare senza manutenzione).

Di spegnerla, non se ne parlava proprio. Mezza capitale lituana era teleriscaldata dalla centrale, e da quelle parti spegnere i termosifoni non è proprio esattamente una cosa pratica.

Però, appunto, la centrale faceva acqua.

E non soltanto quella.

L’ISMES si mise all’opera, per realizzare a tempo di record un sistema per il monitoraggio delle emissioni al camino di… radionuclidi.

Si poneva, a quel punto, il problema di capire dove questi andassero a finire, una volta rilasciati.

La prima parte del problema era, capire dove ricadessero i radionuclidi, una volta emessi. Compito da modello di dispersione, ma che non era trattabile con i normali modelli stazionari allora in uso. Ci voleva qualcosa di più accurato, e la scelta cadde sul modello lagrangiano Mesopuff II.

La seconda, consisteva nel comprendere dove finissero poi i radionuclidi arrivati al suolo, una volta che gli abitanti li avevano inalati. Questa fu, ricordo, una parte piuttosto “divertente”, della quale si occupò Roberto, nella sua veste di ingegnere nucleare. Il modello dedicato (di cui non ricordo il nome) prendeva in esame alcuni organi-bersaglio (polmoni, scheletro, gonadi, …), e per ciascuno di essi stimava la quantità fissata per ogni radionuclide.

A monte dei due passaggi, serviva un qualcosa – un processore meteorologico – capace di trasformare i dati della stazione meteo predisposta da ISMES nell’input meteorologico di Mesopuff II. In tempo reale. Nel 1997, più o meno.

Daniele e Roberto si misero all’opera alacremente, ed alla fine ne uscì il processore OLMET.

Voglio augurarmi che il sistema Radiopuff nel suo complesso, e la centrale di Ignalina tutta, non esistano più da molti anni, per il bene dei lituani.

Ma non posso giurarci…

Ufficio Sinistri, Scrivania Quarantatre Bis, Ragionier Fantozzi Ugo

A volte, l’impatto era inevitabile.

No, non mi riferisco ad incidenti stradali, né al ruolo che in essi aveva la Megaditta. Più modestamente (forse) all’impatto delle ricadute al suolo di inquinanti sull’ambiente, e sulla salute.

Accadeva, di tanto in tanto, che Servizi Territorio venisse interpellata per valutare l’impatto di un impianto sull’ambiente. Cosa che, di regola, prevedeva uno studio di cui la parte più “rognosa” era invariabilmente la componente atmosfera: le emissioni reali erano spesso accuratamente nascoste, i dati meteorologici come minimo bucherellati, i dati d’impianto segreti.

Per affrontare il problema si usavano modelli di dispersione (al mio arrivo a Servizi Territorio, soprattutto ISC). Che andavano alimentati con i dati meteorologici. Cosa che richiedeva un processore meteo. Che, poco prima del mio arrivo, era “adattato al nuovo caso” (eufemismo per significare “rifatto completamente per tener conto dei dati disponibili”).

Vedere lo svolgimento di questi studi era cosa piuttosto interessante: Daniele teneva i rapporti con i Clienti, identificava insieme a loro i fattori di emissione, e una volta disponibili i risultati elaborava le statistiche finali e componeva la relazione tecnica da consegnare ai Clienti. Roberto, invece, prendeva in carico i dati meteo, scriveva al volo un processore meteo adatto allo scopo, lo faceva funzionare, avviava il modello vero e proprio con i dati emissivi passati da Daniele, e verificava che il modello avesse prodotto qualcosa di utile. Una sorta di balletto, con una coreografia consolidata (e qualche improperio, soprattutto da parte di Roberto, quando si presentava qualche intoppo; Daniele, invece, nelle avversità manteneva un atteggiamento compassato, di calma imperturbabile).

Una cosa disturbava i due: la necessità di fare e disfare ogni volta il processore mete. Sì, c’era la PBL_MET, e non era necessario ripartire ogni volta da zero, dalle equazioni di Newton. Però, era comunque una faticaccia.

Un giorno, Daniele chiese: “Ma non potremmo fare un processore meteo unico, una buona volta?”

La proposta implicita cadde nel vuoto, per un po’. Ma alla fine si materializzò in un programma, che se non sbaglio di chiamava PROMET (non brillavamo, quanto a fantasia per i nomi). Me lo ricordo ancora. Un incubo. Una ragnatela di IF-THEN-ELSEIF-ELSE, secondo me infinita, per tener conto di tutti i casi possibili. Così, quando si presentava un nuovo tipo di stazione meteo, bastava aggiungere un nuovo blocco di ELSEIF-ELSE-IF-machecavoloaltro. Poi, quasi nascosto dietro lo sbarramento di istruzioni condizionali, il processore vero e proprio (e trovarlo non era facile: era un po’ come, mi hanno detto, “cercare il motore della Diane 6” – non so cosa voglia dire di preciso, ma rende l’idea).

Fumi di C18H24O2

Il successore del PROMET fu, o meglio avrebbe potuto essere, METPRO. Posso dirlo: fu un’invenzione tutta mia. Devo, qui, però, aggiungere due delle mie solite premesse.

La prima, era che Roberto continuava a parlare sempre più spesso, e con frequenza ormai allarmante, di Reti di Petri.

La seconda, che al tempo il mio Sistema di Funzionamento a Corrente Alternata Mensile andava ancora, e benissimo. Chiariamo qui un concetto: sono una scarpa. Ma nei due-quattro giorni di picco del ciclo non me ne rendevo conto, e nella mia euforia generale mi lanciavo in imprese che sana prudenza avrebbe suggerito di evitare accuratamente.

L’Impresa delle Imprese fu la realizzazione (non chiedetemi in che modo) in due giorni di un interprete di Reti di Petri agganciato alle chiamate della PBL_MET, che battezzai appunto METPRO. Nulla di che, ma, in pratica, un processore meteo configurabile.

Credevo di avere inventato la geniata del secolo.

Invece, ne ho combinata una delle mie. Temo.

Ricordo ancora l’espressione perplessa di Roberto, quando vide il mio parto d’ingegno (diciamo così) per la prima volta.

Daniele è stato molto più carino. Però mi ha chiesto, “Mi spieghi, per favore, come funziona?” E questa volta è la mia risposta, che ricordo bene: “Ehm… Veramente… Ecco, se me lo chiedevi due giorni fa, allora te lo dicevo. Però, se mi applico, lo capisco!” (Il “se mi applico”, naturalmente, voleva dire “tra una ventina di giorni”).

Alla fine, non chiedetemi in che modo, fui capace di mostrare che in effetti il coso più o meno funzionava, ma ciò pose un ulteriore problema: e, se fosse caduto in mani concorrenti?

Tenemmo una (burrascosa) riunione a tre, per l’occasione. La tempesta di cervelli che ne seguì, per un paio d’ore, valutò gli scenari più svariati ed impressionanti. Ed alla fine decidemmo che no, forse non era esattamente il caso di procedere per quella via.

E il mio povero, incolpevole METPRO, cucciolo virtuale, finì sepolto in un cassetto, con la promessa solenne da parte mia che mai e poi mai avrei ripetuto “imprese” del genere.

Va bé.

$ ?

Però, un lato positivo nel mio disastro c’era, ed innegabile: con la PBL_MET tra le mani, anche una scarpa come me in fatto di fisica dell’atmosfera poteva realizzare un processore meteorologico funzionante.

Che la cosa potesse valere per qualunque altra scarpa?

Di qui, l’idea di provare a venderla, la PBL_MET.

Fu, con i limiti intrinseci di tutti i prodotti di nicchia, un successone autentico: ne piazzammo ben sei (il corsivo non è ironico: il carattere specialistico della cosa mi faceva dubitare che ne avremmo venduto anche solo uno – ma, tendo al pessimismo…). Le licenze PBL_MET, nella versione sorgente, costavano circa quanto la libreria IMSL, e chi ha più o meno lavorato nel campo sa cosa intendo dire. Decisamente, ben pagata.

Un conto però è scrivere una libreria propria e farne un impiego interno. Tutt’altra cosa, invece, distribuirla come prodotto.

Bisogna, intanto, scrivere manuali e brochures. Occorre compiere test che, diversamente, avremmo fatto solo in base a necessità.

Ed è anche necessario rendere la libreria in qualche modo visibile, scientificamente e commercialmente. Il secondo aspetto precede necessariamente il primo, perché afferma non solo una titolarità intellettuale, ma una proprietà.

La scheda di primissima registrazione della PBL_MET

Che storie… Al tempo, brevettare codici di calcolo non era proprio previsto in Italia (non so nemmeno se oggi lo è, a dire il vero). La sua registrazione avveniva come per la musica, ed altri oggetti d’arte. E mi piace pensare che anche il software, pur nel suo carattere obbiettivo ed ineluttabile (o almeno si spera), sia una forma d’arte. Minore, certo. Più simile agli oggetti meravigliosi di un Cellini, che alle “vere” opere di un Leonardo, o di un Michelangelo. Contiene al suo interno un elemento importante: non si limita a passare ordini e dati ad uno stupido pezzo di vetro drogato con impurità, ma, comunica qualcosa alle persone.

Decidere di registrare il codice, o no, non avvenne senza dibattiti e ripensamenti. Alla fine, però, si decisero, e la scheda testimonia oggi un passaggio. Una traccia visibile.

La presentazione scientifica, invece, avvenne in occasione del secondo workshop sull’armonizzazione dei modelli di dispersione, che si tenne a Manno (Svizzera), a fine Estate del 1993. La PBL_MET, ed i nomi di Daniele e Roberto, compaiono nell’elenco ufficiale dei lavori

https://www2.dmu.dk/atmosphericenvironment/Harmoni/manpaper.htm

Anatomia di un processore meteorologico

Mi rendo conto, ripensando a tutto quello che ho scritto, che mica l’ho detto che cos’è un processore meteorologico, e perché è così importante scriverne uno personalizzato invece che scaricarne uno già fatto da Internet.

Proverò, a memoria, a dire com’era fatto il nostro PROMET (perdonatemi: è archeologia tecnica – ma aveva una struttura si-fa-per-dire-semplice, ed è più facile parlarne).

Dunque. Quando si progetta un processore meteorologico, la primissima cosa è darsi un obbiettivo di “uso del processore”. Nel nostro caso la cosa era chiara: doveva alimentare il modello di dispersione ISC, con i dati nella configurazione massima.

Nel momento in cui scegli l’uso, implicitamente vai anche a dire quali informazioni dovrai produrre. E tra queste ve n’erano due piuttosto, scusate il termine, “rognose”: la categoria di stabilità dell’atmosfera, e la quota di rimescolamento. Tra queste due, quella di gran lunga meno amichevole è la seconda: per stimarla, mancando al tempo la possibilità di misure dirette continue, dovevi fare uso di opportuni modelli fisici, che nelle situazioni stabili erano semplici parametrizzazioni, e nelle convettive le equazioni (differenziali ordinarie) di Gryning-Batchvarova. Parametrizzazioni, e modello G-B, avevano una cosa in comune, piuttosto tragica: la conoscenza di alcuni indicatori di turbolenza atmosferica: velocità di frizione, flusso turbolento di calore sensibile, e lunghezza di Obukhov.

A quel punto si poneva la domanda fatale: quali strumenti doveva avere una stazione, perché dalle sue misure fosse possibile stimare gli indicatori di turbolenza (e le categorie di stabilità) senza abbandonarsi ad un puro procedimento di invenzione creativa?

Detto in modo più aulico, il passaggio da fare è scegliere un percorso di stima. Nel caso di PROMET, scegliemmo un percorso fatto più o meno così:

Percorso di stima del processore meteo PROMET
Percorso di stima del processore meteo PROMET

Implicita nella scelta del percorso di stima, c’è la dotazione strumentale minima. Nel caso del processore PROMET la dotazione minima è composta da:

  • Un termometro.
  • Un anemometro (tipicamente a coppe e banderuola).

Se, poi, la stazione fosse stata dotata di un radiometro globale, o netto, allora avremmo tenuto in debito conto i relativi dati in più: tutto grasso che cola. Il percorso di stima, nel caso, prevedeva dei “bypass” che evitavano di stimare le grandezze misurate.

Perché non un processore meteo già fatto?

E, già: perché no? Dopotutto ce ne sono: AERMET, per esempio.

La ragione che ha spinto Daniele e Roberto a non adoperarli, e che loro hanno condiviso con me, era molto semplice, ma gravida di implicazioni: non esiste un processore meteo definitivo ed univoco. La mera scelta di un percorso di stima non porta da nessuna parte, se ci si ferma lì. Occorre, anche, scegliere il particolare metodo di stima, per ciascuno dei passi del percorso. E vanno, poi, definiti i parametri geognostici di riferimento, se si desidera comporre un processore meteo che non sia esageratamente complicato da usare.

In queste scelte sta il problema. La fisica dello Strato Limite Planetario è ormai bene assestata, dopo decenni di osservazioni. Ma dietro a lei non c’è una “teoria” con potere predittivo intorno alla quale si sia raccolto il consenso di una parte abbastanza grande della comunità scientifica. Micro-climatologia e micro-meteorologia sono oggi discipline eminentemente osservative, simili alla geologia strutturale. Esistono, per queste discipline, dei modelli fisico-matematici: ma questi modelli hanno ancora una natura semi-empirica. Secondo me (per quanto può contare la mia opinione) tale resterà a lungo: la natura stessa della turbolenza atmosferica la rende molto resistente ad ogni tentativo di predizione dettagliata.

La natura semi-empirica della disciplina ha portato ad una lunga evoluzione, che si è manifestata nella comparsa di una vasta pluralità di metodi. “Vasta pluralità”, in funzione delle diverse campagne di misura che si sono succedute nel tempo, nei luoghi più svariati: dall’Antartide, a salire, sino alle Svalbard. Molte decine, e forse centinaia di campagne. Ognuna riflette, anche, le caratteristiche del sito nel quale sono state condotte.

La grandissima maggioranza dei processori meteorologici scaricabili da Internet sono stati scritti negli USA. Ad una latitudine che è collocata molto meno a Nord che in Italia ed in Europa. In siti, caratterizzati mediamente da una topografia dolcemente ondulata, con variazioni relativamente piccole nella rugosità e negli altri parametri. Chi ha fatto questi processori ha scelto le relazioni semiempiriche più appropriate per quella situazione particolare. Chi ha detto, che relazioni valide per la California, a latitudini tropicali, si adattino alle latitudini nordiche dell’Europa? (Per dire solo una cosa molto intuitiva: nei libri americani di micro-meteorologia, quando si parla di situazioni stabili e convettive si ha sempre la sensazione che si presentino circa per lo stesso numero di ore, con forti variazioni stagionali; alla latitudine di Milano, invece, le situazioni stabili prevalgono nettissimamente sulle convettive: vuoto per pieno, 70% contro 30%).

Prudenza dunque richiede che si utilizzino relazioni scelte bene. Adatte al sito. Alle latitudini nordiche – e l’Europa, da Pantelleria in su, è molto a Nord rispetto agli USA. A terreni con una tessitura complicatissima, specchio di una geologia rimaneggiata da migliaia di anni di coltivazioni compiute con pratiche diversissime. Ad un contesto dominato da vasti mari interni (Mediterraneo, Mare del Nord), relativamente molto caldi. Ad una distribuzione di foreste e coltivi molto particolare. Eccetera.

La possibilità individuata da Daniele e Roberto non prendeva scorciatoie: si sono rimboccati le maniche, ed hanno scritto processori dedicati.

Non per tutt*

Scrivere un processore meteorologico funzionante non è cosa da tutt*, quanto a conoscenze. Ma, applicandocisi, “si fa”. Basta studiare, con molta pazienza.

C’è un fatto, però: come accennavo all’inizio dell’articolo, scrivere processori meteorologici richiede molto tempo, che non può essere usato per mettersi in mostra. Il ritorno è nella pura utilità funzionale, non nell’immagine personale.

Un po’ come tutte le attività “fuori linea”, anche questa è a forte minaccia di basso prestigio, non riconosciuta dai sistemi premianti di molte aziende.

Che Daniele e Roberto ci si siano, scusate il termine, “buttati” secondo me rivela un qualcosa. Una passione per l’argomento. Una cura non comune per la qualità e la sensatezza dei risultati. Che, poi, è onestà intellettuale.

Open source!!

Vicissitudini. Nel 2002, Roberto lasciò Servizi Territorio, ed iniziò una brillante carriera in ARPA Lazio.

Daniele, e noi che siamo rimasti*, abbiamo continuato a usare modelli di dispersione.

E la necessità di processori meteorologici non è diminuita. Anzi!

I tempi, però, erano cambiati. Servizi Territorio aveva ricavato dalla PBL_MET di allora tutto ciò che poteva, in termini economici e di utilità, oltre che di soddisfazione.

Aveva senso, proteggerla come un prodotto commerciale?

Ricordo che ne discutemmo, io e Daniele. Il mio cuore propendeva per liberare la PBL_MET, rilasciarla come oggetto open source, e permetterne l’uso a chiunque lo desiderasse. Fu Daniele, però, a prendere la decisione finale.

Il primo rilascio avvenne in sordina, nella pagina di scarico del sito web di Servizi Territorio srl.

Il vero passaggio importante avvenne, però, nel 2012, quando decidemmo insieme di predisporre una nuova libreria meteorologica, che si sarebbe chiamata pbl_met (molta fantasia…)

 

I modelli di dispersione e gli odori.

Prima parte: i modelli stazionari

Cosa sono i “modelli stazionari“?

Spesso accade di voler stimare la concentrazione di una sostanza odorifera in tutti i punti del suolo, cosa impossibile per via di misura dato il carattere locale delle misure stesse.

In casi come questo dobbiamo fare uso di un modello matematico. Tra i modelli matematici capaci di descrivere la concentrazione di un inquinante, o di una sostanza odorifera, i più utilizzati sono i modelli di dispersione.

E tra i modelli di dispersione, un tipo ancora oggi utilizzato è quello più semplice, rappresentato dai modelli stazionari, tra i quali AERMOD è un esempio famoso.

Ma: cos’è un modello “stazionario”, e quali sono le ipotesi che gli soggiacciono?

Per comprenderlo dobbiamo fare un salto indietro nel tempo, agli anni ’60 e ’70 del secolo scorso, quando i calcolatori elettronici erano ancora rarissimi, ed i calcoli erano compiuti usando le tavole numeriche, il regolo, e per i più fortunati una calcolatrice elettromeccanica.

Se volete farvi un’idea della tecnologia allora disponibile, e non lo avete già fatto, potete guardare lo splendido film Il diritto di contare. Guardandolo con attenzione, non vi sfuggirà che la versione originale del calcolo delle orbite nei primi voli del programma Mercury era compiuta usando metodi “analitici”, poi soppiantati dai metodi “numerici”, imposti dalle circostanze quando l’uso di lanciatori più potenti, ed i primi voli ad orbita multipla, richiesero di considerare effetti più complessi.

Ecco: il desiderio di una soluzione analitica. Di una formula che si possa, volendo, tabulare una volta per tutte. Tradurre in una collezione di nomogrammi, o di regoli calcolatori.

Ed in effetti, i primissimi modelli di dispersione non erano, come oggi, programmi per calcolatore, ma manuali comprendenti tavole numeriche, regoli, diagrammi. Nel mio ufficio, a Servizi Territorio srl, ne ho ancora uno, di provenienza ESSO, del 1972.

Ma: soluzione analitica di cosa? Delle equazioni di trasporto e diffusione in atmosfera dei traccianti gassosi non reattivi.

Queste equazioni, che potete trovare su ogni libro di testo che si occupi di dispersione di inquinanti in aria, e su Wikipedia, sono costituite dall’accoppiamento delle equazioni di Navier-Stokes, che descrivono l’andamento temporale e spaziale del campo di vento, e dalle equazioni di trasporto e diffusione vere e proprie. Prese come sono, queste equazioni differenziali alle derivate parziali non ammettono una soluzione esprimibile in forma chiusa. Perché si possa ottenere quest’ultima, occorre apportare alle equazioni originali delle semplificazioni piuttosto drastiche, fondate su alcune ipotesi. Tra queste:

  • L’emissione è costante nel tempo (per l’eternità).
  • Il vento è costante nel tempo (per l’eternità) e uniforme nello spazio.
  • La distribuzione delle concentrazioni nei punti dello spazio ha una forma Gaussiana.
  • La rapidità con cui avviene la diffusione degli inquinanti per effetto della turbolenza è piccola rispetto alla velocità del vento.

Se si ammettono vere queste ipotesi, e si trasformano le equazioni di trasporto e diffusione in modo da tenerne conto, si arriva ad una soluzione analitica, indipendente dal tempo (“stazionaria”), e dalla forma abbastanza semplice da poterla riportare in tavole numeriche abbastanza agili da poterle trasportare a mano.

Che cosa “esce” da un modello stazionario?

Prendiamo, ad esempio, AERMOD, un modello stazionario molto famoso.

Dal suo manuale possiamo vedere che nel modello “entrano” come dati di ingresso una o più “emissioni”, ciascuna caratterizzata da una posizione, da una geometria e da un rateo emissivo, e “la meteorologia”, nella forma di un file contenente i valori medi orari del vento e di altre grandezze che controllano i processi di trasporto e diffusione.

Se finiamo al modello questi dati di ingresso, e lo attiviamo, vediamo che questo produce in uscita una successione di campi di concentrazione, uno per ciascuna ora presente nel file dei dati meteorologici.

Qual’è il vero significato dei campi di concentrazione prodotti dal modello stazionario?

Ottenuti dal modello i nostri campi di concentrazione, viene fortissima la tentazione di credere che ciascuno di essi contenga la “media oraria” delle concentrazioni.

Ebbene, le cose non stanno così.

Le ipotesi che abbiamo vedute, e che soggiacciono alla soluzione analitica, rivelano come stanno in realtà le cose.

Intanto, sappiamo che emissione e vento sono “costanti per l’eternità” (e nello spazio, nel caso del campo di vento). Ogni campo “orario”, quindi, è quello che otterremmo rilasciando per un tempo infinito la medesima emissione nello stesso vento: emissione, e vento, “di quell’ora lì”.

Non stiamo parlando, quindi, di una concentrazione media, ma del risultato di un passaggio al limite, per il tempo che tende ad infinito.

Ed infatti, controprova. Se prendiamo le equazioni della concentrazione stazionaria, così come possiamo vederle per esempio su Wikipedia, e ne calcoliamo l’integrale di volume, troviamo un risultato infinito. Se la concentrazione fosse stata la media oraria di concentrazioni istantanee prodotte da emissioni finite, invece, avremmo dovuto trovare un valore finito, e uguale alla massa rilasciata complessivamente dalle sorgenti emissive.

Che l’integrale di volume delle concentrazioni stazionarie sia infinito non sorprende, se riflettiamo un attimo: l’emissione è avvenuta, a rateo finito, per un tempo infinito. Quindi la massa rilasciata è in effetti infinita.

Se osserviamo l’equazione della concentrazione stazionaria, poi, vediamo che contiene la velocità del vento a denominatore. Se operiamo un passaggio al limite con il tempo che tende a zero, vediamo che i valori locali della concentrazione stazionaria tendono ad infinito. Questo fenomeno è descritto dagli esperti dicendo che “la concentrazione diverge con il diminuire della velocità del vento”.

Ora, in effetti, nei modelli come AERMOD e ISC vediamo che esiste una velocità limite, che viene confrontata ora per ora con la velocità letta dal file dei dati meteorologici. Se quest’ultima risulta inferiore alla velocità limite, allora viene sostituita con la velocità limite.

Se guardiamo bene, vediamo che il valore di questa velocità limite non è prossimo a zero, ma altissimo, uguale nel caso di ISC ad 1 m/s. Una leggenda metropolitana molto diffusa afferma che la presenza della velocità limite è legata al fenomeno della divergenza della concentrazione di cui ho appena scritto.

La realtà, però, è differente. L’ultima ipotesi afferma che perché esista una soluzione analitica, la velocità del vento deve essere maggiore della velocità di retro-diffusione. Che, in condizioni normali, è di regola piuttosto elevata, e che può raggiungere (e qualche volta superare, in condizioni di convezione particolarmente intensa) 1 m/s. Guarda un po’ il caso…

Il fenomeno della divergenza, quindi, è una specie di artefatto matematico: è vero, se la velocità del vento tende a zero l’equazione della concentrazione stazionaria tende ad infinito. Ma molto prima di arrivarci, a zero, l’equazione… smette di esistere!

E gli odori?

Proviamo a tirare le somme.

Abbiamo visto che un modello stazionario, per sua natura costruttiva, produce concentrazioni al suolo che non sono medie orarie, ma situazioni-limite riferite ad un tempo infinito.

La percezione degli odori, invece, avviene alla scala temporale di un singolo ciclo di inspirazione-espirazione: circa 12 secondi, od anche meno.

Non c’è che dire: confrontando queste due scale temporali vediamo che l’uso di un modello stazionario nel caso degli odori ci porta completamente fuori strada.

Eppure, i modelli stazionari sono stati usati piuttosto spesso, nel caso della dispersione di sostanze odorifere. La ragione di ciò è da rintracciare nella forza dell’abitudine (i modelli stazionari erano molto usati per stimare la qualità dell’aria sino a poco fa – diciamo una decina d’anni), e della loro semplicità, che permette di compiere i calcoli con elaboratori piccoli e relativamente economici.

Resta però il fatto che i campi “orari” prodotti dai modelli stazionari non hanno alcun rapporto identificabile con i picchi quasi istantanei che interessano nel caso degli odori.

E così, dopo un lento declino, siamo arrivati ai nostri giorni nei quali si assiste alla tendenza ad una rapidissima estinzione.

Decisamente, nel caso degli odori i modelli stazionari non sono il futuro…

I modelli di Lotka-Volterra generalizzati: storia di un fallimento fastidioso, ma molto, molto fecondo

Antefatto

La micro-meteorologia è una disciplina di confine, e come tutte le discipline di confine ha molte radici.

In questo articolo ne vedremo una, un po’ sorprendente per chi abbia un passato fisico. Ma, importante, e molto interessante – anche per quanto riguarda l’aspetto generale dell’utilità dei modelli matematici.

Una radice, biologica.

O più precisamente, sprofondata nel terreno dell’ecologia delle comunità.

Siamo circa alla fine degli anni ’80 del secolo scorso.

E’ un periodo ribollente, grazie alla diffusione dei primi calcolatori personali. Il calcolo aiuta la fantasia, e permette di immaginare applicazioni e tendenze che, prima, non erano neanche lontanamente concepibili.

E’, anche, un’epoca di grande ottimismo, almeno nel campo della biologia.  I progressi recenti nelle tecniche di osservazione hanno permesso di iniziare il sequenziamento dei geni più piccoli, e sulla scorta di questo progresso va consolidandosi un paradigma nuovo: la vita, come fenomeno deterministico. Quantificabile. Riducibile ad una descrizione algoritmica – e il meccanismo di traduzione dell’informazione contenuta nel DNA in proteine richiama in effetto molto da vicino un processo di codifica svolto da una Macchina di Turing.

Se una cosa del genere accadeva alla scala piccola degli individui, non poteva qualcosa di simile essere vero più in grande? Al livello di intere popolazioni, o di comunità ecologiche?

Col senno di poi, possiamo dire che tutto quell’ottimismo era in larga misura mal posto. Ma alcuni dei suoi strascichi hanno portato a scoperte molto interessanti. Tra queste, l’argomento di cui parliamo, i Modelli di Lotka-Volterra Generalizzati.

Predatori e prede: le equazioni di Lotka-Volterra

I Modelli di Lotka-Volterra Generalizzati sono una forma estesa del modello originale di Lotka-Volterra, introdotto indipendentemente nel corso degli anni Venti dello scorso secolo da Albert J. Lotka e Vito Volterra.

Il modello di Lotka-Volterra descrive l’interazione tra due popolazioni di specie diverse, in cui una si nutre a spese dell’altra.

Come in tutti i modelli di dinamica delle popolazioni in uso a quel tempo, anche il modello di Lotka-Volterra si esprime con un sistema di equazioni differenziali ordinarie del primo ordine:

In questa formula, i simboli Pp rappresentano rispettivamente le abbondanze della preda e del predatore; r è il tasso di accrescimento della popolazione preda, fosse lasciata in pace dal predatore; -s, un numero negativo, rappresenta il tasso di decrescita del predatore, decidesse di non nutrirsi a spese della preda. E infine, b è proporzionale all’entità di popolazione che la preda subisce ad opera della predazione, mentre kb è proporzionale al guadagno che la popolazione predatrice ricava per effetto della predazione.

Se facciamo finta che la preda e il predatore abbiano circa le stesse dimensioni e peso, è più che ragionevole assumere che il valore di k, una specie di rendimento di conversione della ciccia-di-preda in ciccia-di-predatore, sia positivo, ma minore di 1: stime condotte più o meno a spanne indicano per k un valore sensato dell’ordine di 0.1 – cioè, di tutta la biomassa che il predatore preleva dalla sua preda, solo un decimo si trasforma in biomassa del predatore.

Il bello del modello di Lotka-Volterra è che, in situazioni molto semplici, sembra funzionare. E spiega anche molto bene, in modo diretto, per un puro effetto matematico, l’andamento oscillante che si osserva in numerose coppie obbligate preda-predatore, specie in ambienti chiusi come nel caso di volpi e conigli nella taiga artica.

Il modello di Lotka-Volterra ha trovato anche altre applicazioni, per esempio nel campo dell’economia, con l’avvertenza di sostituire l’abbondanza di individui, o la biomassa, con il denaro, le prede con consumatori, e i predatori con produttori.

Il modello di Lotka-Volterra generalizzato

Ora: per quale motivo soltanto due popolazioni, e non di più? Perché, allora, non un’intera comunità trofica?

E perché, già che ci siamo, non ammettiamo la possibilità che la crescita dei produttori primari sia limitata da qualche fattore, come ad esempio lo spazio, o la quantità di azoto fissata nel terreno?

Se immaginiamo di abbracciare queste nuove ipotesi, arriviamo ad un’estensione del modello originale di Lotka-Volterra tutto sommato naturale e semplice da scrivere:

Questa formula è il “Modello di Lotka-Volterra Generalizzato” (GLV per gli amici). Le differenze rispetto alla versione originale sono:

  • Le specie possono essere più di due.
  • I tassi di crescita o decrescita, uno per ciascuna delle popolazioni, si possono immaginare arrangiati in un vettore, r.
  • Le interazioni tra le specie sono descritte da una “matrice di comunità”, C, quadrata, di ordine pari al numero di specie.
  • Gli elementi della matrice di comunità che si trovano sulla diagonale principale, e che descrivono l’effetto di feedback che una popolazione ha su sé stessa – cioè l’effetto dei fattori limitanti, possono essere diversi da zero (nel modello originale di Lotka-Volterra sono sempre nulli).
  • Gli elementi della matrice di comunità che si trovano su lati opposti della diagonale principale, e che nel caso del modello originale esprimevano il trasferimento (e la dissipazione) di biomassa dalla preda al predatore, adesso possono assumere qualsiasi valore. In particolare possono essere entrambi positivi (entrambe le specie ci guadagnano dall’interazione, come in una simbiosi mutualistica), o negativi (le due specie si combattono attivamente a vicenda, come accadeva tra i nostri antenati ed i grandi predatori della savana), oppure di segno opposto (una specie ci perde e l’altra ci guadagna, come nelle interazioni preda-predatore o ospite-parassita), oppure ancora, uno o due dei valori sono nulli (una delle specie non ha alcun effetto sull’altra).

Promettente, vero?

E, anche, molto facile da programmare con un calcolatore come quelli che si rendevano sempre più disponibili nella seconda metà degli anni Ottanta, con l’avvento del personal computer, e la sua diffusione nei dipartimenti universitari e nelle case private.

(Per inciso: i miei primi modelli di Lotka-Volterra generalizzati li ho codificati in una calcolatrice programmabile TI-58C, durante il mio periodo di internato volontario nel gruppo di ricerca del professor Guido Pacchetti, al Dipartimento di Biologia dell’Università Statale di Milano – era, più o meno, il 1983; la velocità di esecuzione non era proprio grandissima – ogni passo temporale richiedeva una quindicina di secondi – ma era comunque enormemente maggiore di quella che avrei potuto raggiungere facendo i calcoli a mano, con l’aiuto di una normale calcolatrice da tavolo, che poi ai miei tempi era ancora il metodo “normale”.)

Il problema della stabilità

Errori numerici a parte (per risolvere problemi differenziali come quelli dati dal modello di Lotka-Volterra generalizzato il “brutale” metodo di Eulero non è il massimo, e metodi tipo Rune-Kutta sono decisamente preferibili – ma, con le risorse allora disponibili, non si sottilizzava troppo), i modelli di Lotka-Volterra generalizzati (GLV per gli amici) mostravano un piccolo, trascurabile difetto – diciamo così. Se provavi ad assegnare la matrice di comunità C nel modo più realistico possibile, e attribuivi alle abbondanze delle specie un valore iniziale inversamente (più o meno) proporzionale al livello nella catena alimentare, molto spesso dopo un numero anche piccolo di passi temporali una o più delle specie assumevano un’abbondanza negativa: si estinguevano.

Magari, nel frattempo, qualche altra specie divergeva e cominciava a crescere esponenzialmente (cosa che, a mia memoria, accadeva piuttosto di rado, e sempre per qualche errore nell’impostazione della matrice di comunità o del vettore dei tassi di variazione intrinseca).

Si vede che i “nostri” problemi non erano solo conseguenza di qualche errore sistematico, o di un effetto dovuto all’aria milanese: piuttosto presto comparvero articoli nei quali altri gruppi, piuttosto allarmati, dichiaravano problemi di stabilità.

Strano, data la ricchezza espressiva del modello GLV, che pareva riuscisse a racchiudere tutte le possibili interazioni tra specie e specie, e che a priori avrebbe dovuto poter descrivere facilmente la dinamica di ogni ecosistema.

Ci furono, ricordo, vari tentativi di miglioramento. Per esempio, passando dalla rappresentazione delle popolazioni per abbondanza a quella per biomassa. O, riscrivendo le equazioni applicando astuti metodi di scaling.

Ma, niente. Le comunità simulate dai modelli GLV continuavano a perdere pezzi (specie) per strada, sino a ridursi al nulla. Le poche che davano qualche segno di stabilità erano artificiali, semplicissime, con modalità di trasferimento di biomassa peculiari.

E non basta: alcune combinazioni di matrice di comunità e tassi di variazione intrinseci davano luogo a soluzioni caotiche – molto belle e stimolanti sul piano matematico, ma non proprio esattamente vicinissime  a quello che si può vedere in Natura.

Era piuttosto ovvio che qualcosa sfuggiva. Qualcosa di macroscopico.

Muore un’idea vecchia. Nasce un’idea nuova.

Proprio nel momento di massima perplessità (era divenuto sin troppo evidente che i modelli GLV non spiegavano la complessità degli ecosistemi che si trovano su questo pianeta), lasciai il gruppo del professor Pacchetti – dovevo concentrarmi sui miei studi, cercando con fatica di prendere la mia laurea in matematica, indirizzo applicativo, e già che c’ero cercarmi un lavoro.

Ma non persi del tutto i contatti, e potei raccogliere la storia di “com’è andata dopo” direttamente dalla voce di Guido, e, indirettamente, dalla storia delle tesi di alcuni suoi laureandi.

In effetti, il “baco macroscopico” c’era. Lì, in piena luce, ma nessuno aveva avuto modo di pensarci, tutti i gruppi essendo presi dalle relazioni tra specie.

Il problemone, in effetti, era l’interazione delle specie con l’ambiente fisico.

Al tempo dello sviluppo dei modelli GLV, con un atto molto antropomorfico, si buttava tutto il cuore (anche la ricerca scientifica lo ha, non di rado piuttosto conservatore, o quantomeno condizionato da sorprendenti elementi di soggettività) dalla parte dei predatori. Perché, primo, noi umani siamo il Predatore di Vertice; e, secondo, tutti i predatori non umani ci ispirano un senso di trasporto, di empatia, che difficilmente riserveremmo a dei brucatori, o a delle piante. Non per caso, i nostri amici a quattro zampe sono cani e gatti – predatori, con una testa da predatore, e quindi con tanto in comune con noi – mentre le mucche le alleviamo (per mangiarle), e le piante le coltiviamo (idem).

Noi predatori, vuoto per pieno, ricaviamo tutto il nostro sostentamento dalle nostre prede naturali. E una comunità trofica “a misura di testa di predatore” sarebbe una rete di relazioni tra specie in cui ognuna ricava il suo sostentamento dalle altre. Insomma: sarebbe descritta da un modello GLV, e “chiuso il cinema”.

Ma non ci sono solo i predatori.

Ci sono anche le prede.

E, tra queste, quelle alla base della base di tutta la catena alimentare: le piante verdi, i cianobatteri.

Le creature autotrofe.

Che da qualche parte devono pure ricavarlo, il loro sostentamento.

Ed in effetti lo ricavano, scambiando massa ed energia con il “mondo minerale”.

In effetti, gli scambi tra mondo minerale e biosfera sono ingentissimi, almeno un ordine di grandezza maggiori di tutti gli scambi di tutte le specie tra loro.

Questi scambi, di enorme dimensione, avvengono con tranquilla continuità, con molta calma, e noi frenetici animali non siamo nella posizione migliore per percepirli. Avvengono troppo “lentamente”.

Ma è grazie ad essi, che le piante verdi e i cianobatteri regolano attivamente la percentuale di ossigeno nell’atmosfera, a loro uso, per crearsi un ambiente ottimale nel quale la fotosintesi clorofilliana può procedere senza intoppi, e non c’è il pericolo di una sua inversione in “fotorespirazione”, cosa che accadrebbe ad una concentrazione di ossigeno troppo alta. Oppure, nel quale l’acqua fluisce dalle piante verso l’atmosfera (rendendo conto di circa il 70% dell’evaporazione sulla terraferma) ad un rateo compatibile con le necessità delle cellule vegetali.

Insomma: i modelli GLV davano per scontata una sorta di posizione dominante da parte di noi umani e delle creature più simili a noi, nell’economia generale della vita. La realtà, però, è molto diversa: la fama di vita davvero dominante è quella “vegetale” in senso lato, e noi animali siamo un piccolo disturbo (funzionale alla sopravvivenza delle piante, e soprattutto alla loro decomposizione). Piante, cianobatteri, archeobatteri, a loro volta sono impegnati in colossali scambi nei quali giocano un ruolo determinante numerosi fenomeni fisici.

Ad esempio, la turbolenza negli strati più bassi dell’atmosfera.

Questa constatazione, originata dal fallimento dei modelli GLV, ha avuto conseguenze di grandissima importanza, innescando una sorta di rivoluzione copernicana.

Flussi di (materia ed) energia

Quindi: la descrizione in termini di scambio di biomassa tra specie viventi non funzionava.

Ma una descrizione più completa, in termini di flussi di energia (e di un po’ di biomassa, che in fondo è una sorta di energia immagazzinata in forma chimica, e di sostanze inorganiche varie), poteva invece dare risposte più sensate.

E così, in effetti, è accaduto: gli ecosistemi hanno trovato una descrizione più efficace, in termini di flussi di energia e di materia.

La matematica che sta dietro a questa descrizione, inutile dire, è più complicata di quella dell’algebra lineare dei modelli GLV: adesso, si usano sistemi di equazioni differenziali alle derivate parziali.

E’, anche, nata una nuova disciplina, l’ecologia degli ecosistemi, che descrive l’interazione tra biosfera e sistema-Terra visto nel suo complesso, con variabili indipendenti che non sono più (soltanto) abbondanze di specie o biomasse, ma, grandi flussi di nutrienti ed energia a scala globale, o di grandi regioni geografiche.

La necessità di studiare i flussi di massa e di energia che occorrono tra grandi sotto-sistemi, nel caso tra superficie della Terra e biosfera da un lato, ed atmosfera dall’altro, ha contribuito alla fioritura di interesse per tecniche di misura come la eddy covariance, che oggi trova applicazioni non solo nel campo della fisica dell’atmosfera, ma anche nelle scienze agricole e forestali, con un’attenzione particolare ai flussi di calore, vapore acqueo, anidride carbonica e, ultimamente, anche metano ed ammoniaca.

Tutti gli studi in corso contribuiscono a darci un quadro del sistema-vita molto più articolato di quanto accadeva al tempo dei modelli GLV. Un quadro, nel quale le connessioni interessano non soltanto l’interno della biosfera, ma elementi spesso sorprendenti del sistema-Terra, del Sole, dell’atmosfera e dell’idrosfera. Su scale temporali che, ormai, coprono un intervallo che va dalle centinaia di milioni di anni al decimo di secondo.

Molto c’è ancora da scoprire, di misterioso ed affascinante. In questi ultimi anni, ad esempio, stanno moltiplicandosi studi nei quali si cerca di indagare il modo, apparentemente molto raffinato, in cui le molecole della vita riescono a sfruttare fenomeni di natura quantistica nonostante le loro grandi dimensioni, ottimizzando reazioni (come la fotosintesi) che, in un mondo puramente classico, non sarebbero così singolarmente efficienti come sono invece in Natura.

Insomma, stiamo comprendendo sempre più di non sapere.

Una cosa, comunque, risulta chiara: i modelli GLV erano senza dubbio “sbagliati”, ma il loro errore è stato, come minimo, felice. Il superarlo, ha aperto strade che non potevamo, prima, immaginare.

L’uso delle riprese time-lapse delle nubi come mezzo per visualizzare la circolazione locale (e non) dell’aria

 Una ricerca superficiale su Internet ci può fare facilmente scoprire centinaia di webcam disseminate sul territorio.

Molte di queste non si limitano ad acquisire immagini statiche di tanto in tanto, ma sono anche in grado di registrare filmati, spesso nella modalità “time lapse“.

Per chi ancora non ne abbia veduto uno, qui sotto ho riportato un esempio, un collage di tre inquadrature riprese da Moggio Valsassina guardando verso le Grigne ed i Piani di Artavaggio. In pratica, un filmato time lapse è costituito dall’assemblaggio di fotografie scattate ad intervalli regolari nel tempo.

La relazione tra il rateo di proiezione delle fotografie nel filmato e l’intervallo di tempo reale tra foto consecutive determina un effetto di accelerazione.

Il filmato qui sopra, per esempio, è stato ottenuto scattando le singole fotografie ogni 2 secondi, con un rateo di proiezione di 30 immagini al secondo. Questo vuol dire che un secondo di tempo di proiezione (30 fotogrammi) equivale a 30*2, cioè 60 secondi di tempo reale, per un’accelerazione apparente del tempo pari a 60 volte.

L’accelerazione apparente del tempo permette di seguire l’evoluzione di fenomeni troppo lenti perché noi possiamo percepirli ad occhio nudo, come ad esempio l’aprirsi e chiudersi dei fiori, il crescere dei vegetali, o lo svilupparsi di una grande struttura in costruzione, come un edificio od una nave.

Oppure, anche, il muoversi ed il continuo trasformarsi delle nubi nel cielo.

In moltissimi casi, il movimento apparente delle nubi risulta dalla complessa interazione tra il flusso dell’aria, con il suo complicato apparire a quote diverse ed in presenza di ostacoli naturali come le montagne, e i delicati equilibri dinamici dovuti all’alternanza di condensazione ed evaporazione – come accade per esempio con le nubi orografiche che sembrano stazionare sulle cime dei rilievi nelle giornate calde di bel tempo, e che sono dovuti al continuo formarsi e dissolversi di nubi da condensazione, mentre l’aria investe la montagna, si innalza raffreddandosi, per poi ridiscendere riscaldandosi, con effetto sulla condensazione.

Tutti questi effetti, ad ogni modo, sono chiaramente riconoscibili e distinguibili in un filmato time lapse. Già nell’esempio che ho riportato possiamo distinguere facilmente regimi di circolazione diversi alle varie quote. Figuriamoci cosa potrebbe coglierne un occhio esperto, e quale appoggio potrebbe dare, con immagini che come spesso accade valgono centinaia di parole, ad una conferenza, o una lezione.

Certo, perché le immagini possano avere un reale uso didattico è bene soddisfino ad alcuni requisiti di base – che non è detto i filmati raccolti automaticamente dalle webcam abbiano in pieno.

Per esempio, esposizione e contrasto non dovrebbero mostrare eccessivi “salti” durante la proiezione. Poi, l’immagine dovrebbe fluire con regolarità, e non a scatti. In presenza di aree con luminosità molto diverse, le immagini non dovrebbero oscurarne alcune e bruciarne altre.

Insomma: per ottenere risultati utili serve un po’ di lavoro fotografico.

Ma la tecnologia di oggi viene in soccorso, con programmi di assemblaggio ed editing delle sequenze time lapse, o addirittura con videocamere dedicate (a basso costo, oltretutto – tra le webcam di fascia media e le macchine fotografiche compatte). Non desidero, in questa sede, fare pubblicità agli uni od agli altri, ma una ricerca anche breve su Internet vi mostrerà decine di opportunità.

Certo, che vedere immagini di nubi in movimento fa senz’altro pensare e, allo stesso tempo, apprezzare (in modo molto rilassante) la meraviglia del mondo.

CALMET, come forse non lo avete mai veduto

Ad oggi, nella pratica corrente Calmet è il ricostruttore meteorologico più utilizzato in Italia, per la produzione degli input meteorologici ai modelli CALPUFF e CALGRID.

I casi d’uso tipici nei quali CALMET viene impiegato sono due:

  • Infittire e rendere praticamente usabili gli output di un modello meteorologico a mesoscala o regionale.
  • Ricostruire i campi di vento tridimensionali partendo da un insieme di misure da stazioni meteorologiche “al suolo” e da profili verticali (misure SODAR, radiosondaggi, …).

Tra i due, il secondo si presenta particolarmente interessante negli studi di impatto ambientale, perché permette – almeno sulla carta – di ottenere campi di vento e di turbolenza a costi contenuti, utilizzando dati ampiamente diffusi sul territorio.

CALMET, d’altra parte, ha una struttura interna molto “semplice”, che per produrre risultati realistici richiede molto lavoro di tuning da parte degli utilizzatori.

Si pone così il problema di come valutare la qualità dei risultati, in modo da guidare questa operazione di adattamento dei parametri del modello sino a soddisfazione degli operatori.

La strada normale prevede l’uso di opzioni diagnostiche di CALMET che permettono di ottenere, ad esempio, la serie storica di alcune misure meteorologiche in un punto.

Ma decisamente meglio sarebbe poter vedere il campo di vento su tutto il dominio di calcolo, in modo da poter notare più facilmente situazioni critiche legate in qualche modo allo spazio, più che al solo tempo.

E qui vengono in soccorso procedure realizzate da terze parti, come ad esempio la MetDecode di Servizi Territorio srl. Questo codice, usato internamente a supporto degli studi di impatto ambientale, in una delle sue modalità operative permette di ricostruire filmati dell’andamento del vento, per esempio al suolo.

Come quello che segue:

Successione di campi di vento orari alla superficie del suolo generati usando il modello CALMET, partendo dai dati della stazione meteorologica di Valmadrera (ARPA Lombardia, collocata al centro dell’immagine) e dai 4 profili contigui LAMMA (circa ai 4 vertici)

Osservando bene la distribuzione delle frecce, possiamo notare come queste si distribuiscano in “cluster”, ciascuno rappresentativo di una situazione locale e, nel caso del cluster al centro, dalla stazione meteorologica di Valmadrera, che con le sue misure “guida” per così dire il modello.

I bordi sono invece dominati da 4 profili generati dal modello meteorologico LAMMA, e si può vedere come di tanto in tanto, pur concordando tra loro, tendano a differire dalle misure al suolo.

Grazie a filmati come questo, è così possibile identificare una condizione potenzialmente anomala (in questo caso conseguenza dell’impiego di dati di origine molto differente, e del fatto che i risultati di un modello come LAMMA hanno una portata regionale, ma non ricostruiscono fenomeni locali visibili invece da una stazione meteorologica). Un elemento in più, per i controlli di qualità negli studi di impatto ambientale.