lunedì, gennaio 30, 2012

La produzione di tempo

Di Armando Boccone



Da molti studiosi il futuro è descritto a tinte molto fosche.
Si avvicina il  momento in cui l’offerta di combustibili fossili non reggerà più la domanda. Forse ciò sta già avvenendo visto le tensioni e le guerre da alcuni decenni a questa parte nelle aree produttrici di risorse energetiche, visto la crisi finanziario-economica scatenata, dicono alcuni studiosi, anche dall’aumento del prezzo del petrolio, e che interessa il mondo intero ormai dal 2008 e, infine, visti gli sconvolgimenti politici che, a partire dagli inizi del  2011, interessano il Maghreb e il Medio Oriente.
Inoltre molti equilibri ecologici rischiano di saltare. Si prevedono effetti sconvolgenti a livello mondiale se le cose continueranno allo stesso modo in cui si sono sviluppate finora (alcuni studiosi dicono che le cose sono compromesse in ogni caso, anche se le cose cambiassero da subito).

Molti studiosi continuano dicendo che non può esserci sviluppo infinito in un mondo che è finito. Il pianeta Terra infatti ha dei limiti fisici che non possono essere superati e, anzi, sembra che l’umanità sia in debito verso il pianeta Terra, nel senso che  si è andati oltre la capacità del pianeta di rigenerarsi. Se inoltre tutte le popolazioni del mondo desiderassero vivere come negli Stati Uniti e in Europa (ma si ricorda che una parte della popolazione mondiale vive con problemi di approvvigionamento di cibo e acqua potabile), se si desse inizio a uno sfruttamento intensivo di combustibili fossili estraendoli da scisti e sabbie bituminose oppure estraendoli in posti difficili come in alto mare oppure in zone sempre ghiacciate…(ma ciò sta già avvenendo), allora l’umanità andrà incontro a una catastrofe certa.
Inoltre (per mettere in evidenza, nel contempo, la complessità e la contraddittorietà  dell’attuale situazione che si è creata), alcune ricerche hanno messo in evidenza che nei Paesi sviluppati non c’è più un rapporto diretto fra aumento della produzione e aumento di benessere. C’è stato un rapporto diretto fino agli anni settanta del secolo scorso ma dopo non più e, in alcuni casi, il rapporto si è addirittura invertito.

Si conclude invocando un nuovo paradigma, cioè un nuovo modello di vita. A fronte dalle cose dette, questo nuovo modello di vita dovrà essere davvero rivoluzionario per dare qualche chance a tutta l’umanità di esistere in buone condizioni. Quale dovrà essere l’elemento rivoluzionario al centro di questo nuovo modello di vita?

Sarà il primato della dimensione tempo l’elemento rivoluzionario al centro del nuovo modello di vita! Per la precisione si passerà, con un complesso rapporto dialettico, dal primato della dimensione spazio (sempre maggiore produzione di beni) al primato della dimensione tempo (più lunghe prospettive di vita per il genere umano).

Ma cosa  significa l’introduzione del primato della dimensione tempo nella cultura umana? Significa che l’umanità d’ora in poi dovrà interessarsi non a produrre di più ma, contemporaneamente e in modo dialettico, a soddisfare più adeguatamente possibile i suoi bisogni e ad aumentare il più possibile le sue prospettive di vita.

L’imperativo, in questo nuovo modello di vita, dovrà quindi essere il soddisfacimento più adeguato possibile e per tempi più lunghi possibile dei bisogni umani. Davanti a ogni scelta bisognerà chiedersi: che cosa soddisfa più adeguatamente e per tempi più lunghi possibili i bisogni umani? Questa affermazione è enormemente rivoluzionaria se si guarda alle conseguenze che porterà a tutti i livelli della vita umana.

In una azienda industriale significherebbe che non si dovrà produrre di più ma produrre di meno e che, però, bisognerà produrre macchine che durino moltissimo e che sia possibile, riparandole, allungare il loro tempo di vita. Bisognerà abbandonare la produzione di beni a “obsolescenza programmata” e che non rendano possibile le riparazioni e, soprattutto, bisognerà abbandonare la produzione di beni che non soddisfano bisogni concreti ma solamente i profitti dei produttori (ma la situazione, riguardo alla decisione dei beni da produrre, è molto più complessa).
In una azienda di distribuzione questo nuovo modello di vita significherebbe non vendere di più ma di meno, eliminando tutte quelle forme di promozione delle vendite (per esempio le offerte “prendi due e paghi uno” o le varie altre forme di sconti, l’assegnazione di regali al raggiungimento di un certo punteggio legato agli acquisti fatti dai clienti, ecc.) che portano a enormi sprechi soprattutto di beni alimentari deperibili.
Vi immaginate i proprietari e i dirigenti di queste aziende che abbiano come obiettivo non l’incremento del fatturato e degli utili ma il soddisfacimento in modo più adeguato possibile e per tempi più lunghi possibili dei bisogni umani? (con che cosa poi dovrebbe essere premiato il raggiungimento degli obiettivi di consumare di meno? Con l’ottenimento di maggiore reddito che consente di consumare di più?)
Vi immaginate che come conseguenza rivoluzionaria di questo nuovo modello di vita nelle aziende si dovrà ridurre sia l’orario di lavoro che la retribuzione?
Vi immaginate le conseguenze sul sistema informativo quando si dovrà fortemente ridurre se non eliminare la pubblicità? Vi immaginate le conseguenze sui rapporti di proprietà dei mezzi di produzione?

Che cosa dire poi di quell’altra conseguenza rivoluzionaria (non so se più rivoluzionaria delle altre ma quanto meno la più efficace) che sarà la riduzione della popolazione? Con la riduzione della popolazione si allungherebbe enormemente l’aspettativa di vita dell’umanità e, nello stesso tempo e in modo dialettico, aumenterebbero le possibilità di soddisfare più adeguatamente i bisogni umani.

Che cosa dire poi del vuoto psico-culturale  che si creerà nella vita degli  uomini quando verrà meno quell’insieme di motivazioni che guidano tutti i comportamenti quotidiani (dall’acquisto della nuova autovettura e/o telefonino, ai viaggi, al seguire le più svariate e nuove mode)? Cosa prenderà il loro posto?

Diceva Aurelio Peccei negli anni settanta del secolo scorso che la via di uscita da questa situazione sarà una rivoluzione culturale (per la precisione usava l'espressione "evoluzione culturale")  che dovrà riguardare l’umanità in tutta la sua variegata articolazione, dai rapporti interpersonali alle organizzazioni mondiali. L’uomo infatti vive dominato da residui culturali del passato (che, per esempio, hanno portato nei secoli scorsi al principio della sovranità nazionale, e in tempi più recenti, all’ossessione della crescita economica e dei consumi, ecc.) che ormai sono apertamente in contrasto con i limiti del pianeta terra. L’uomo non può più correre freneticamente nel traffico urbano, verso ambienti climatizzati, per andare a prendere un aereo, oppure verso la propria TV e verso il proprio frigorifero. Sono necessari nuovi valori, nuove motivazioni spirituali, sociali, politiche, estetiche, artistiche e nuovi modi di stare con gli altri uomini, basati sull’amicizia, la solidarietà, la convivialità.

Bisogna chiedersi se le vecchie culture (per semplificare quella di destra e quella di sinistra) siano adeguate alla nuova sfida che la nuova realtà impone. La risposta è negativa perché tutte e due, anche se in modi diversi, mirano alla crescita. Qualche tempo fa ho rivisto dei vecchi appunti (considerazioni) di quando facevo l’Università. Gli appunti riguardavano il pensiero di Marx. Per la precisione riguardavano la teoria del “materialismo dialettico”, che vede la storia come rapporto dialettico fra uomo e natura o, per meglio dire, fra il bisogno e il suo soddisfacimento: la considerazione che annotai in questi appunti era che questo rapporto non teneva conto della dimensione tempo, non teneva conto cioè che questo rapporto avrebbe dovuto essere oltre che completo anche per sempre.
Marx ovviamente era figlio del suo tempo e a quei tempi non c’era coscienza dei limiti dello sviluppo.

Per concludere bisogna dire che ci aspettano lacrime e sangue… ma che le scelte da fare sono obbligate!

sabato, gennaio 28, 2012

Perché le tartarughe marine temono il riscaldamento globale

Di Marco Affronte
Pubblicato anche su Sottobosco.info


E’ noto e dimostrato come molti aspetti del ciclo vitale delle tartarughe marine siano legati a fattori di tipo climatico, ad esempio la temperatura (sotto diversi punti di vista, ma soprattutto, come vedremo, per la temperatura della sabbia dove depongono le uova) e la frequenza di maltempo e tempeste.
Negli ultimi anni, lo sappiamo bene, i cambiamenti climatici e il riscaldamento globale sono temi assolutamente di attualità. 



Le temperature atmosferiche, ci fa sapere l’IPCC (cioè l’Intergovernmental Panel on Climate Change, dunque un gruppo di esperti internazionali che studiano i cambiamenti del clima), sono salite a livelli mai registrati da quando questo valore viene registrato (1850), mentre le temperature medie dei mari si ritiene siano di 0,7 °C più calde di quanto non siano mai state negli ultimi 420.000 anni.

Il clima dunque come fattore fondamentale nel ciclo biologico delle tartarughe marine, e i cambiamenti climatici come realtà inoppugnabile e dunque come minaccia per questi antichissimi rettili marini. Eppure, sebbene alcuni articoli scientifici in qualche modo pionieri, siano apparsi già negli anni ’80, l’interesse dei ricercatori per questo argomento è cosa molto recente. Nei primi anni del nuovo millennio, i lavori scientifici pubblicati ogni anno si contano sulle dita di una mano, mentre approssimativamente dal 2007 in poi, l’interesse è andato crescendo.

La temperatura, si diceva, gioca un ruolo fondamentale in diverse fasi vitali delle tartarughe marine. Molti fattori conseguenti al rialzo delle temperature – acidificazione degli oceani e crescita del livello del mare, aumento degli eventi climatici estremi, variazioni delle precipitazioni – possono modificarne abitudini e comportamenti consolidati da secoli, con conseguenze anche difficili da predvedere.
Ma la preoccupazione maggiore è per le spiagge. Come è noto le tartarughe marine lasciano l’acqua per un solo, fondamentale, motivo: deporre le uova, scavando buche nella sabbia. L’IPCC prevede che il livello degli oceani si alzerà di 4,3 mm all’anno, da qui al 2080. Questo vorrebbe dire la scomparsa di molti siti di deposizione, e una enorme minaccia per la sorte delle tartarughe.

Eppure c’è qualcosa che pone un rischio ancora più elevato: infatti il parametro che maggiormente preoccupa chi studia questi rettili è… la temperatura della sabbia.
Infatti le uova, che vengono deposte appunto in buche scavate nelle sabbia, hanno necessità di un intervallo di temperatura ottimale, che va dai 25 ai 35 °C. Non solo: gli embrioni contenuti nelle uova, al momento della deposizione, “non hanno sesso”, cioè sono geneticamente indeterminati. 

Il fattore determinante è proprio la temperatura: se questa, all’interno del nido, è inferiore a 28 °C, nasceranno dei maschi, se supera invece i 31 °C, nasceranno femmine L’intervallo 28-31 °C, la cosiddetta temperatura pivotale, darà origine, in egual misura, a maschi e femmine.
Così, ogni nido avrà una temperatura media che cade dentro una delle tre fasce e di conseguenza darà vita a nidiate di un sesso o dell’altro, oppure intermedie. Dal momento che può succedere che la parte più profonda del nido sia più fresca di quella superficiale, anche di 1,4 °C secondo gli studi effettuati, possiamo avere anche nidi di fascia, diciamo così, mista.

E’ chiaro però come l’aumento continuo e inesorabile delle temperature del pianeta possa portare a un fenomeno di cosiddetta femminizzazione della specie. Ragionando per astratto, se tutte le spiagge raggiungeranno un giorno temperature medie superiori ai 31 °C, tutte le nuove generazioni di tartarughe marine saranno femminili, e queste specie saranno condannate all’estinzione. Di fatto, basterebbe anche una sex ratio (cioè un rapporto maschi-femmine) molto sbilanciato, per causare grossi problemi.

Il futuro è quindi nero, per le tartarughe marine? Ovviamente dipende da quanto l’uomo, artefice principale del riscaldamento globale, saprà porre dei freni e dei rimedi a questa situazione. Ma altri elementi entrano in gioco. Intanto la temperatura delle sabbie dipende da molti fattori, non solo dalla temperatura esterna (anche se esiste una forte correlazione fra i due valori), ad esempio il colore e la granulometria della sabbia. Ad Asciension Island, tanto per citare un caso noto, ci sono spiagge nere dove nascono femmine e spiagge chiare dove nascono maschi.

Inoltre è possibile, sebbene non del tutto probabile, che le stesse tartarughe possano in qualche modo mitigare gli effetti dell’aumento di temperatura globale. Ad esempio deponendo in zone più fresche (ombre, aree ventilate), o anticipando la deposizione a periodi meno caldi. Questi però sono adattamenti che, anche ammesso che possano avvenire, richiedono tempi molto lunghi, dunque sono molto più lenti del progredire delle temperature, e lo “spostamento” del rapporto maschi-femmine verso queste ultime è stato già notato in diversi studi. Il pericolo è dunque, tristemente reale.

giovedì, gennaio 26, 2012

Nature e il picco del petrolio


Di Gianni Comoretto
pubblicato anche su Riflessioni in Libertà


Stamane sono passato con il mio motorino elettrico davanti ad un po' di distributori, tutti con la loro brava coda di auto. Mi sembrava di vivere su di un altro pianeta, visto che i distributori li frequento forse una volta al trimestre.


Ma la scena mi è immediatamente tornata in mente leggendo il numero di oggi di Nature, la più prestigiosa rivista scientifica internazionale. Vi compare un articolo di commento sulla situazione della produzione mondiale di petrolio. La cosa più carina è questo grafico, che mostra come variano i prezzi in funzione della produzione.


Fino al 2004 (punti azzurri) un aumento della produzione, e quindi dei consumi, causava un aumento proporzionale dei prezzi, che all'incirca raddoppiavano per un aumento dei consumi da 64 a 74 milioni di barili al giorno. Da allora la produzione è rimasta sostanzialmente inchiodata a 74 milioni di barili al giorno (è inelastica), con i prezzi che vanno selvaggiamente su e giù (più su che giù), seguendo più che altro l'andamento della crisi economica. C'è una leggera tendenza ad un aumento della produzione con i prezzi, ma per arrivare a 75 milioni di barili il prezzo deve superare i 100-120$. Detto in altre parole il petrolio che possiamo estrarre è quello, fatevelo bastare.

Ma un prezzo del petrolio sopra i 100$ è, a detta di diversi economisti, incompatibile con la nostra economia. Non si tratta solo delle code al distributore, il petrolio entra praticamente in tutto: energia, cibo (fertilizzanti, agricoltura meccanizzata), distribuzione e trasporti (vedi cosa succede per un banale sciopero di un po' di trasportatori), materie plastiche... E quindi stiamo vivendo da alcuni anni in una situazione in cui oscilliamo lungo un ciclo: prezzi del petrolio alti -> crisi economica -> contrazione dei consumi -> calo (relativo) dei prezzi -> timida ripresa di economia e consumi -> prezzi alti. Governo Monti, default greco, crisi dei subprime USA, alla fine tutto è causato ANCHE da quel grafico lì sopra. E per far capire la cosa anche a chi legga distrattamente, un occhiello evidenzia la frase “The price of oil is likely to have been a large contributor to the euro crisis in southern Europe.” Il prezzo del petrolio probabilmente ha dato un grosso contributo alla crisi dell'euro nell'Europa meridionale.

Le brutte notizie però non sono finite. I pozzi di petrolio esistenti stanno calando la produzione di circa il 5% l'anno (4,5%-6,7% secondo diverse fonti). La produzione di 74-75 Mil. di barili viene mantenuta mettendo in produzione nuovi giacimenti, scoperti gli anni passati e sempre più costosi. Ma per mantenere la produzione per tempi lunghi, diciamo fino al 2030, occorrerebbe scoprire un paio di nuove Arabie Saudite. Che semplicemente non esistono. Insomma, il petrolio non è finito, ne avremo ancora per un bel po', ma sempre meno e sempre più caro. Le code ai distributori sono un assaggio di quel che vivremo tra non troppi anni. E di conseguenza questa crisi non finirà mai.

Si passa quindi in rassegna le alternative. Petrolio da sabbie bituminose? Ce nìè un sacco, ma è difficile, inquinante (1) da produrre. Il Canada potrebbe arrivare a produrne 4,7 milioni di barili al giorno, il Venezuela altri due. Il carbone? Le stime delle riserve sono state recentemente riviste al ribasso (2), il carbone che si può ragionevolmente pensare di estrarre è solo una piccola parte di quanto si stimasse. Molte speranze sono state poste nel metano, in particolare allo "shale gas"(3), che però sembra molto più difficile (ed inquinante) da estrarre del previsto. A un certo punto il giacimento si rifiuta di produrre, il metano resta intrappolato nelle rocce e la produzione crolla.

Tra le conclusioni mi sembra spicchi "questioning if and how economic growth can continue without an increase in fossil fuels" (chedersi se e come si possa mantenere una crescita economica senza una crescita dei combustibili fossili). E un aumento delle tasse sui consumi petroliferi va nella direzione giusta, perché costringe ad essere più efficienti. Ma qualsiasi cosa vada fatta, va fatta ora.

Note

(1) Ed energivoro. Alla fine diventa un cane che si morde la coda, se devo utilizzare tanta energia quanta poi ne ricavo dal petrolio estratto faccio prima a lasciarlo dov'è. In pratica, considerando tutti gli altri costi energetici, non conviene estrarre petrolio se impiego più di un terzo dell'energia che ne ricavo.

(2) dimezzate rispetto al 2004, ridotte ad un quinto rispetto agli anni '90

(3) Lo "shale gas" è metano intrappolato in una roccia porosa, ma in cui i pori non comunicano tra di loro. Viene estratto fratturando la roccia, ad es. pompandoci dentro acqua in pressione.

martedì, gennaio 24, 2012

Cosa minaccia l'Isola del Giglio

Di Luca Pardi


Ho una fotografia di me stesso bambino alla quale sono molto affezionato. Me la scattò mio padre nell'estate del 1967, avevo quindi 10 anni, ed ero seduto a gambe larghe sulla prua della Thetis, un piccolo cabinato a vela di sette metri e settanta (bompresso incluso), che mio padre aveva a mezzo con un suo amico e collega di Pisa. Stavamo andando a vele spiegate dal canale di Santa Liberata, l'accesso navigabile alla laguna di Orbetello dove la barca era ormeggiata nei mesi estivi, verso l'Isola del Giglio.

Ricordo che la prima volta che mi tuffai nelle acque del Giglio mi colpì la differenza rispetto alle acque del vicino Argentario che pure, a quei tempi, non erano male. Sembrava di poter toccare quel fondo fatto di grossi ciottoli di granito chiaro con il minimo sforzo, ma l'immersione lo rivelava molto più lontano di quanto i sensi, ingannati dalla cristallina limpidezza dell'acqua, indicavano. Da dieci giorni guardo con orrore questa splendida isola protagonista di una terribile tragedia umana e minacciata da una altrettanto terribile tragedia ecologica: quella che si verificherebbe se il combustibile contenuto nei serbatoi della nave da crociere Costa Concordia naufragata all'Isola del Giglio la notte di venerdì 13 gennaio, finisse in mare. Per esorcizzare il mostro che minaccia questo “mio” paradiso di una vita, mi sono messo a studiarlo un po'.

Ifo380 è il nome industriale del combustibile contenuto nei serbatoi della Costa Concordia (ifo sta per intermediate fuel oil). Si tratta di uno dei principali combustibili usati nei motori marini di grandi dimensioni e potenza. Tali combustibili sono spesso indicati collettivamente come bunker fuels. Il numero 380 si riferisce alla misura della viscosità. Nella pancia della nave ce ne sarebbero migliaia di tonnellate. Dicono 2400 tonnellate, ma una parte dei serbatoi devono contenere anche gasolio per motori marini ordinario perché nelle manovre è quest'ultimo ad essere utilizzato mentre l'ifo380 verrebbe usato nelle fasi di spostamento.

La base di questo combustibile è costituita da ciò che resta dopo la separazione per distillazione delle frazioni più leggere nel processo di raffinazione del petrolio. La raffinazione del greggio si divide in due fasi principali: 1) la distillazione del greggio a pressione atmosferica e a pressione ridotta e 2) cracking termico e catalitico. La prima separazione per distillazione avviene a pressione ambiente e a temperature fino a 360 C, e ha come prodotti una fase gassosa costituita prevalentemente da metano, etano e idrogeno, il GPL costituito da propano e butano, il kerosene e il gasolio nonché dopo alcuni passaggi delle benzine. I prodotti della distillazione sono collettivamente indicati come distillati.

A temperature superiori a 400 C ciò che resta del greggio originario inizia a decomporsi prima di arrivare all'ebollizione. Il residuo della distillazione viene ulteriormente trattato sotto vuoto e attraverso i successivi passaggi del cracking termico e catalitico che permettono di spremere ulteriormente dal residuo della distillazione composti volatili adatti agli usi più “nobili”. Quello che resta è circa il 15% del greggio originario ed è la frazione più pesante del petrolio che mescolata in certe proporzioni con piccole percentuali di distillati rappresenta il combustibile per grandi macchine a vapore e, dopo un preriscaldamento, per motori tipo diesel (all'interno dei quali l'ignizione avviene per compressione) ad alta compressione come quelli delle grandi navi.

La nomenclatura dei principali combustibili usati in marina è sommariamente presentata nella seguente tabella che ho riprodotto dal sito dell'International Marine Organization (IMO) che, fra le altre attività, si occupa anche della regolamentazione nell'uso dei combustibili al fine di ridurre le emissioni di Gas serra ed altri inquinanti.



Dunque la principale componente dell'ifo è l'olio residuo, un liquido nero molto viscoso un campione del quale è raffigurato nella figura a fianco presa da wikipedia.

L'alta viscosità è la ragione per cui i tecnici della ditta olandese SMIT incaricata di svuotare i serbatoi della Costa Concordia da questo combustibile lo dovranno preventivamente riscaldare per diminuirne la viscosità e dunque farlo scorrere più rapidamente nei tubi che serviranno per pomparlo.

Mentre in genere le diverse frazioni distillate hanno una composizione molto ristretta in termini di peso molecolare dei componenti selezionati nel processo stesso di distillazione, la composizione chimica del residuo è, come prevedibile, abbastanza variabile. Analisi di diversi campioni di ifo di diversa provenienza mostrano una distribuzione di componenti chimiche che vanno dagli idrocarburi alifatici con catene di 10 atomi di carbonio fino a molecole con più di 45 atomi di carbonio. Inoltre il residuo di raffinazione, e dunque l'ifo, contiene composti denominati collettivamente asfalteni, la cui struttura molecolare non è completamente nota e che sono i principali responsabili del colore scuro del petrolio, e i composti che contengono zolfo, azoto e diversi metalli fra cui il vanadio.

La composizione di questi combustibili è materia di studio in ambito forense per l'identificazione delle sorgenti di eventi singoli o ripetuti di inquinamento dell'ambiente marino.

Questo è l'identikit di ciò che minaccia il Giglio. Non ci rimane che affidarci alla professionalità dei tecnici impegnati nell'opera di svuotamento, giacché abbiamo da tempo abbandonato l'uso dei gesti scaramantici.


sabato, gennaio 21, 2012

Le vecchie bufale non muoiono mai: la leggenda del petrolio abiotico

di Ugo Bardi -
Pubblicato su "Il Cambiamento" 18 Gennaio 2012



Per qualche ragione, la leggenda del petrolio 'abiotico', che sarebbe abbondantissimo se non addirittura infinito, non ha attecchito in Italia. È difficile capire perché: negli Stati Uniti è tuttora molto diffusa, sostenuta da una variegata schiera di persone che si sono improvvisamente creduti geologi petroliferi dopo una onorata carriera come idraulici, parrucchieri, operatori turistici o assaggiatori di aceto balsamico. Forse in Italia siamo più intelligenti degli americani? Probabilmente no, ma quantomeno qui da noi ad una certa età smettiamo di credere a Babbo Natale mentre invece gli americani, a volte, sembra che continuino a crederci per tutta la vita.

Comunque sia, è anche vero che c'è chi ha fatto grossi sforzi per diffondere la leggenda del petrolio abiotico anche qui da noi. Ci ha provato per primo Roberto Vacca che, improvvisandosi geologo, è riuscito a rovinarsi la reputazione guadagnata in una vita di lavoro.

L'anno scorso, qualcuno che si firma 'shooter' ha messo su un blog sul petrolio abiotico dove si è messo di buona lena a tradurre vari articoli degli abioticisti americani. Non se lo è filato nessuno e dopo qualche mese ha cancellato il blog congedandosi con i lettori (?) con le parole, più o meno, “dovete morire”. Quest'anno, già a metà Gennaio arriva un ulteriore tentativo di diffondere la leggenda in Italia su un blog intitolato Aurora, dove qualcuno si è messo all'anima di tradurre un articolo vecchio di due anni e pieno di fesserie di tal John O'Sullivan, che come credenziali per parlare di geologia petrolifera non ha altro che quella di aver scritto i discorsi politici di Margaret Tatcher negli anni '80. In compenso, di clima ne sa ancora meno di quanto ne sappia di petrolio, come appare chiaramente dall' articolo (il titolo è tutto un programma: “La teoria del peak oil è fasulla come l'effetto serra”).

Evidentemente, continuano a provarci a diffondere in Italia la leggenda del petrolio abiotico. L'occasione per provarci di nuovo sembra arrivare sempre nei momenti in cui la benzina aumenta di prezzo. È allora che l'idea del petrolio infinitamente abbondante sembra più attraente. In ogni caso, da noi come dovunque nel mondo c'è una risorsa che è davvero infinitamente abbondante: il numero di allocchi che credono in queste cose.

domenica, gennaio 15, 2012

Case arredate a chilometro zero


Di Armando Boccone


Il titolo di questo lavoro fa riferimento a quelle nuove modalità di approvvigionamento di prodotti seguite da ristoranti, pizzerie, negozi di frutta e verdura, oppure dalle famiglie, che decidono di utilizzare soprattutto ortaggi, verdura, formaggi, carni, uova prodotti nel territorio circostante, rivolgendosi direttamente ai produttori locali. 
 In questo modo si vogliono raggiungere molti obiettivi come quello di evitare che i prodotti facciano il giro del mondo prima di giungere sulla tavola (con enorme consumo di combustibili, e produzione di inquinamento), quello di consumare prodotti freschi di stagione, favorire le produzioni locali.
Sono iniziative molto interessanti anche se, quasi sempre, è impossibile approvvigionarsi nel territorio circostante di tutti i prodotti che servono. Quando si parla per esempio, di “pizza a km zero” è ovvio che non tutto potrà provenire dal territorio circostante, come per esempio la farina e l’olio, ma che molti ingredienti (dalle mozzarelle, al prosciutto e ai tanti ingredienti con cui si guarniscono le pizze) provengono dal territorio circostante. Per la verità di ogni prodotto bisognerebbe vedere anche la provenienza dei vari ingredienti. Per esempio il prosciutto potrebbe venire da un produttore locale mentre la coscia di maiale, da cui si è partiti, potrebbe essere venuta addirittura dall’estero. La stessa cosa potrebbe dirsi delle mozzarelle, che potrebbero essere fatte con latte o prodotti intermedi provenienti dall’estero, oppure della farina, fatto con grano, che, per esempio, potrebbe venire dal Canada.
Nonostante i limiti appena detti queste iniziative sono molto interessanti ed è bene che continuino a svilupparsi.

Questa estate come ogni anno, con la mia compagna, ho trascorso una ventina di giorni di ferie al mio paese di nascita in Lucania. Da qualche tempo avevo già pensato di fare una ricerca sul modo in cui in passato al mio paese si costruivano e si arredavano le case, prestando particolare attenzione alla distanza che i materiali, i componenti e i prodotti finiti avrebbero dovuto percorrere prima di entrare a fare parte delle case stesse. La distanza significa consumo di energia per il trasporto, soprattutto per materiali (in linea di massima) pesanti e di modesto valore come quelli necessari per costruire e arredare le case. Considerando i tempi che ci aspettano, che saranno contraddistinti da difficoltà nell’approvvigionamento di combustibili fossili, quello del consumo di energia sarà infatti uno dei problemi più importanti di cui tenere conto. Insieme e strettamente connesso a questo problema c’è anche quello della reintroduzione, nei limiti del possibile, delle tecnologie produttive usate in passato.
Starà a voi lettori di questo lavoro stabilire se sia appropriato o meno il titolo “Case arredate a km zero!” che gli è stato dato.


Foto 1:  Tipiche case tradizionali del mio paese


E' bene esporre preventivamente il metodo che ho seguito in questo lavoro. Oltre a portare alla luce i miei ricordi di infanzia in merito, ho fatto delle interviste a muratori e falegnami, nel paese ho fotografato le case (sia all’esterno che all’interno) e nel territorio sono andato alla ricerca e ho fotografato i posti da cui venivano i materiali utilizzati. Molto importanti sono state due interviste: la prima fatta a un muratore-fornaciaio (mi pare avesse 87 anni) e la seconda a un mio amico falegname. Queste due interviste sono state due vere e proprie miniere di informazioni, che mi hanno anche aiutato a indirizzare il prosieguo della ricerca.
Tutto ciò che verrà detto sulla costruzione delle case, delle porte e finestre e della mobilia, si riferisce a un periodo che arriva circa alla fine degli anni ’50 del secolo scorso. Le eventuali discordanze nelle risposte alle interviste fatte a diversi muratori e falegnami forse dipendono dal diverso periodo a cui facevano riferimento.

Le case del mio paese

Escludendo le case signorili ed edifici particolari (come scuole, conventi, ecc.) le case tradizionali del mio paese erano essenzialmente di due tipi: a “cannizzo” e a “lammia”.


Foto 2: La copertura di una casa a “cannizzo”

Le case a “cannizzo” erano così dette per la copertura rappresentata da un cannicciato che poggiava su una trave principale, che andava dalla parte posteriore a quella anteriore della casa e da tanti travetti che si appoggiavano da una parte sui muri laterali e dall’altra sulla trave principale. Le canne del “cannizzo” erano legate fra di loro da giunchi o da rametti di ginestra. Sopra il cannicciato veniva messo uno strato di due centimetri di malta impastata con paglia. Sopra lo strato di malta venivano messi i coppi (il maestro muratore-fornaciaio precisa che ci volevano 32 coppi per ogni metro quadrato di tetto). La copertura poteva essere fatta con le “chianelle”al posto del “cannizzo”: le “chianelle” (che sono dei mattoni di cm 2,5x18x45) venivano disposti sui travetti. Sopra le chianelle infine veniva disposto un strato di cm 0,5 di malta su cui poggiavano i coppi.
Il paese non è pianeggiante per cui succede che ci sia una sopraelevazione, cioè un’altra casa, a cui si accede dalla strada posta a monte della prima casa. In questo caso la copertura della casa di sotto non è fatta a “cannizzo” ma a “lammia”, cioè la volta è fatta di mattoni messi in taglio. Fra la volta principale e i muri laterali venivano fatte altre due volte con mattoni disposti in taglio. In alcuni casi venivano ricavati dei vani fra le volte piccole e quella grande. Sopra le volte piccole veniva pareggiato con terra in modo che poi venisse poggiato il pavimento della casa di sopra.

La provenienza dei materiali

Da dove provenivano i materiali finora incontrati? (il riferimento è alla copertura della case a “cannizzo”). Le canne provenivano dal territorio circostante. In ogni zona umida (come lungo i fossi di scolo) ci sono canneti. Anche i giunchi e le ginestre erano diffuse sul territorio. Prima di essere utilizzate dovevano essere seccate e lavorate.
Alla domanda “ma non si poteva usare lo spago per legare le canne?” tutte le persone intervistate hanno detto “… e chi te lo dava!”. Lo spago penso fosse fatto di canapa, che è una pianta che non veniva coltivata nel territorio di cui stiamo parlando, e probabilmente doveva essere importato dal nord Italia.

Da dove venivano invece le travi e i travetti? Il mio amico falegname dice che venivano dalle segherie disposte sull’Appennino calabro-lucano (un altro falegname ha detto invece che venivano dal nord Italia ma probabilmente si riferiva a un periodo successivo agli anni cinquanta del secolo scorso).

La struttura delle case


Foto 3: Facciata di casa

I muri delle case erano fatti di pietre raccolte nelle immediate vicinanze del paese. Per le case di campagna invece le pietre venivano raccolte nelle vicinanze di queste stesse case. Un mio amico, vecchio muratore, mi ha detto che quando era ragazzino andava a raccogliere le pietre e che quando raggiungeva il “metro cubo” le consegnava a un rivenditore di materiali edili. Parte della struttura, come gli stipiti su cui si incardinavano le porte e le finestre, l’arco sulla porta, il focolare, i pavimenti, gli archi interni e la copertura (nelle case a “lammia”) erano invece fatte di mattoni. Solamente dopo gli anni ’50 si iniziò a costruire case completamente di mattoni.
I mattoni utilizzati nella costruzione delle case nel paese venivano fatti in dieci fornaci (di cui il signore muratore-fornaciaio mi indica l’esatta ubicazione e i nomi dei proprietari) disposte intorno al paese stesso: alcune erano a poche decine di metri dall’abitato mentre le due più lontane erano distanti a circa un chilometro. Per le case costruite in campagna i mattoni provenivano da fornaci disposte nelle campagne stesse. Non si poteva fare altrimenti perché, mi dice il signore muratore-fornaciaio, un asino poteva portare poche decine di mattoni per ogni viaggio (il signore mi ha indicato il numero preciso ma ho dimenticato di scriverlo) per cui il costo per la costruzione della casa sarebbe lievitato parecchio.
Le pietre venivano “messe in opera” utilizzando una malta fatta di terra tola impastata con acqua. La terra tola era la comune terra. Visto i materiali “poveri” che li componevano era necessario che i muri avessero lo spessore di 60 oppure 80 cm.
Nel caso di abitazioni con sopraelevazioni era necessario che si usasse la malta cementizia, cioè una malta fatta con “semmola“ (una sabbia di colore paglierino), calce e acqua. Senza la malta cementizia i muri non avrebbero sopportato il peso della sopraelevazione.

I mattoni, la calce e la malta

I mattoni e i coppi che servivano per fare le case del paese venivano fatti, come è stato già detto, in dieci fornaci disposte nelle vicinanze dell’abitato. Le fornaci sorgevano vicino ad alture di argilla, da cui si estraeva appunto l’argilla per fare i mattoni e i coppi. Questi, prima di venire cotti nelle fornaci, venivano essiccati al sole.
Il signore muratore-fornaciaio è estremamente preciso nella descrizione della creazione della fornace. Si scavava una buca di circa quattro metri di diametro e profonda quattro metri; in seguito si proseguiva lo scavo, dopo avere ristretto il diametro di 25 cm, per altri 1,5 metri. Quest’ultimo volume creato avrebbe costituito il “fornello”, dove sarebbe avvenuta la combustione di vari materiali. Sulla corona di 25 cm si creava una volta di mattoni disposti a punta e tenuti con un po’ di malta, lasciando di tanto in tanto delle aperture da cui sarebbe venuto il calore del fuoco acceso nel “fornello” sottostante. Il signore muratore-fornaciaio mi dava indicazioni molto precise sulla grandezza delle aperture e sulla distanza fra di esse.
Sulla volta si disponevano in taglio i mattoni da cuocere, lasciando un po’ di spazio fra l’uno e l’altro. Sopra il primo strato di mattoni se ne disponeva un altro disponendolo un po’ sfalsato rispetto al primo. Si continuava così fino alla volta superiore della fornace. Una fornace delle dimensioni indicate era capace di accogliere circa 20.000 mattoni, del peso complessivo di 600 quintali (il peso ovviamente diminuiva dopo la cottura).
Si raggiungeva la temperatura di 900-1.000 gradi centigradi. Bisognava stare attenti affinché non si superasse questa temperatura pena la “liquefazione” dei mattoni e la caduta della volta su cui poggiavano.
La cottura durava 36 ore e il fuoco veniva alimentato in continuazione introducendo nel “fornello”, attraverso una trincea laterale, vari tipi di combustibili.
Per cuocere mille mattoni ci volevano circa 8 quintali di combustibile vario.

In che cosa consisteva il combustibile utilizzato e da dove proveniva?
Era formato da frasche, paglia, legna, sansa di olive e altro e proveniva dal territorio del paese. La sansa di olive per la precisione proveniva dai numerosi frantoi esistenti nel paese. La paglia veniva dalla trebbiatura del grano mentre le frasche provenivano da un arbusto molto diffuso in zona (il lentisco) e dalla potatura degli ulivi (di cui il territorio è molto ricco). Un mio amico che da ragazzo aveva lavorato in edilizia ha detto che si utilizzavano anche copertoni dismessi di camion (ma probabilmente si riferiva a un periodo successivo agli anni cinquanta del secolo scorso).

Per “fabbricare” i muri veniva usata la malta. Per i muri di pietre veniva usata la comune malta (terra impastata con acqua), Nel caso di sopraelevazioni o di case fatte completamente di mattoni veniva usata la malta cementizia, cioè fatta di “semmola” impastata con calce e acqua. La “semmola”, come già accennato, è una sabbia di colore paglierino e veniva recuperata nelle immediate vicinanze del paese, in una fascia di poche centinaia di metri.
La calce invece veniva fatta utilizzando le pietre di una cava distante 10-15 km dal paese e cotte in due fornaci disposte vicino alla cava. C’erano altre fornaci disposte nel territorio pianeggiante a valle di questa cava. Le pietre, in questo caso, erano raccolte lungo i fossi che convergevano verso il fiume.


Foto 4: La cava detta “La petrodda”

Il signore muratore-fornaciaio mi parla dettagliatamente del modo in cui si preparava la fornace in cui sarebbero state cotte le pietre per trasformarle in “calce viva” : si scavava una buca di 3 metri di diametro e profonda 4 m; si lasciava uno spazio in fondo alla buca (il fornello); si creava una trincea laterale da cui si sarebbe introdotto il combustibile; si creava una volta con le pietre stesse che si sarebbero cotte, fino ad arrivare alla sommità della buca; sopra ovviamente si creava una volta per la chiusura. La cottura delle pietre per trasformarle in calce viva durava continuativamente per circa 100 ore (4 giorni circa). Il signore muratore-fornaciaio mi dà ovviamente informazioni molto dettagliate sulla scelte delle pietre da utilizzare e di quelle che invece bisognava scartare e su tante altre cose.
La calce viva così ottenuta doveva essere "spenta” in vasche piene di acqua: solamente in seguito era possibile utilizzarla per impastarla con la “semmola” e l’acqua per ottenere la malta cementizia. Probabilmente la vasca in cui spegnere la calce viva veniva fatta sul cantiere su cui sarebbe sorta la casa (ho una esperienza diretta in merito). Nel paese c’erano anche rivenditori di calce spenta: questi rivenditori acquistavano la calce viva e poi la spegnevano in grosse vasche disposte nella parte ipogea della loro casa.
Ma quali erano le caratteristiche tecniche della malta cementizia e della malta fatta con la terra tola? Ho visto che quest’ultima si sbriciola con la semplice pressione delle dita mentre la malta cementizia oppone una notevole resistenza ai colpi di martello (ho praticamente fatto queste prove!).
Per quanto riguarda il combustibile utilizzato nelle fornaci in cui si cuocevano le pietre per ottenere la calce viva probabilmente un posto privilegiato l’aveva il lentisco, un grosso arbusto da cui si fa una ottima legna. Probabilmente dipende da questo uso che il territorio circostante è privo della copertura di lentisco che è invece presente nei territori più distanti.
La calce prodotta dalle fornaci del paese probabilmente non bastava per le sue esigenze per cui veniva anche “importata” dai primi paesi della vicina Puglia.
Dagli inizi degli anni sessanta in poi le case (quasi tutte con sopraelevazioni) venivano fatte completamente di mattoni e quasi contemporaneamente iniziò la costruzione di case con i pilastri di cemento armato, con uso di vari tipi di mattoni forati per le tamponature esterne e interne (cioè per i muri esterni, non più “portanti”, e i muri divisori interni). E’ sempre dagli anni sessanta che si diffonde, per costruzioni non di qualità (soprattutto per le case di campagne e i capannoni), l’uso del tufo, proveniente dalla zona di Matera.

Porte, finestre e mobilia


Foto 5: Mobilia

Le porte esterne, le porte interne (dette bussole), le finestre e la mobilia venivano tutte fatte dalle falegnamerie del paese.
Quando una giovane coppia metteva su casa andava dal falegname per ordinare la mobilia. La mia compagna, che ha letto qualcosa sulla storia del paese, mi dice che l’acquisto della mobilia gravava sullo sposo (mentre la casa, mi pare, gravasse sulla sposa). Al falegname ovviamente venivano indicate i componenti dell’arredamento (armadio, comò, cristalliera, una grossa cassa, il letto con due colonnette, ecc. [mi pare che il numero dei componenti della mobilia fosse fisso per ogni casa]), il legno da usare, le caratteristiche tecnico-qualitative, ecc.
A giudicare da quella che ho visto in vecchie case, la manifattura della mobilia è di qualità e, nonostante fosse stata fatta 80-100 anni fa, ancora in perfetto stato di conservazione ed efficienza.

Ma quali erano le “essenze legnose” utilizzate per fare porte, finestre e mobilia? Ma, soprattutto, da dove provenivano?
Venivano usati soprattutto il pioppo (di origine locale e dalla Calabria), il noce nazionale (proveniente da Campania, Calabria e Lazio) e l’abete (dal nord Italia). Il mio amico falegname dice che negli anni ’20 e ’30 si è usato anche (probabilmente per poche produzioni di alta qualità) il mogano, proveniente dall’India, e il noce satinato, di origini americane.
La produzione di mobilia da parte dei falegnami del paese è avvenuta fino alla fine degli anni Cinquanta. In seguito è iniziata l’importazione dal nord e centro Italia. Le cose sarebbero potute andare diversamente: queste falegnamerie si sarebbero potuto ingrandire e iniziare a esportare i loro prodotti nel nord e centro Italia. Nel 1860 fu deciso invece che le cose sarebbero dovute andare così come sono effettivamente andate!! Da circa un paio di decenni è iniziata l’importazione (ma in discorso vale adesso per tutta l’Italia) anche dall’estero.
Alla fine degli anni ’50, come si è detto, è terminata la produzione di mobilia da parte delle falegnamerie del paese. E’ continuata invece la produzione di porte e finestre (ovviamente con i relativi infissi). C’è stato però un forte cambiamento relativamente alle “essenze legnose” utilizzate e, soprattutto, alla loro provenienza. Si è diffuso l’uso del pino douglas (di origine USA), il pino russo (dalla Russia), lo yellowpine (dal Canada) e il pino svedese (dalla Svezia).
La tradizione della produzione di porte, finestre e infissi non è andata persa perché, a vedere i cartelloni pubblicitari lungo le strade del territorio (ma ne ho anche esperienza diretta) è molto diffusa questa produzione, anche se adesso i materiali sono soprattutto l’alluminio e il polivinilcloruro (PVC).

Conclusioni

Il titolo dato a questo lavoro, cioè “Case arredate a km zero”, in base a ciò che è stato detto, penso sia abbastanza appropriato, perché buona parte del materiale e dei prodotti che servivano per costruire e arredare le case (dai mattoni alla calce, dal combustibile alla mobilia) proveniva o dal paese o dalle sue immediate vicinanze. Inoltre, nel caso i materiali provenissero da fuori dal paese (come il legno), bisogna notare che il viaggio aveva la caratteristica di essere di sola andata: cioè i prodotti ottenuti con questi materiali non prendevano altre destinazioni ma erano utilizzati sul posto (come la mobilia).
Dei vari materiali che adesso si usano per costruire e arredare le case non c’è niente che ha origini locali. Non so da dove provengano i mattoni forati, il cemento, la calce che servono per le costruzioni edili nel territorio del paese: so solamente che ciò che rende possibile la loro manifattura e il loro arrivo si chiama petrolio, un combustibile che fino a qualche tempo fa è stato abbondante e a buon mercato.
E’ il caso che si riveda il modello di sviluppo che finora ha guidato l’economia!!

giovedì, gennaio 12, 2012

Le vittime invisibili del cambiamento climatico


A cura di Lou Del Bello


Il demonio è nei dettagli, e anche i cambiamenti climatici. Troppo spesso per studiarli e comunicare il rischio legato al riscaldamento globale ci si occupa di quello che Naomi Klein chiamerebbe “fancy stuff”: orsi polari, grandi ghiacciai, isole, popolazioni intere. Soggetti “notiziabili”, che incuriosiscono ed emozionano il pubblico.
Ma il global warming non è solo questo. I suoi effetti si rintracciano anche alla base della catena alimentare, ricadono su quei piccoli animali di cui nessuno si accorge. Eppure, nel microcosmo delle paludi, degli anfibi e dei rettili, si innescano fenomeni che influenzano l'intero ecosistema.
Abbiamo chiesto a Marco Zuffi, erpetologo, biologo evoluzionista e ricercatore dell'Università di Pisa di accompagnarci attraverso deserti e paludi, sulle tracce delle specie anfibie e rettili che oggi sono minacciate dal clima che cambia.

Dottor Zuffi, quanto è difficile studiare gli effetti dei cambiamenti climatici su rettili e anfibi?
I rettili e gli anfibi hanno cicli di vita e riproduzione molto lunghi. Per questo motivo l'aumento della temperatura, oppure la variazione nella quantità di pioggia che scende, hanno effetti di lungo periodo, difficili da rilevare. Ad esempio i serpenti vivono vent'anni in media, le testuggini di terra o palustri superano abbondantemente il secolo. Molte specie come varani e gechi superano i trent'anni di età.

Mediamente, fenomeni che si dipanano in un tempo di cinque o dieci anni non possono essere osservati sulle specie studiate fino ad ora. Perlomeno, finora non si sono raccolti dati che evidenzino il rischio di modificazioni o di estinzione. Questo non vuol dire che però tutto ciò non possa succedere.

Tutti i rettili e gli anfibi hanno cicli di vita così lunghi?
No, anzi. Alcuni sono ottimi casi studio. Prendiamo ad esempio lo studio di Barry Sinervo, uno dei massimi biologi evoluzionisti al mondo, che si occupa di alcune lucertole americane. Questi animali hanno un'aspettativa di vita che non supera le due o tre stagioni e per questo sono modelli eccezionali: nascono, maturano al termine della prima stagione, si riproducono per una stagione e mezza e poi muoiono.
Nel suo lavoro del 2010, Erosion of Lizard Diversity by Climate Change and Altered Thermal Niches”. Sinervo sostiene che entro venticinque anni nelle zone desertiche nel centro degli Stati Uniti d'America gran parte di questi piccoli animali, gli Sceloporus (nella foto a fianco, ndr), potrebbero estinguersi proprio a causa dell'inaridimento progressivo.

Si può tratteggiare una storia dei cambiamenti climatici attraverso l'evoluzione di queste specie?
Effettivamente un innalzamento della temperatura c'è, dimostrato in primo luogo dal distacco di grosse masse di ghiaccio dal polo nord. I climatologi hanno provato che ci sono dei cambiamenti sensibili negli ultimi 150 anni. Questo non significa però che nell'arco degli ultimi 20 o 30mila anni non si siano succedute epoche in cui si verificavano fenomeni simili; è difficile avere la percezione di quanto successe allora con la precisione e i monitoraggi continui di oggi.
Qualche milione di anni fa, quando la Sardegna non era ancora nella posizione attuale, c'erano vipere desertiche, mentre nel sud Italia, per esempio in Puglia, poche centinaia di migliaia di anni fa erano presenti i Cobra e i Mamba, serpenti velenosi tipicamente centro africani.
Quanto questi cambiamenti siano un fenomeno naturale non è dato saperlo con certezza, sicuramente l'uomo sta dando una grossa mano. Ne pagheranno lo scotto i popoli che abitano le zone aride e semiaride, che sempre più subiranno la mancanza di acqua e di suoli fertili.

Sono possibili interventi di mitigazione?
Facendo lo zoologo conosco meglio la parte riguardante la fauna che quella relativa alle infrastrutture. Osservando però gli interventi realizzati nei parchi, per esempio la riduzione dell'uso di fitofarmaci e pesticidi, oppure l'attenzione quando si tratta di costruire strade che attraversano aree naturali, devo dire che c'è stato un grande progresso rispetto a qualche decennio fa. Mi sono laureato negli anni Ottanta, quando ambiente e tutela della natura erano parole sconosciute. In trent'anni ho visto fare e ho anche partecipato a raggiungere notevoli progressi nell'ambito della mitigazione degli impatti infrastrutturali.

Qualche esempio pratico?
Contrastiamo lo schiacciamento dei rospi in migrazione durante le attività riproduttive, oppure evitiamo che il sistema delle acque reflue si infiltri in aree naturali dove nidificano le garzette o dove ci sono siti riproduttivi di anfibi. Tutte queste attività testimoniano un'attenzione significativa da parte delle amministrazioni, che intercettando fondi regionali o provinciali seguono e applicano le normative e le leggi vigenti.

Abbiamo visto che molti rettili e anfibi sono a rischio a causa del cambiamento climatico. Ma per quale motivo alcune specie sono più sensibili di altre?
Da alcuni anni si sta parlando molto della scomparsa di un gran numero di specie di anfibi. Ce ne sono alcune che si stanno estinguendo in maniera rapidissima, mentre altre no. Questo fenomeno è oggetto di studio da una decina d'anni, ma ancora ha cause piuttosto oscure, un po' come, fino a qualche anno fa, era per la scomparsa dei dinosauri.
Fino a un decennio fa, infatti, non si capiva come alcune specie di anfibi, nella stessa zona, si estinguessero mentre altre proliferassero senza problemi. É un interrogativo che ha attratto molti specialisti, ma oggi si è scoperto che esiste una forma virale paragonabile al morbillo, il Batracochitridium, che attacca le mucose respiratorie delle larve in acqua.
Gli anfibi sono un gruppo di vertebrati che non ha squame, scaglie o peli, ma una pelle nuda ricca di ghiandole sottocutanee, un'epidermide permeabile. Di conseguenza, possono assorbire qualsiasi agente inquinante finisca nell'acqua o in aria.

Quasi tutte le specie di anfibi hanno una fase di sviluppo acquatica e una terrestre, quando dopo la metamorfosi devono passare a respirare aria. La diminuzione delle specie presenti in una determinata zona è stata associata dai ricercatori all'incremento di questa forma virale, che sembra favorita da due aspetti. Uno è di natura umana: il ricercatore entrando in uno specchio d'acqua contaminato potrebbe contagiarne un altro immergendosi con gli stessi stivali. Per questo motivo chi fa indagine sul campo oggi si cambia ogni volta che si sposta da uno stagno all'altro, per non inquinare la zona umida.

E il secondo fattore?
Sembra che il fenomeno sia fortemente incrementato anche dall'effetto serra e dal buco dell'ozono. La maggiore quantità di ultravioletti che entrano in atmosfera causerebbe l'accelerazione del processo degenerativo della pelle di animali come rane, raganelle e rospi che vengono attaccati da funghi e forme virali. Questo problema non colpisce solo l'Italia, ma anche l'Asia, l'Africa, l'America: è un fenomeno globale. Si può affermare che l'assottigliamento dello strato di ozono abbia favorito un crescente incremento della temperatura al suolo e del passaggio degli ultravioletti. Quindi queste forme patogene che forse erano latenti si sono manifestate e sono diventate presto oggetto di studio.

Con quali prove di laboratorio vengono studiati questi fenomeni?
A livello sperimentale si sono presi in esame questi virus scoprendo che in situazioni di bombardamento con ultravioletti, aumentando la quantità di energia che arriva dal sole, la pelle degenera molto più rapidamente. Si tratta di esperimenti svolti con sistemi di controllo cellulare.
Altro aspetto riscontrato riguarda le popolazioni che vivono in ambienti con un maggiore inquinamento atmosferico, che tendono a sparire più rapidamente. Zone di questo tipo sono quelle altamente antropizzate o apparentemente naturali ma raggiunte da correnti di piogge acide o fumi provenienti anche da centinaia di chilometri di distanza.

Quali tipi di danni fisiologici possono riportare anfibi e rettili a causa del riscaldamento e dell'effetto serra?
Gli anfibi sono la classe più danneggiata, anche rispetto ai rettili, perché come dicevamo la loro pelle è più permeabile e delicata; si può – paradossalmente - paragonare all'epidermide ustionata della nostra specie. Si perde la cheratina, cioè lo stato superficiale protettivo, e sotto rimane la pelle nuda. La differenza è che se noi umani siamo scottati rischiamo di morire perché viene danneggiato tutto il sistema nervoso e non abbiamo protezione dalle infezioni, mentre per un anfibio questa è una condizione normale, nasce nudo.
Dunque, se nell'aria, o soprattutto nell'acqua dove gli animali si riproducono sono presenti elementi patogeni inquinanti, ci sono delle sostanze che si legano all'ossigeno disperso e quindi entrano nelle uova o nell'apparato respiratorio delle larve, gli anfibi non giungono alla metamorfosi. Muoiono prima a causa di ulcerazioni nelle branchie; questo significa che nel giro di due o tre generazioni gli adulti che depongono in acqua perderanno il proprio successo riproduttivo.

Qual è la portata del fenomeno?
La sua incidenza è impressionante. La IUCN (International Union for Conservation of Nature) si occupa del monitoraggio dello stato di salute e del numero delle specie animali e vegetali, e pubblica unared list delle specie a rischio di estinzione.
Quando cominciano a scomparire delle specie i vari esperti locali lanciano l'allarme e si cerca poi di correlare i sintomi con le possibili cause, antropogeniche o meno.
La riduzione delle specie di anfibi su scala globale è un problema gravissimo perché non si riesce a tamponare in alcun modo. Si sta tentando di far riprodurre in cattività alcune specie per poi reintrodurle nelle zone in cui è scomparsa la popolazione. La questione è arcinota ed esistono vari gruppi di ricerca in tutto il mondo che se ne occupano.
Io faccio parte di tre gruppi di ricerca, uno sugli anfibi, uno sulle vipere e uno sulle tartarughe, che hanno la funzione di monitorare a livello nazionale e locale quello che accade alle varie specie.

Per quanto riguarda gli anfibi, lo scenario è estremamente drammatico, le situazioni più gravi sono in Kenia, centro Africa, sud degli Stati Uniti d'America, Brasile, Cina. In Italia le cose vanno malissimo per un paio di specie, mentre per tutte le altre non ci sono apparenti problemi.

Un esempio di specie italiana a rischio?
Una delle specie più belle e più in crisi che abbiamo in Italia è la Bombina variegata o Ululone a ventre giallo, un piccolo rospo che misura circa quattro centimetri. Dieci anni fa era comunissimo in Toscana, oggi si trova in meno di dieci località mentre prima erano circa duecento. Insomma, sta scomparendo, nonostante tutte le specie associate siano presenti e in ottima salute: il problema dunque non è un inquinamento complessivo degli habitat, ma qualcosa che sta colpendo una sola specie. In altri paesi dell'area mediterranea (Spagna, Portogallo, Grecia, ex Jugoslavia) le specie minacciate sono altre. É un fenomeno che sta colpendo a macchia di leopardo gruppi che potrebbero essere o particolarmente sensibili o vittime della forma virale del Batracochitridium, probabilmente potenziata dal riscaldamento o dall'inquinamento.

Esistono degli strumenti per fare previsioni in questo senso?
Alcuni ricercatori portoghesi e spagnoli hanno fatto delle previsioni tramite modelli matematici sul fatto che alcuni serpenti dei Pirenei scompariranno entro trent'anni se il clima continuerà a cambiare a questo ritmo. La causa sarà l'inaridimento complessivo delle zone umide temperate e fresche delle zone montuose. I modelli predittivi si basano sull'analisi dell'andamento climatico delle scorse tre decadi incrociati con modelli geografici (G.I.S.) che si usano per realizzare la cartografia di aree locali, per esempio delle nostre regioni.
Si possono incrociare i dati su clima, flora e fauna per quadranti di un chilometro, e vedere in funzione di come si presentava la situazione nel passato quali potrebbero essere gli scenari futuri.

Che applicazioni pratiche hanno questi modelli?
Sono uno strumento estremamente utile, ad esempio per sapere dove reintrodurre una specie senza correre il rischio che l'area diventi desertica nel futuro prossimo. In Spagna e Portogallo, nonostante la crisi economica, tre anni fa hanno investito un milione e 800mila euro in progetti per il ripristino di aree naturali per lucertole. Hanno ottenuto questi fondi realizzando un progetto al quale hanno partecipato geografi, biologi e genetisti che hanno costruito un modello predittivo sull'andamento del clima naturale.
Questo sistema ha convinto al punto da diventare normativo, ossia necessario per legge alla gestione delle aree naturali.
Per fare un esempio, possiamo prevedere che nel futuro, le vipere in aree di media o bassa quota si troveranno molto meglio.

mercoledì, gennaio 11, 2012

lunedì, gennaio 09, 2012

Il Max Planck non vola


Massimo Ippolito di KiteGen risponde all'improvviso affastellarsi di voci allarmate e preoccupate per l'avvenuta segnalazione su Quale Energia di uno studio, eseguito presso il Max Planck Institute, che sembrerebbe mettere in crisi il concetto stesso di eolico di alta quota o troposferico.

------======ooOoo======------

Di Massimo Ippolito

Tullio de Mauro ci informa, dalle pagine del Corriere, che il 71 per cento della popolazione italiana si trova al di sotto del livello minimo di comprensione nella lettura di un testo [italiano] di media difficoltà. E poiché quindi, purtroppo, quello studio del Max Planck può essere compreso, valutato criticamente e letto tra le righe da percentuali omeopatiche di cittadini medi, chiedo perdono per la franchezza, accompagnata da un certo disagio, che mi vedo costretto a usare. Siamo infatti di fronte ad un lavoro assai criticabile, come vedremo, e francamente stupisce la disponibilità a pubblicarlo da parte di Earth System Dynamics e quella a rilanciarlo da parte di Quale Energia (che peraltro ci ha cortesemente offerto un diritto di replica).



Chi è abituato a leggere pubblicazioni scientifiche resterà sicuramente sorpreso dallo stesso titolo del paper, “Jet stream wind power as a renewable energy resource: little power, big impacts” che ne preannuncia lo spirito inspiegabilmente aggressivo. Nel paper stesso, poi, ogni paragrafo dedica uno spazio esagerato, e senza ragionamenti di supporto, a ripetere apoditticamente ciò che è stato espresso nel titolo e che viene ribadito nelle conclusioni.

I lavori, per esempio, dell'IPCC hanno abituato tutti a vedere ogni previsione prodotta da un modello corredata da una barra di incertezza. Mentre ci risulta arduo considerare un segno di serietà scientifica già la sola affermazione, contenuta nel paper del Max Planck, che si possa estrarre esattamente 7,5 TW dall'atmosfera, senza offrire a chi legge delle opportune barre di errore; barre che sono ottenibili, nel ciclare il modello, variando le assunzioni nel loro ambito di plausibilità.

Stimano solamente 7,5 TW, ma a ben vedere non è affatto poco!

Paradossalmente, lo studio dei ricercatori del Max Planck Institute, pur eseguito utilizzando argomenti che dimostreremo errati e pur posizionandosi, fra centinaia di altre valutazioni della risorsa vento, come la meno generosa in assoluto, è in sostanza un'ulteriore conferma della validità del KiteGen e più ampiamente dell'eolico di alta quota. Perché esso afferma che col solo eolico di alta quota si può estrarre in modo sostenibile molto di più del fabbisogno mondiale primario di energia, anche se lo afferma in polemica diretta con un recente lavoro più ottimistico di Ken Caldeira e Christina Archer, nel quale quel "di più" è stimato in 100 volte.

Cito infatti dalla loro pubblicazione: "Our estimate for maximum sustainable extraction of kinetic energy from jet stream is 7.5 TW" ("La nostra stima per la massima e sostenibile estrazione di energia cinetica dal jet stream è di 7,5 TeraWatt"). Tuttavia tale pur pessimistico limite di 7.5 TeraWatt, della nobile e preziosa energia elettrica, è di gran lunga superiore all'intero fabbisogno umano primario! Fabbisogno che oggigiorno si attesta in 14 TW fossili, e quindi termici, dei quali molto meno della metà si trasforma in servizi energetici utili. Una centrale elettrica a carbone consuma circa il triplo di energia termica rispetto all'elettricità erogata e un'automobile brucia e disperde cinque volte l'energia termica del carburante rispetto all'energia meccanica che arriva effettivamente alle ruote. Quasi tutto il nostro uso di energia è affetto da queste ineludibili proporzioni di spreco. Di conseguenza si può affermare, senza timori di smentite, che il fabbisogno umano attuale, di potenza, è ampiamente sotto i 6TW (da moltiplicare per le 8760 ore, per ottenere il fabbisogno di energia su base annua), se fissati già nella nobile forma elettrica o meccanica anziché termica.
Potenza o energia? Questo è il problema
Entriamo ora nel merito del lavoro.
Chi si occupa professionalmente di energia condivide con me la sensazione oppressiva del dover subire la continua e diffusa confusione fra i concetti distinti di potenza e di energia. E anche a pagina 202 del paper in questione l'intero primo paragrafo mescola ripetutamente e ineffabilmente i due concetti. Qui un esempio: "If we take the present global energy demand of 17 TW of 2010 (EIA, 2010), then this estimate would imply that 1700 TW of wind power can be sustainably extracted from jet streams. However, this estimate is almost twice the value of the total wind power of 900 TW (Lorenz, 1955; Li et al., 2007; Kleidon et al., 2003;Kleidon, 2010) that is associated with all winds within the global atmosphere."
L’attuale domanda di energia è, secondo gli autori, di 17 TW, che però misurano una potenza, chiaro (ma solo agli addetti ai lavori) che volessero intendere la potenza media assorbita dalle utenze planetarie durante un anno, ma espresso con una superficialità che non è ammissibile per uno studente del liceo durante un’interrogazione, figurarsi per un team di ricercatori, il quale avrà peraltro avuto modo di rileggere più volte il lavoro prima di rilasciarlo. Inoltre affermare che la potenza totale del vento è di 900 TW è una forzatura del concetto fisico: non esiste potenza in un fluido, semmai esso è dotato di energia. Al limite, si potrebbe provare a valutare l'energia posseduta dal regime stazionario atmosferico, che però si misura in TWh (TeraWattOra). Quei 900 TW, se mai, potrebbero essere la potenza che il sole trasferisce all'atmosfera e che si trasforma in forma cinetica oppure la potenza che l'atmosfera perde continuamente in calore con l'interazione con il suolo e nei fenomeni di attrito tra i vari flussi. Dovrebbe bastare questo per riconsiderare che esistono molti approcci di maggiore qualità e certamente di superiore interesse sul tema:
ENERGIA
Brunt(1939) calcola in 100PWh l’energia cinetica totale dell'atmosfera.
POTENZA DISSIPATA IN ATMOSFERA
Gustavson (1979) calcola 3600TW di dissipazione media totale, (inoltre conferma i dati di Brunt),
Gustavson (1979) 1200TW di dissipazione entro il boundary layer con l'orografia del territorio e il trasferimento di energia ai mari,
Lorenz (1967) 1270TW, Skinner (1986) 350TW, Peixoto and Oort (1992) 768TW, Sorensen (1979 e 2004) 1200TW, Keith et al. (2004) 522TW, Lu et. al., (2009) 340TW, Wang and Prinn (2010) 860TW.
Le differenze fra i risultati di cui sopra sono motivabili da analisi che parzializzano su flussi ordinati, puramente orizzontali e potenzialmente sfruttabili, ma sostanzialmente tutti gli autori sono abbastanza concordi sugli ordini di grandezza.
SFRUTTAMENTO DELLA RISORSA
Gustavson (1979) ritiene che possano essere sfruttati 130 TW - il 10% di ciò che viene dissipato naturalmente - con già un’espressa attenzione al clima da parte dell'autore; che per me rimane il più credibile, colui che ha detto e capito tutto ciò che c'era da dire e capire. Un altro ottimo lavoro è quello di Sorensen, che si sovrappone quasi perfettamente a quello di Gustavson
Tornando alla confusione tra potenza ed energia sul paper di L. M. Miller, F. Gans and A. Kleidon , bisogna essere veramente indulgenti ed approssimativi per accettare queste formulazioni :
<<Archer and Caldeira (2009) estimated the potential of jet stream wind power as “...roughly100 times the global energy demand”. If we take the present global energy demand of 17TW of 2010 (EIA, 2010), then this estimate would imply that 1700TW of wind power can be sustainably extracted from jet streams. However, this estimate is almost twice the value of the total wind power of 900TW(Lorenz, 1955; Li et al., 2007; Kleidon et al., 2003; Kleidon, 2010) that is associated with all winds within the global atmosphere.
Here we resolve this contradiction between the energy that can maximally extracted from the jet stream Sect. 4 in terms of differences in velocity and dissipation rates, the limit on how much kinetic energy can maximally be extracted, atmospheric energetics. The contradiction originates from the erroneous assumption that the high wind speeds of the jet streams result from a strong power source. It is well known in meteorology that jet streams reflect quasi-geostrophic flow, that is, the high wind speeds result from the near absence of friction and not from a strong power source.>>
1) Vi si "accusano" artificiosamente Archer e Caldeira di dire che 1700 TW sono sostenibili, mentre il vero significato è che essendoci un potenziale pari a 100 volte la domanda globale, l'estrazione risulta particolarmente copiosa anche da una singola geolocalizzazione, e che per ora possiamo lasciare passare indisturbato ciò che non raccogliamo. Inoltre la stima di Archer e Caldeira non si riferisce ai soli jet stream.
2) Vi si cita un TOTAL WIND POWER, associato a tutti i venti dell'atmosfera, e non un dato di potenza media, mediata o al limite di TW anno; il che è un errore grave.
3) Vi si indica una massima energia che può essere estratta; cosa che non ha alcun significato se non con un senso molto traslato di energia, ovvero di potenza.
4) Vi si indica la massima energia cinetica che può essere estratta; cosa che avrebbe un significato solo se vi fosse stato aggiunta, anche solo lessicalmente, una base di tempo.
5) Inoltre l'assenza di frizione è un falso. Infatti sappiamo che in atmosfera si perdono globalmente 7W al mq, di cui 2,5 W mq sono la parte eventualmente a disposizione dell'eolico (da non confondere con i 700W al mq medi, disponibili localmente, quale sommatoria di raccolta nel grande cardioide sopravvento ai generatori).
Ragionando attentamente, l'intento degli autori di forzare insieme diversi concetti, anche al rischio di apparire superficiali, appare poco chiaro, e sicuramente poco scientifico dando peraltro adito al sospetto di voler attaccare ad ogni costo il concetto di eolico di alta quota.
Ma in realtà nessuno di buon senso ha mai pensato di sfruttare direttamente il Jet Stream
Il Jet Stream alimenta immagini e sogni sproporzionati. Per cui si nota spesso, quando si tratta di energia eolica, una sorta di prouderie intellettuale a volerne forzatamente dissertare. 

Effettivamente la velocità media del vento a quelle quote è di 90 nodi medi, un equivalente di circa 16 kW al metro quadrato di fronte vento, con dei picchi frequenti di oltre 100 kW al metro quadro. Un’ipotetica ventolina di soli 20 cm di diametro, immersa nel jet stream, potrebbe davvero alimentare abbondantemente un'abitazione tutto l'anno, sia di giorno che di notte.

Però una macchina che si immerga nel pieno del Jet Stream, a 9000 metri di altezza, è difficile perfino da immaginare. Solo fantasie tecnologicamente immature possono ipotizzare di sfruttare direttamente quel possente quanto ingestibile flusso. L'eolico di alta quota, in tutte le sue forme, si indirizza invece al flusso residuale, quello che si propaga dai jet streams e scende a quote relativamente più basse ed è destinato a frangersi e disperdere energia in calore tra le cime delle montagne, le foreste e l'orografia del territorio. Si deve pensare che gli estensori del paper non lo sapessero ? Cioè che criticassero una tecnologia pur ignorandone perfino le basi? Trattasi di un dubbio lecito e nel contempo alquanto inquietante.
E ancora, i lavori di Christina Archer e Ken Caldeira , che sono citati nello studio a preteso sostegno, non si concentrano invece affatto sull'ipotesi di sfruttamento del jet stream. L'atlante dei venti di alta quota che essi hanno pubblicato prende infatti in esame tutte le latitudini e longitudini alle varie altezze; per cui è inaccettabile che sia attribuito loro una focalizzazione esclusiva sul jet stream.
La magia insita nelle macchine che intendono sfruttare l'eolico troposferico è proprio la possibilità di modulare l'altezza operativa in modo da trovare sempre una brezza non troppo forte né troppo debole, col fine primario di fare concorrenza alla stabilità ed alla costanza delle centrali termiche, che convertono l'energia fossile provvidenzialmente accumulata nei milioni di anni dal nostro pianeta.
L'eolico di alta quota presenta inoltre il vantaggio di trovare concentrata questa energia approssimandosi al regime stazionario atmosferico; al quale si può accedere praticamente da qualunque luogo della superficie terrestre, senza richiedere di dispiegare centinaia di migliaia di installazioni sui territori. Ciò che c’è di positivo nel fatto di avere quella enorme risorsa energetica accumulata nei jet stream, non può certamente essere l'immaturo ed inutile proposito di estrarne migliaia di TW, ma è la consapevolezza di poter cogliere il vantaggio di una macchina che può attingere ovunque dalle perdite di quel serbatoio energetico per soddisfare auspicabili specifiche di funzionamento e di potenza erogabile.
Il limite di Betz
A pagina 206 del paper è citata la legge di Betz ed il suo limite al 59,3%. E le formulazioni matematiche di Betz descrivono effettivamente la metodologia per frenare al meglio il flusso del vento al fine di estrarre energia. Esse permettono cioè di capire che il vento non è da sfruttare a fondo perché deve fluire attraverso la macchina eolica senza perdervi tutta la velocità e l'energia posseduta. Condizione indispensabile per ottenere il migliore risultato.
Però le leggi di Betz sono preziose per le turbine eoliche, che hanno un fronte vento intercettabile limitato dalla dimensione delle pale in rotazione; per cui il vento elaborato mantiene in ogni caso l'energia residua che non viene convertita dalla macchina. Nel caso invece dell'eolico troposferico di tipo ground-gen (generatore a terra), quelle leggi perdono gran parte della loro importanza poiché il fronte vento intercettabile è decine di volte superiore a quello delle pale eoliche e quindi la velocità del vento viene ridotta solo leggermente. 

Gli autori del paper forzano il cosiddetto limite di Betz, con l'intento scoperto di affermare che la massima potenza cinetica estraibile è 7,5 TW e che quindi, a causa del limite di Betz, la potenza elettrica è di 4,5 TW. Ma questo non è vero perché, se la potenza cinetica estraibile fosse effettivamente limitata a 7,5 TW, le macchine eoliche dovrebbero elaborare vento per 12 TW lasciando fluire preservati 4,5 TW, assolvendo in pieno alla specifica di sottrarre solo 7,5 TW cinetici.

Modelli matematici
Spesso si sente dire che la scienza e gli scienziati sono divisi nel decifrare vari argomenti, come per esempio succede per i modelli che descrivono il caos climatico e la responsabilità antropica.

Molti politici non vogliono più sentir parlare di modelli, probabilmente perché hanno assistito a dimostrazioni di tesi opposte brandite con altrettanti modelli a supporto. Ebbene, è un vero peccato poiché l'essenza della politica degli statisti dovrebbe essere quella di prevedere il futuro con sufficiente anticipo per reagire correttamente.

Penso di aver focalizzato abbastanza chiaramente il principale fattore comune dei guasti cognitivi e comunicativi su molti argomenti di una certa complessità. Si tratta di differenti percezioni e interpretazioni dei fenomeni dinamici e retroattivi. Posso anzi dire che si nota una netta linea di demarcazione tra chi studia, percepisce ed è consapevole di fenomenologie multivariate con il loro corredo di forzanti e retroattività, e chi percepisce la scienza ed i suoi fenomeni con rappresentazioni statiche o semplici proiezioni tendenziali, come succede nel mainstream degli economisti o dei demografi.. Purtroppo, è possibile confezionare i cosiddetti modelli previsionali con entrambe quelle mentalità, ma con ben diversi risultati qualitativi.
Il lavoro di L. M. Miller, F. Gans and A. Kleidon rivela appunto una scarsa conoscenza della dinamica dei sistemi. Infatti, pur dichiarando di aver utilizzato un modello matematico ad elementi finiti, lo hanno applicato spalmando ovunque e forzatamente un freno fluidico quale emulazione di macchine eoliche di alta quota. Un errore marchiano, che risulta evidente pensando che le macchine eoliche devono avere necessariamente una geolocalizzazione, mentre tale aspetto è stato da loro completamente ignorato, 

Se i potenti flussi di vento di alta quota sono così mobili per quasi mancanza di attrito, un eventuale ostacolo puntuale verrebbe in buona parte aggirato, creando scenari dinamici inediti, ma modellizzabili con approcci più rigorosi.

Qui ho riprodotto un'immagine a dimostrazione che, mentre scrivevo, su Inghilterra, Francia, Italia e fino alla Grecia era presente un vento di oltre 200 km/h. Come si può notare, questi flussi accelerano, frenano e deviano, coinvolgendo immense masse d'aria a grande velocità e con grandi accelerazioni, in evoluzioni che in poche ore presentano configurazioni completamente differenti e grandi scambi e dissipazioni di energia.
Basti pensare all'energia veicolata da un vento come il foehn, frequente in Piemonte, che nel mentre deposita in scioltezza miliardi di tonnellate di neve sulle Alpi, riesce in pieno inverno ad elevare la temperatura di una intera regione a livelli estivi.


Per dare un'indicazione quantitativa, risultante dall'immagine, l'Italia era investita da una potenza eolica di oltre 200 TW, pari a circa 15 volte il fabbisogno mondiale primario. Qui posso appropriatamente parlare di potenza perché ho definito un’area (il fronte vento sulla penisola italiana) ed un riferimento temporale (l’istante cui l’immagine si riferisce). Lo studio di queste dinamiche atmosferiche emblematicamente ripropone le difficoltà citate. Eppure c'è chi pensa di poter mettere giù una manciata di equazioni, che a gamba tesa intervengono in un modello; e pretende di ottenere risultati sensati. 
Ipotizzare un limite di sfruttamento di pochi TW rappresenta per ora un più che comodo, ampio e direi comunque condivisibile obiettivo, fino a quando si potrà confermare, con lavori di modellizzazione rigorosi, che più si sfrutta il vento troposferico e più vento troposferico sarà disponibile. Una risorsa forse autofertilizzante, insomma.

L'anticipata sottrazione di energia cinetica da parte delle macchine eoliche, infatti, fa abbassare la temperatura anche di parecchi centesimi di grado nei cardioidi sottovento dell'atmosfera. E i differenziali termici, insieme al contenuto di vapore, sono il grande motore dei venti. 

La maggior parte dello sfruttamento, per ragioni geografiche e di popolazione, insisterà sulle celle di circolazione atmosferica di Ferrel, che rappresentano un colossale corto circuito energetico tra le celle di Hadley e le celle Polari. Sottrarre energia a queste celle di circolazione atmosferica può significare vedersela restituire integralmente dalle dinamiche circostanti.

Le Istituzioni, dove sono?
Dopo questa indispensabile critica del lavoro proveniente dal Max Planck Institute, finalmente si condividono gli elementi per affermare, senza apparire esagerati, che dalla sola Italia, grazie alla sua posizione trasversale ai grandi flussi pseudo geostrofici, si potrebbe facilmente estrarre 1 TW continuo di potenza, ovvero oltre 8000 TWh di energia annui. I quali, trasformati prosaicamente in denaro, equivarrebbero ad una produzione netta di ricchezza puramente endogena stimabile in 800 miliardi di euro l'anno.... Roba da far impallidire tutte le inique manovre finanziarie che i governanti ci stanno imponendo.
Qualche decina di grandi macchine eoliche o kitegen farms, distribuite da Nord a Sud, farebbero tutto il lavoro senza preoccupazioni di intermittenza, e a forse nemmeno un decimo del costo che avrebbe avuto il nostro nucleare.
Il fatto di scrivere e dimostrare percorsi progettuali credibili ci ha procurato la promessa (ma solo quella) di finanziamenti pubblici per un totale complessivo di 78 milioni. Abbiamo partecipato ai bandi per la ricerca e l'innovazione, e le commissioni si sono sempre entusiasmate del progetto; al punto che molti valutatori tecnici e strategici si sono sentiti in dovere di complimentarsi personalmente col sottoscritto. Mi ricordo di Zorzoli, Clini, Silvestrini, Degli Espinosa, Pistorio... Poi, regolarmente, i fondi sono stati bloccati e i responsabili trombati; oppure la pratica è finita in mano a burocrati lunari. Degli Espinosa e in particolare Pistorio all'epoca di “Industria2015” si erano convinti saggiamente, che almeno un KiteGen, realizzato su scala industriale, bisognasse assolutamente vederlo.
Consumare copiosamente energia da fonte rinnovabile è l'unico ed inedito motore primario e credibile per l'economia del futuro, ma sembra che un sentimento di impotenza e nichilismo imperino e che chi potrebbe darci una mano preferisca vedere il collasso.