venerdì, luglio 29, 2011

Quinto Convegno Nazionale Aspoitalia



Il Quinto convegno nazionale di ASPO-Italia organizzato in collaborazione con Climalteranti si terrà a Firenze il 28 ottobre 2011. Il convegno si svolgerà sotto il patrocinio della Regione Toscana nella sede del Consiglio Regionale.

Cassandra nel XXI secolo.

Clima, energia e cibo: fra informazione e disinformazione, crescita della consapevolezza pubblica e politiche appropriate.

ASPO-Italia, sezione italiana dell'Associazione per lo Studio del Picco del Petrolio e del Gas, dal 2003 si occupa di suscitare l'attenzione del pubblico, dei media e del mondo politico sul picco di produzione del petrolio e delle altre risorse fossili; indipendentemente dal preciso momento in cui questi picchi si verificheranno (o si sono già verificati) il problema è chiaro e rappresenta una singolarità storica, nella quale si fondono considerazioni di tipo ecologico, economico ed energetico. Un contesto la cui comprensione implica quell'approccio sistemico ai problemi globali che ha come capostipite i lavori svolti del Club di Roma negli anni ’60 e ’70 dello scorso secolo. ASPO-Italia, oltre ad occuparsi dei temi legati all'esurimento delle risorse, ha immediatamente messo al centro della propria azione la valutazione e la promozione delle forme sostenibili di produzione energetica, industriale e agricola.

Nelle sue precedenti edizioni il convegno di ASPO-Italia ha presentato tanto i problemi quanto le possibili soluzioni alla crisi indotta dal raggiungimento dei limiti della crescita economica. Il quinto convegno, organizzato in collaborazione con Climalteranti.it, è chiamato da una parte ad approfondire in prospettiva globale e locale i temi della sostenibilità del metabolismo sociale ed economico di una popolazione umana sempre crescente, dall'altra ad affrontare i problemi dell'informazione sulla natura e la persistenza delle resistenze alla costituzione di una consapevolezza diffusa e alla realizzazione di politiche adeguate per i problemi energetici e ambientali, in primo luogo quello dei cambiamenti climatici. In questo quadro sembra naturale l'incontro fra coloro che hanno sviluppato una particolare sensibilità sul lato dei problemi legati al picco del petrolio e ai problemi energetici in generale, con chi invece si occupa dei cambiamenti climatici.

L'esaurimento delle fonti fossili di energia e la questione climatica sono, in chiave sistemica, legate a doppio filo e lo sono anche sul lato della percezione del problema da parte dei cittadini e dell'opinione pubblica attraverso i mezzi di comunicazione. Tuttavia fra climatisti e picchisti si è sviluppata, a livello internazionale, una dialettica del genere: il mio problema è più grave del tuo, che invece tende a porre in competizione gli specialisti dei due campi. ASPO-Italia e Climalteranti si propongono di riportare nell'alveo dello scambio di idee, un confronto tecnico-scientifico naturale in due campi contigui. Se il problema energetico, la cui ipostasi è il Picco del Petrolio, ha immediati riflessi nell'economia, quello climatico ne ha, altrettanto immediati, sulla biosfera. I due fenomeni sono chiaramente già pienamente dispiegati ed iniziano ad interagire pericolosamente proprio sul lato dell'economia della produzione di cibo per un popolazione umana in continua crescita.

E' ormai chiaro che per mitigare gli effetti della tempesta perfetta che i fattori economici, energetici e ambientali prefigurano è richiesto un mutamento radicale del modo di percepire i problemi che conduca a modificare profondamente il metabolismo economico e sociale. In pratica un cambio di paradigma. Tale cambiamento non può più essere perseguito solo attraverso l'etica della convinzione, basata sull'enunciazione dei problemi dal punto di vista tecnico e scientifico, nella speranza che l'oggettività delle osservazioni quantitative sia di per se sufficiente; è ovviamente necessario anche un tipo di comunicazione che tocchi altre corde presenti nelle nostre menti e nei nostri cuori. Per questo il Convegno di ASPO-Italia quest'anno tenterà di esplorare vie di comunicazione diverse in cui ai seminari classici si alterneranno monologhi recitati da Gabriele Porrati con il suo gruppo teatrale. La presentazione dettagliata del programma sarà affidata a comunicazioni successive. Per il momento hanno assicurato la loro presenza Ian Johnson, Segretario Generale del Club di Roma, Caterina Batello della FAO e il “nostro” Luca Mercalli.

Buon riposo estivo a tutti quelli che non se lo sono ancora preso e arrivederci a presto.

Per il comitato organizzatore.

Luca Pardi e Stefano Caserini.

giovedì, luglio 28, 2011

Il debito sovrano non può abdicare

In tempo di crisi dei debiti sovrani, cioè del rischio di dissesto finanziario di alcuni Stati europei, può essere utile fornire alcuni semplici numeri che ci aiutino a capire la situazione delle finanze pubbliche italiane, del meccanismo di formazione del debito, delle misure necessarie a risanare i conti pubblici. Ricaviamo le informazioni necessarie dal “Documento di Economia e Finanza 2011 – Analisi e tendenza della finanza pubblica” disponibile sul sito del Ministero per l’Economia.

Il totale delle spese stimate per il 2010 è di 793,513 miliardi (739,614 in spese correnti e 53,899 in conto capitale), di cui 70,152 miliardi (8,8%) sono rappresentati dagli interessi che lo Stato paga ogni anno per finanziare il debito accumulato negli anni precedenti che, come vedremo, corrisponde a quasi il 120% del PIL.
Il totale delle entrate 722,302 miliardi non riesce a coprire le spese e si genera un indebitamento netto corrispondente a 71,211 miliardi.

Questo deficit di bilancio deve essere ripianato e cosa fa lo Stato? Chiede i soldi in prestito al mercato emettendo i cosiddetti titoli di Stato, che vengono acquistati da privati e istituzioni finanziarie. Naturalmente, la restituzione del prestito deve essere remunerata, cioè deve essere corrisposto ai creditori un interesse sul capitale prestato. Ciò determina un ulteriore aumento della spesa e la necessità di emettere di nuovo titoli di Stato per la sua copertura. Si crea così quella spirale perversa di accumulazione del debito che consiste nel pagare i debiti facendone altri e che non è molto dissimile dalla catena di Sant’Antonio che ha portato in galera il banchiere americano fraudolento Madoff. C’è un altro elemento di perversione in questo meccanismo, molto attuale in questo periodo: il rischio di insolvenza. Se lo Stato si indebita troppo, i potenziali acquirenti dei titoli potrebbero non avere più fiducia nella restituzione del capitale e disertare le aste, con la conseguenza che lo Stato è costretto ad aumentare l’interesse garantito per rendere più appetibile l’acquisto dei titoli. La conclusione estrema di questo “gatto che si morde la coda” finanziario è che lo Stato insolvente fallisce e con esso tutto il sistema della spesa sociale.

Così, per tentare di frenare il contagio partito dalla Grecia, l’Europa, prima con la Banca Centrale e poi con la creazione di uno specifico fondo ha provato a dare una garanzia ai mercati rispetto ai rischi di insolvenza degli Stati sovrani. Ma sembra che queste misure non siano state ritenute sufficienti e le tensioni che continuano a caratterizzare i mercati ne sono una riprova.
L’unico sistema serio per interrompere questa spirale distruttiva sarebbe l’azzeramento dei deficit di bilancio pubblici e conseguentemente, della necessità di contrarre nuovi debiti ed è ciò che l’Unione Europea ha chiesto ai propri Stati membri. La sostanza per l’Italia è che per il 2014 dobbiamo fare una manovra economica di circa 50 miliardi.

A tale scopo, ritornando alla tabella allegata, l’Italia non ha che due strade: tagliare le spese e aumentare le entrate. Siccome le voci di spesa prevalenti sono state già tagliate fino al limite della sostenibilità dello Stato Sociale attraverso le riforme pensionistiche degli anni passati, i vari blocchi del turn over e la riduzione delle spese di funzionamento nelle pubbliche amministrazioni, il sistema più efficace per reperire rapidamente e in maniera certa nuove risorse non poteva che essere accrescere le entrate ed è quello che ha fatto puntualmente il Governo aumentando varie tasse e tributi dell’ampio panorama fiscale italiano e riducendo le agevolazioni fiscali tra cui anche quelle per il risparmio energetico. L’aspetto iniquo della vicenda è che, a causa della cronica e mostruosa evasione fiscale presente nel nostro paese (valutata tra i 200 e i 300 miliardi all’anno), questo ulteriore prelievo fiscale graverà come al solito prevalentemente sul lavoro dipendente e, al suo interno sui redditi medio-bassi.

Infine, qualche parola sul debito pubblico complessivo accumulato dall’Italia, uno dei più alti al mondo, pari a più di 1600 miliardi. Bisognerà cominciare ad aggredire anche questo Moloch. Per evitare la distruzione dello Stato sociale nel nostro paese dovremo a mio parere combattere ferocemente l’evasione fiscale, aumentare i prelievi dalle ricchezze illegalmente accumulate ai danni della collettività, ridurre i privilegi, spostare parzialmente il prelievo fiscale dai redditi all’uso di risorse non rinnovabili e incrementare l’efficienza e la produttività della spesa pubblica.

Vaste programme, avrebbe detto il generale De Gaulle.

lunedì, luglio 25, 2011

Rinnovabili intermittenti: limite di allacciamento in rete



Scritto da Domenico Coiante


Dimensione del limite
I dati record fatti registrare in questi giorni dalla potenza fotovoltaica istallata di 7751 MWp (leggi qui il contatore GSE) ripropone il tema: “Penetrazione in rete delle fonti elettriche casualmente intermittenti”.
Mi sono imbattuto in questo argomento agli inizi degli anni ’80, quando, come responsabile del Progetto Fotovoltaico dell’ENEA, ho tentato di coinvolgere l’ENEL in un programma nazionale per la realizzazione di un piano di costruzione di centrali fotovoltaiche connesse alla rete elettrica. Il tentativo ebbe successo e la collaborazione ENEA – ENEL – CEE permise l’istallazione di numerosi impianti “pilota”, tra cui quello DELPHOS da 300 kWp a Foggia, che era all’epoca il più grande d’Europa (impianto potenziato successivamente a 600 kWp ancora oggi in funzione). Il risultato della campagna di sperimentazione fu la dimostrazione della validità tecnica della tecnologia fotovoltaica in relazione alla possibilità di produrre grandi quantità di elettricità. Si cominciò a progettare la fase successiva, quella dello sviluppo di grandi impianti da collegare alla rete elettrica, tanto che l’inizio degli anni ’90 vide la realizzazione della centrale dell’ENEL di Serre Persano da 3,3 MWp, prima parte di un progetto da 10 MW. La privatizzazione dell’ENEL, nel frattempo intervenuta, non permise l’implementazione del progetto e determinò la stasi del programma di sviluppo del fotovoltaico italiano con le conseguenze del ritardo tecnologico rispetto ad altri paesi europei, che oggi sono sotto gli occhi di tutti.
Proprio in occasione del primo programma fotovoltaico, l’ENEL si pose il quesito della compatibilità tecnica tra la potenza casualmente intermittente del fotovoltaico e dell’eolico e la stabilità della potenza circolante in rete. Fu commissionato uno studio al Centro Ricerche ENEL di Cologno Monzese, che si concluse con un risultato non definitivo e con il riconoscimento della necessità di ulteriori approfondimenti in relazione alla complessità dell’argomento.
In ogni caso, il rapporto conclusivo del primo studio fu classificato “riservato” e fatto circolare solo fra gli addetti ENEL. Ho avuto modo di leggere quel documento in modo informale ed ho potuto così apprendere che il limite di accettazione in rete per la potenza intermittente risultava intorno al 15% della potenza dei generatori rotativi complessivamente attivi in collegamento alla rete, cioè di quei generatori la cui potenza può essere variata rapidamente per compensare le variazioni della potenza richiesta dal carico.
Questa cifra era strettamente collegata alla situazione del parco dei generatori elettrici presenti nella rete italiana alla data dello studio, cioè all’inizio degli anni ’80. Nel 1994, un rapporto del World Energy Council (Renewable Energy Resources, pp.120-21, Kogan Page Ltd, London) affrontava l’argomento in modo generale, confermando l’esistenza del limite da collocare tra il 20 e il 30%. Uno studio successivo, commissionato al CESI intorno al 2000 ed anch’esso mai pubblicato, ha fatto riferimento alla nuova configurazione del parco elettrico italiano degli anni ’90 ed ha portato a stimare il limite di penetrazione intorno al 20-25%. Ho appreso questa cifra da informazioni verbali riservate ottenute da colleghi dell’ENEL durante un convegno e, purtroppo, non sono in grado di suffragarla citando una precisa pubblicazione, (che forse nel frattempo può esserci stata).
Mentre nessuno mette in dubbio l’esistenza del limite, sulla sua entità precisa si può avere qualche riserva, essendo la cifra fortemente dipendente dalla tipologia dei generatori, dalla configurazione topologica della rete e dalle connessioni con le reti dei paesi confinanti, tutti fattori che cambiano nel tempo. In mancanza di uno studio più aggiornato, considereremo la percentuale indicata come un riferimento per la situazione italiana con l’avvertenza della possibilità di una certa tolleranza.

Funzionamento della rete
Per capire il significato del limite, è necessario conoscere la rete elettrica almeno nelle sue parti essenziali ed il suo funzionamento schematico. Pertanto, anche a costo di annoiare i lettori ripetendo alcuni concetti espressi in precedenti lavori, proverò a descrivere brevemente la composizione e il funzionamento di questo sistema così complesso, utilizzando la mia approssimata conoscenza del sistema elettrico. L’argomento è molto complicato e la comprensione approfondita richiede conoscenze elettrotecniche specialistiche, non sempre presenti nei lettori. Tuttavia, per i fini di questo lavoro, basterà affrontare il tema in modo descrittivo, cercando di semplificare al massimo l’argomento.
La rete elettrica è un sistema energetico molto articolato, distribuito su tutto il territorio nazionale, in cui si possono distinguere quattro sotto insiemi principali.
1. Il primo è costituito dai numerosi e diversi generatori di potenza, che producono l’energia elettrica da distribuire e vendere agli utenti.
2. Il secondo è rappresentato dalle linee di trasmissione che, opportunamente collegate in maglie e nodi, indirizzano i flussi energetici dai generatori agli utenti.
3. Il terzo è rappresentato dall’insieme delle apparecchiature elettriche a cui è destinato il flusso d’energia, detto brevemente carico d’utenza.
4. Il quarto è costituito dal sottosistema di telemisurazione e controllo, che gestisce l’intero sistema assicurandone il corretto funzionamento temporale in relazione alla domanda di energia degli utenti. Detto in altri termini, il flusso di energia dai generatori ai carichi è regolato da un sistema di controllo il cui compito consiste nel mantenere, istante per istante, il livello di potenza nei nodi di smistamento sui valori richiesti dai carichi che afferiscono a quei nodi. In condizioni di equilibrio, una volta raggiunto il punto di lavoro, il controllo agisce in modo automatico correggendo le piccole fluttuazioni causate da eventuali variazioni di potenza nei generatori e/o nei carichi.

Infine, l’intera rete è collegata alle reti dei paesi confinanti con i quali scambia energia all’occorrenza.
Perché l’energia elettrica possa fluire con regolarità e in modo efficiente dai generatori ai carichi, è rigorosamente necessario che tutti generatori operino in modo sincrono: tutti devono fornire tensione e corrente alla stessa frequenza e con la stessa fase con limiti di tolleranza strettissimi (intorno all’1%). Questo è un requisito tecnico fondamentale da cui, come vedremo, dipende la nascita del limite d’immissione in rete per le fonti intermittenti.
In condizioni di funzionamento standard, la rete elettrica è un sistema in equilibrio dinamico e il sistema di controllo mantiene il funzionamento nel punto di lavoro istantaneo determinato dalla configurazione ed entità dei carichi. Al variare temporale della domanda di energia, il controllo agisce sui generatori modulandone la potenza in modo da seguire la richiesta dei carichi. In definitiva, se indichiamo con Pi(t) la richiesta di potenza del carico i-esimo nell’istante t e con Pgj(t) la potenza erogata nello stesso istante dal generatore j-esimo, le funzioni Pc(t) = SommatoriaiPi(t) e Pg(t) = SommatoriajPgj(t) sono dette rispettivamente diagramma di carico e di generazione. Il sistema di controllo fa in modo che il diagramma di generazione copra fedelmente il diagramma di carico per ogni istante della giornata. “Fedelmente” vuol dire che non ci deve essere spreco economico nella produzione per eccesso di offerta, né danno economico nell’utenza per deficit di potenza. Pertanto, nel caso ideale, istante per istante si ha che:

SommatoriajPgj(t) = SommatoriaiPi(t)

Dove la sommatoria al primo membro si estende a tutti i generatori attivi collegati alla rete e quella al secondo membro è estesa a tutti i carichi alimentati, rappresentando la richiesta totale di potenza.
Il valore delle sommatorie determina il livello della potenza totale presente in rete nell’istante considerato. Questo valore varia nel tempo in funzione della richiesta, ma in ogni caso l’uguaglianza tra la fornitura e la richiesta è mantenuta dal sistema di controllo.
Per questioni di economia, di norma, i generatori attivi sono fatti funzionare al massimo della potenza erogabile. Mano a mano che, nel corso della giornata, la richiesta di energia aumenta, il sistema di controllo fa crescere la potenza dei generatori funzionanti, portandoli fino al loro limite e poi attiva nuovi generatori, che, fino a quel momento erano tenuti disponibili in stand by, e così via fino a saturare completamente la domanda di potenza.
Alla rete sono collegati e tenuti attivi anche numerosi generatori rotativi termoelettrici “rapidi”, detti così perché hanno la proprietà di avere una rapida risposta (con tempi inferiori al minuto) rispetto al comando di variazione della potenza erogata, impartito dal sistema di controllo. Queste macchine non sono fatte funzionare alla massima potenza, ma mantenute un po’ al di sotto (circa al 90-95%) in modo da avere la possibilità di spingerle al massimo in caso di improvvise e impreviste richieste dei carichi. Esiste quindi un margine complessivo di potenza nella rete, DeltaPr, detto margine di riserva, a cui il sistema di controllo fa ricorso per compensare impreviste fluttuazioni dei carichi (o abbassamenti di potenza degli altri generatori per malfunzionamenti o guasti). Fanno parte del margine DeltaPr anche alcuni singoli generatori ad accensione rapida di piccola taglia (impianti turbogas e idroelettrici) tenuti in stand by e generalmente usati per coprire i picchi di assorbimento del diagramma di carico.
Per quanto vedremo meglio nel seguito, occorre evidenziare il fatto che il margine di potenza, di norma, non produce kWh da vendere e, pertanto, esso pesa sul bilancio economico a causa dei costi fissi d’impianto, che comunque i produttori devono sostenere per assicurare la riserva. Questi costi sono riconosciuti dal GSE e caricati sugli utenti come costi di gestione della rete sotto la voce costi di dispacciamento. Per non aggravare la bolletta, il margine di potenza è mantenuto sempre al minimo possibile compatibilmente con le previsioni statistiche di possibili perturbazioni dell’equilibrio.
Esaminiamo ora il caso della presenza in rete dei generatori casualmente intermittenti, come sono quelli eolici e fotovoltaici. Anzi, per maggior semplicità, limitiamoci a vedere che cosa accade con il fotovoltaico.
Quando il sole mattutino comincia a incidere sui pannelli, l’elettricità fotovoltaica inizia a fluire nella rete, andando a sommarsi a quella, già presente, dei generatori convenzionali. Indichiamo con Pph(t) la potenza fotovoltaica immessa in rete nell’istante t. Poiché il diagramma di carico Pc(t) non è cambiato rispetto al caso di assenza del fotovoltaico, il mantenimento dell’equilibrio dinamico richiede ora che:

Pph(t) + Pg’(t) = Pc(t)

Cioè:
Pg’(t) = Pc(t) - Pph(t)

La potenza complessiva richiesta ora ai generatori convenzionali si riduce della stessa quantità della potenza generata dal fotovoltaico, in modo che le esigenze del carico possano essere soddisfatte.
Per un momento facciamo l’ipotesi migliore possibile, cioè che la giornata sia limpida e serena e che la probabilità di annuvolamento sia quasi nulla (si noti il termine “probabilità”, non “certezza”). Inoltre dobbiamo ipotizzare che il carico si mantenga costante nel periodo in esame in modo da non richiedere interventi di compensazione da parte del sistema automatico di controllo con il ricorso ai generatori convenzionali.
In tali condizioni idealistiche, possiamo ridurre la potenza dei generatori convenzionali della stessa quantità di cui cresce la potenza fotovoltaica immessa in rete. Al limite, possiamo arrivare a pensare di sostituire tutta la potenza convenzionale (naturalmente avendo a disposizione un parco fotovoltaico adeguato). Quindi, non deve suscitare meraviglia il fatto che il contributo del fotovoltaico possa raggiungere, in condizioni molto particolari, incidenza rilevante, anche al di sopra del limite indicato del 20-25%. Il fatto è prevedibile, senza doverlo considerare “epocale”.
La questione è se in tali condizioni, oltre a ridurre la potenza erogata dai generatori convenzionali, cosa che ci fa risparmiare il costo del combustibile, possiamo anche eliminarne qualcuno dalla rete realizzando il risparmio dei costi fissi. E qui purtroppo iniziano le dolenti note.
Per poter spegnere e staccare dalla rete quei generatori convenzionali la cui potenza è stata sostituita per l’immissione del fotovoltaico, sia pure per il solo periodo solare della giornata, dovremmo avere la certezza della fornitura della potenza fotovoltaica per lo stesso periodo (prevedibilmente modulata nel tempo secondo l’andamento dell’insolazione). Purtroppo la certezza assoluta non si può avere, anche se in qualche caso potremmo contare su un alto valore di probabilità della fornitura. Non a caso, anche sopra, abbiamo usato il termine “probabilità”, perché la potenza fotovoltaica è una variabile aleatoria. La probabilità di annuvolamento in una giornata limpida non è affatto nulla e questo evento, come vedremo, può avere conseguenze negative molto importanti sull’intera rete nel caso di una penetrazione rilevante del fotovoltaico.
Inoltre, la possibilità di rimozione temporanea dei generatori convenzionali, e quindi del risparmio dei costi fissi d’impianto, è impedita dal fatto che tali generatori, sono costituiti per la maggior parte da impianti termoelettrici di grande taglia, il cui spegnimento e riavvio richiede tempi lunghi più di 12 ore, periodo difficilmente compatibile con la dinamica della generazione fotovoltaica, soprattutto in presenza di fluttuazioni rapide dovute alla nuvolosità. Quindi, questi impianti, che hanno anche la funzione dell’intervento di riserva, devono rimanere accesi a potenza ridotta, in modo da poter essere modulati rapidamente in ogni momento per compensare l’andamento fluttuante del fotovoltaico e/o dei carichi. Pertanto, in generale, non è possibile rimuovere alcun generatore termoelettrico, anzi, da questo punto di vista, si verifica il paradosso che un aumento della potenza fotovoltaica al di sopra della capacità di reazione del normale margine di riserva comporta la necessità di aggiungere nuovi generatori di riserva per garantire la sicurezza della rete, facendo aumentare di conseguenza i costi di gestione.
Esiste, tuttavia, una parte di generatori di piccola taglia (impianti turbogas), destinati a coprire i picchi di richiesta, che hanno un tempo di spegnimento e riaccensione di durata dell’ordine di ½ ora o 1 ora. Tali impianti possono essere spenti e risparmiati nelle giornate in cui la probabilità di insolazione stabile è alta e le eventuali fluttuazioni della radiazione solare hanno variazione lenta. In questo caso, ci si può basare sulle previsioni meteorologiche per impostare un piano di riduzione del numero di impianti ed assegnare al fotovoltaico un certo credito di potenza. Purtroppo, il numero di tali impianti pesa sul diagramma di generazione relativamente poco e, quindi, il credito di potenza da assegnare al fotovoltaico, che li sostituisce solo in parte, sarà marginale.

Come nasce il limite d’accettazione
Quale è il guaio peggiore che possa capitare alla rete?
E’ senza dubbio il “black out” parziale o totale. Quest’ultimo è un evento poco probabile, ma è già capitato due volte in tempi recenti, mentre quello parziale è più probabile e si verifica con maggiore frequenza. Senza entrare nei particolari, a noi basta sapere che, da un lato, durante il periodo di blocco non c’è produzione e quindi il danno economico sui produttori è rilevante, dall’altro lato, il danno causato agli utenti è enorme e produce un contenzioso legale di rivalsa a cascata sull’intero sistema di gestione della rete. (Basta pensare all’effetto sugli ospedali, sui trasporti ferroviari, sugli aeroporti, sul funzionamento dei grandi centri commerciali, ecc.) Non desta meraviglia, perciò, il fatto che i gestori delle reti nazionali cerchino di evitare in ogni modo le cause di possibili black out.
Come può avvenire questo evento?
Per cominciare, consideriamo il caso della nostra rete senza il fotovoltaico. Siamo in un giorno lavorativo qualsiasi in piena mattina e il sistema è in equilibrio dinamico sul livello di potenza richiesto dal carico Pc(t). All’improvviso, in modo imprevisto, si genera una perturbazione dell’equilibrio in una parte della rete. Le cause principali possono essere dovute, ad esempio, al guasto improvviso di un generatore di grande potenza e conseguente blocco dello stesso, o allo sgancio non previsto di un grosso carico per corto circuito, o all’aggancio non programmato di apparecchiature di grossa potenza, o caduta di fulmini sulle linee di trasmissione ad alta tensione, ecc.
La perturbazione appare sulle linee come una variazione brusca di tensione e di frequenza. Il sistema automatico di controllo interviene immediatamente agendo sui generatori rotativi di riserva richiedendo loro la potenza venuta a mancare e la compensazione del calo di frequenza con l’aumento del numero dei giri. Per questioni di rapidità d’intervento, sono interessati alle compensazioni per primi i generatori della riserva attiva che si trovano nella parte di rete in cui si verifica il guasto. Se l’entità della richiesta di potenza è maggiore della riserva vicina disponibile, l’intervento si allarga alle altre parti della rete con i tempi di risposta consentiti dagli impianti disponibili. Nella maggior parte dei casi, il sistema di controllo riesce a riportare in pochi minuti la rete locale all’equilibrio e il punto di lavoro della rete nazionale subisce solo un piccolo spostamento.
Può capitare, però, il caso in cui l’intensità della perturbazione rappresenti una frazione notevole del livello di potenza in cui si trova in quel momento la rete e che l’evento sia molto brusco, tanto che, da un lato, la potenza di riserva immediatamente attivabile dal sistema di controllo non sia sufficiente a coprire il deficit e, dall’altro, la rapidità della variazione non permetta il ricorso ai generatori lenti in stand by. In questo caso la richiesta eccessiva di potenza sul primo generatore di riserva interessato può causare un sovraccarico che il sistema di protezione dell’impianto giudicherà pericoloso per la sua integrità. La conseguenza immediata è lo spegnimento automatico del generatore ed il suo distacco dalla rete. Questo è causa di ulteriore aumento dell’intensità della perturbazione con la conseguente propagazione rapida a cascata sugli altri generatori vicini, che reagiranno automaticamente allo stesso modo, mettendosi in sicurezza. Il risultato è che, in pochi minuti, si ha il black out locale di quella parte e, nel caso peggiore, di tutta la rete.
La più recente verifica sperimentale di questo evento si è avuta nella notte del 28 settembre 2003 alle ore 3.01, quando la caduta di un albero sulla linea ad alta tensione che collega il Piemonte alla Svizzera ha bruscamente interrotto il flusso di circa 2000 MW verso la centrale di Rondissone, la cui capacità di reazione non era adeguata a compensare tale deficit. La richiesta immediata di compensazione locale fatta alla linea francese, che in quel momento immetteva in Italia circa 4000 MW, portava ad oscillazioni di tensione e di frequenza ritenute pericolose per la stabilità della stessa rete francese con il conseguente distacco dalla rete italiana. In pochi minuti sono venuti a mancare altri 4000 MW, cioè in totale circa 6000 MW sui 27000 MW che alimentavano la rete in quel momento. L’impatto di questo transiente sull’intero sistema portò ad un abbassamento della frequenza sull’intera rete, che si ridusse in pochi minuti da 50 Hz al valore (critico per i sincronismi) di 47,5 Hz, imponendo interventi di distacco a catena sul Nord, ma anche sui generatori dell’estremo Sud, fino alla Sicilia.
La richiesta immediata di potenza ha sovraccaricato l’impianto di Rondissone causandone lo spegnimento automatico. Il sistema di controllo della rete ha reagito iniziando a distaccare i carichi e a richiedere l’intervento di tutti i generatori della riserva del Nord Italia. Purtroppo, a causa dell’ora notturna, essi erano in gran parte spenti. Il black out riguardò tutta l’Italia: al Sud per qualche minuto, al Nord per qualche ora ed in alcune zone del Nord Est il blocco durò circa 24 ore con danni enormi.
La lezione appresa da questo evento può essere grossolanamente riassunta dicendo che la perturbazione causata dalla mancanza improvvisa di 6000 MW sulla situazione d’equilibrio in rete di 27000 MW ha provocato il black out totale. L’intervento dei 21000 MW di generatori termoelettrici attivi con il loro scarso margine di riserva non ha permesso la compensazione dello squilibrio ed il recupero della stabilità della rete. Detto in termini relativi: una variazione dello stato di equilibrio della potenza in rete pari al 22% (rispetto al livello operativo) e al 28% (rispetto alla potenza rotativa attiva) ha determinato il black out (naturalmente nelle condizioni della configurazione di rete del 28 settembre 2003).
L’evento non ci consente di stabilire quale sia il limite esatto di tolleranza per l’intensità della perturbazione da parte del sistema di controllo della rete, tuttavia l’esperienza ha dimostrato che tale limite deve essere posto sicuramente sotto al 28% della quantità di potenza dei generatori rotativi attivi in rete. Da questo punto di vista lo studio del CESI (limite al 20-25%) appare in perfetto accordo.
Veniamo ora al caso in cui sia presente in rete la potenza fotovoltaica Pph. Supponiamo di trovarci in un momento statisticamente fortunato di piena insolazione sulla maggior parte degli impianti, mentre in cielo sono presenti grosse nuvole sparse che corrono spinte dal vento. Il gestore della rete, come abbiamo visto, ha ridotto della stessa quantità la potenza Pg dei generatori convenzionali fino al valore Pg’ = (Pc - Pph). In ogni caso, temendo l’aleatorietà del fotovoltaico, li ha mantenuti attivi, a bassa potenza, in modo da poterli riportare a regime rapidamente nell’eventualità di variazioni della curva di produzione oraria.
Supponiamo ora il caso peggiore, cioè che il nostro momento fortunato si trasformi improvvisamente in uno sfortunato, statisticamente improbabile, ma pur sempre possibile, in cui la maggior parte degli impianti siano oscurati dalle nuvole simultaneamente. La potenza fotovoltaica subisce un brusco decremento con conseguente variazione di ampiezza pari a Pph e la perturbazione si trasmette istantaneamente alla rete. Il sistema automatico di controllo interviene nel tentativo di compensare la variazione di tensione e frequenza facendo ricorso alla riserva di potenza dei generatori rotativi rapidi, in quel momento attivi in rete.
Come si può costatare, il caso è del tutto analogo a quello sopra descritto del distacco della linea svizzera che causò il black out nel 2003.
Indichiamo genericamente con K il limite di accettazione della rete per l’immissione di potenza intermittente come frazione della potenza Pg dei generatori di riserva in quel momento attivi. Naturalmente, data la natura statistica dell’evento, il valore di K sta ad indicare che il superamento del limite non provoca sicuramente il black out, ma soltanto che la probabilità dell’evento è fortemente aumentata.
Si possono dare due casi per l’ampiezza della variazione della potenza fotovoltaica:
1. DeltaPph < K Pg; 2. DeltaPph > K Pg.
Per quanto abbiamo visto, nel primo caso il sistema di controllo può recuperare l’equilibrio utilizzando la riserva di potenza, mentre nel secondo si può rischiare il black out, qualora non si riuscisse ad effettuare in tempo il distacco d’emergenza dei carichi, cosiddetti interrompibili.
Il verificarsi dell’evento estremo non solo dipende dalla disponibilità di sufficiente capacità di riserva per compensare l’ampiezza della variazione, ma dipende anche dalla rapidità con cui si realizza tale variazione. Infatti la possibilità di recupero da parte del controllo della caduta di frequenza (prima che essa scenda sotto il limite dei sincronismi) dipende dalla rapidità di risposta dei generatori e dalla necessità di mantenere tale risposta entro condizioni di sottocriticità per evitare le oscillazioni del numero dei giri. La risposta immediata ai transienti troppo bruschi non è permessa e in tali condizioni le variazioni di frequenza possono portare i generatori allo spegnimento in protezione.

Probabilità del black out
Come si è detto, il limite di penetrazione K ha un significato probabilistico. Se la variazione relativa DeltaPph/Pg > K, ciò non significa che è certo il black out, significa solo che esiste una probabilità finita che l’evento possa avvenire. Naturalmente, il rischio dei danni che tale caso può procurare dovrebbe essere sufficiente a mettere in allarme il GSE circa l’aggiunta in rete di nuova potenza intermittente.
Allo stato attuale, non risulta che ci sia stata una valutazione ufficiale del limite da parte del GSE, anche se, limitatamente al caso particolare della rete siciliana, la Terna ha sollevato qualche dubbio di tenuta rispetto alla quantità di potenza eolica ulteriormente collegabile.
Tutto ciò premesso, andiamo avanti con le nostre considerazioni. Consideriamo affidabile il valore di K = 25%, indicato dallo studio CESI e convalidato dal black out del 2003 e cerchiamo di ricavare il valore limite di DeltaPph.
Per far questo abbiamo bisogno di stabilire con una certa sicurezza il valore di Pg e ciò non è affatto facile, perché le informazioni circa le centrali elettriche sono state classificate come riservate a partire dal maggio 2008. I dati pubblicati dalla Terna riguardano soltanto la potenza totale termoelettrica, che è di 79430 MW alla fine del 2010, senza alcuna specificazione circa il tipo e l’ubicazione delle centrali. Questo dato costituisce l’estremo superiore per Pg, poiché esso comprende anche i generatori utilizzati soltanto nei momenti di punta.
Dall’altro lato possiamo vedere nei diversi diagrammi giornalieri di carico, pubblicati dalla Terna, che nelle ore meridiane la potenza alla base del picco d’assorbimento si aggira intorno ai 38000-40000 MW, mentre quella di picco può arrivare a oltre 50000 MW. Poiché la potenza di picco è fornita essenzialmente dalle centrali idroelettriche e turbo gas, possiamo ragionevolmente concludere che la potenza di base e intermedia provenga tutta dai generatori termoelettrici. Pertanto, considerato un adeguato margine di riserva, possiamo supporre che la potenza attiva disponibile possa assommare a circa 45000 MW e tale valore può essere considerato come l’estremo inferiore per Pg.
Infine, da una lista delle centrali elettriche italiane pubblicata da Wikipedia, sicuramente non aggiornata, si ricava che la potenza totale dei generatori termoelettrici di taglia superiore a 100 MW (quelli utilizzabili per la riserva) è pari a 47500 MW.
In conclusione, possiamo ragionevolmente assumere che la potenza dei generatori rotativi attivi nella rete è all’incirca Pg = 50000 MW. Di conseguenza, il rischio di black out dovrebbe presentarsi quando la potenza fotovoltaica Pph, immessa in rete, può subire casualmente una variazione superiore a DeltaPph = K Pg = 12500 MW.
Per l’incertezza con cui si conosce il livello della potenza rotativa Pg e il significato probabilistico di K, questo numero non va preso come una misura precisa del limite d’accettazione. Esso, piuttosto, va considerato come un’indicazione del livello di penetrazione in rete delle fonti intermittenti, intorno al cui valore ci si deve incominciare a preoccupare per il rischio di black out.
Ricordiamo che, in caso di annuvolamento nelle ore meridiane, deltaPph = Pph – Pph0, dove Pph0 rappresenta il livello inferiore a cui si porta la potenza degli impianti per l’oscuramento del sole. Il funzionamento del fotovoltaico è tale che la potenza erogata va a zero solo in assenza completa di luce, cioè di notte; quindi, anche per un annuvolamento profondo, gli impianti continuano ad erogare potenza per circa il 30% della piena illuminazione, (livello corrispondente alla residua luce diffusa). Avremo allora Pph0 uguale a circa 0,3 Pph e quindi DeltaPph = 0,7 Pph, cioè la massima variazione possibile è pari al 70% della potenza fotovoltaica istallata.
L’annuvolamento improvviso del cielo, simultaneamente sopra tutti gli impianti, è un evento estremamente improbabile, data la loro distribuzione diffusa su tutto il territorio nazionale. Tuttavia, a scopo cautelativo, immaginiamo che tale caso peggiore possa verificarsi.
Ricordiamo, inoltre, che anche la potenza eolica istallata Peol è intermittente e, quindi, anch’essa può improvvisamente variare profondamente. La possibilità della maggiore variazione si verifica in corrispondenza dell’ intensificazione del vento, quando la velocità delle raffiche arriva a superare il limite di cut out degli aerogeneratori. In questo caso, il sistema automatico di protezione mette in bandiera le pale riducendo rapidamente a zero la potenza erogata dalle macchine. Pertanto, l’erogazione può passare bruscamente da Peol a zero con una variazione d’ampiezza DeltaPeol = Peol. Purtroppo ciò avviene di regola proprio in correlazione con il passaggio di una grande perturbazione atmosferica, quando è più probabile l’evento contemporaneo dell’oscuramento del sole sugli impianti fotovoltaici. Il risultato, (sempre in termini probabilistici del caso peggiore) è che la variazione dell’eolico si somma a quella del fotovoltaico e si può avere una variazione totale della potenza immessa in rete:

DeltaP =DeltaPph + DeltaPeol = 0,7 Pph + Peol

Il rischio di black out inizia se e quando si dovesse superare il limite d’accettazione:

DeltaP = 0,7 Pph + Peol > 12500 MW

Per il fotovoltaico, questa condizione significa che la potenza installata compatibile con quella eolica dovrebbe mantenersi al di sotto del valore:

Pph = (12500 - Peol)/0,7

Il rapporto ultimo disponibile della Terna assegna all’eolico al 2010 una potenza istallata di circa 6000 MW, per cui la potenza fotovoltaica massima istallabile sarebbe Pph = 9300 MWp, ipotizzando che la potenza eolica non aumenti ulteriormente (cosa che si sta puntualmente verificando).
Fino a pochi anni fa, questo livello di potenza era considerato così lontano che sembrava prematuro stare a preoccuparsi del rischio di black out. I 7750 MW fotovoltaici, che risultano oggi collegati alla rete, si trovano ancora entro la zona di sicurezza, ma si stanno avvicinando molto al limite che può portare all’instabilità della rete con probabilità finita del black out.

Conseguenze del limite sul contributo energetico
Come abbiamo visto, il limite K è un concetto statistico che contiene un certo margine d’incertezza. Per questo motivo, si può discutere sulla sua entità in relazione ai fattori da cui esso dipende. Sulla sua esistenza, però, non si può avere incertezza, essendo il concetto conseguenza diretta dell’aleatorietà della produzione di potenza e dei suoi effetti sul sistema automatico di controllo della rete.
Pertanto, le fonti rinnovabili elettriche casualmente intermittenti, collegate direttamente alla rete senza accumulo, hanno un limite di penetrazione K.
L’energia elettrica prodotta congiuntamente da fotovoltaico ed eolico in corrispondenza di questo limite è data da:

E = K Pg H (MWh)

Dove H = 1350 è il numero di ore equivalenti di funzionamento a piena potenza mediato sulle due fonti rispetto alle medie nazionali di 1200 ore per il fotovoltaico e 1500 ore per l’eolico.
La richiesta totale di elettricità è stata nel 2010 di Eel = 326 106 MWh (vedi qui), per cui il contributo massimo delle rinnovabili intermittenti corrisponde ad una quota del fabbisogno elettrico di:

Q = E/Eel = (K Pg H)/Eel = 5,2%

Dove si è posto K = 0,25 e Pg = 50000 MW.
Pertanto, in termini di elettricità, le nostre fonti intermittenti potranno portare un contributo massimo intorno al 5,2%.
Ricordiamo, infine, che l’incidenza del settore elettrico sui consumi totali di energia è di circa il 35%. Quindi, in termini di energia primaria, il contributo delle fonti intermittenti sul bilancio energetico nazionale sarà marginale, essendo confinato intorno al 2%. Le attese poste su queste fonti per il risanamento ambientale emergono come fortemente ridimensionate.
Questo deludente risultato è dovuto indubbiamente al valore basso del limite di penetrazione in rete da noi ipotizzato per i calcoli (25%). Tuttavia, se assumessimo un valore doppio, il contributo si porterebbe intorno al 4%, rimanendo ugualmente marginale rispetto al fabbisogno energetico.
La conclusione è che la presenza in sé del limite di penetrazione in rete introduce un tetto al possibile contributo delle fonti intermittenti e, quindi, all’ulteriore sviluppo del mercato. Se vogliamo realizzare pienamente le loro indubbie potenzialità, come d’altra parte impone la crisi climatica, dobbiamo assolutamente rimuovere il vincolo dell’intermittenza, passando ad un nuovo modello di applicazione dei sistemi che contempli anche l’accumulo dell’energia.
L’approssimarsi delle complicazioni di gestione della rete, dovute al raggiungimento del limite, impone che tale provvedimento strategico sia preso in tempi relativamente brevi. Diamoci da fare!

sabato, luglio 23, 2011

Ci attendono tempi interessanti

La notizia degli ultimi giorni è l'inizio del disfacimento della maggioranza di governo, che si concluderà molto probabilmente con la fine anticipata del Governo Berlusconi. Nella Lega, la lotta intestina che covava da tempo sembra risolta a favore del delfino del segretario, il ministro Maroni. In termini psicanalitici, il figlio ha ucciso il padre, a livello politico è prevalsa una linea di rottura dell'asse di ferro con Berlusconi.

Non sappiamo se sia in atto un gioco delle parti tra il capo e l'aspirante capo, ma Bossi e la Lega avevano già perso la loro partita politica da tempo, scommettendo su una disunità degli italiani storicamente infondata e culturalmente inesistente. Le celebrazioni del 150° hanno ancora una volta dimostrato che il popolo italiano ha una salda identità nazionale ed è coeso. La recente indagine di una nota società demoscopica ha verificato che le parole secessione e federalismo sono agli ultimi posti dell'immaginario collettivo italiano.
Il rinnovato spirito patriottico è inoltre alla base di quella ripresa dello spirito civico che ha determinato i risultati delle recenti elezioni amministrative e referendarie, sancendo la sconfitta delle forze di governo e di una visione della politica che interpreta i comportamenti elettorali come semplice espressione degli interessi materiali in gioco.

Ora ci attendono tempi molto interessanti. La stasi economica strutturale, la crisi dei debiti sovrani e, dal nostro punto di vista, la crisi energetica post picco petrolifero, rappresentano nel loro insieme un evento catastrofico che potrà sfociare in un declino irreversibile della società italiana o rappresentare (come ha più volte evidenziato il Presidente della Repubblica) un'opportunità storica per il nostro paese di superamento dei mali atavici che ci affliggono.

Occorreranno grandi personalità politiche ed elevati profili di statista per affrontare queste emergenze, che l'attuale panorama politico italiano non sembra minimamente garantire.

Staremo a vedere. Alla fine potremo anche rispondere alla domanda se sono i grandi uomini che fanno la storia o se è la storia che fa i grandi uomini.

martedì, luglio 19, 2011

Curiosità fotovoltaiche



Dopo la pubblicazione in questo articolo della classifica regionale delle installazioni procapite di impianti fotovoltaici, e successivamente (qui) della stessa classifica relativa ai Comuni capoluogo, vorrei proporvi per concludere la tabella allegata (ingrandire cliccando sopra) che contiene l'elenco dei primi venti Comuni italiani in assoluto con la maggiore potenza installata per abitante. Tutti superano i 3 kW procapite, potenza che consente di produrre più di 3500 kWh, cioè più del consumo medio di una famiglia italiana.

Il lavoro è stato lungo e laborioso perchè ho dovuto riportare su un foglio excel i dati sulla potenza installata disponibili sul sito del GSE per più di 8000 Comuni e intersecarli con i dati la popolazione ricavati dal sito dell'Istat. Excel consente miracoli, però non sono in condizione di escludere qualche limitato errore di lavorazione.
Per la cronaca, il primo Comune ha un nome grazioso ed è in provincia di Rovigo, si chiama San Bellino e ha pochi grandi impianti che, rapportati all'esigua popolazione, conducono al record di potenza procapite di quasi 6 kW.


Chi fosse interessato a sapere la posizione in classifica del proprio Comune, mi scriva pure.

domenica, luglio 17, 2011

Il trenino rosso del Bernina

In questa foto sono l'immeritato contorno del trenino rosso del Bernina e dell'incantevole paesaggio alpino da esso attraversato. Nella vacanza che mi sono concesso visitando il Cantone dei Grigioni in Svizzera, non potevo perdere l'occasione di viaggiare su questa ferrovia insignita di recente del titolo di "Patrimonio Unesco dell'Umanità", per le ardite e ingegnose soluzioni ingegneristiche concepite un secolo fa allo scopo di attraversare uno dei paesaggi montuosi più affascinanti.

Ogni volta che viaggio sulle ferrovie del nord Europa, non posso fare a meno di confrontarle con la disastrosa situazione di casa nostra, in termini di qualità del servizio, modernità del materiale rotabile, di pulizia e puntualità dei treni.

Anche stavolta, durante il viaggio, ho riflettuto su cosa sarebbe necessario al nostro paese per colmare questo apparentemente incolmabile divario.
Il Senatore a vita Giulio Andreotti, ebbe a dire molti anni fa con il suo consueto cinismo, che in Italia esistono due tipi di matti: quelli che si credono Napoleone e quelli che pensano sia possibile risanare le ferrovie italiane.
Io invece, trovo possibile il raggiungimento di questo obiettivo, a patto che ci sia la necessaria volontà politica. La mia personale e sintetica ricetta è la seguente.

C'è un problema di allocazione di risorse al trasporto su ferro a scapito della strada, ma soprattutto di organizzazione efficiente del sistema di trasporto collettivo. Il nostro paese, rispetto ai paesi europei più evoluti in questo settore, ha tre problemi:

1) Una preponderanza del trasporto pubblico su gomma nei confronti del ferro, in area urbana ed extraurbana.
2) Un gestore monopolistico delle Ferrovie estremamente inefficiente sul piano economico e gestionale.
3) Una rete ferroviaria nazionale sottodimensionata rispetto alle esigenze.

A questi problemi si può porre rimedio con:
1) Un programma nazionale di costruzione di infrastrutture ferro tranviarie nelle città, utilizzando in parte la rete ferroviaria esistente ampiamente sottoutilizzata con i moderni tram - treni in grado di percorrere indifferentemente con continuità i binari ferroviari e quelli urbani e liberalizzando il settore con gare per l'assegnazione del servizio (ad esempio con il project financing).
2) Completare la rete nazionale dell'Alta velocità che già nell'attuale configurazione ha sottratto quote rilevanti di spostamenti all'aereo e all'auto e che con il prossimo ingresso della concorrenza sulla linea Napoli - Torino di un competitore delle FFSS, l'acquisto da parte di queste ultime di nuovo materiale rotabile e il completamento degli ultimi lavori di velocizzazione alle stazioni, aumenterà ancora la quota di mercato, attualmente superiore al 50%.
3) Completare il processo di liberalizzazione in corso anche sulle reti preesistenti all'Alta velocità che, proprio grazie all'eliminazione del traffico di lunga percorrenza, possono essere più facilmente dedicate al trafffico di pendolarismo.

mercoledì, luglio 13, 2011

Una tecnologia rivoluzionaria nel settore dei trasporti

Qualche settimana fa ho partecipato a un importante convegno organizzato a Firenze dall’associazione AMT (gli interessantissimi atti del convegno sono disponibili qui), dedicato alla tecnologia del tram – treno e alle sempre più numerose applicazioni europee di successo di questo mezzo innovativo, a cui hanno partecipato tutte le principali aziende costruttrici del settore.

Come ho spiegato in articoli precedenti, il tram – treno può percorrere indifferentemente, con continuità, tracciati urbani e ferroviari, con scartamenti, tensioni e fasi di linea diverse, di fatto trasformando il trasporto ferroviario locale nel tassello di una rete più ampia che permette di collegare in maniera diretta, senza rotture di carico, diverse località di area vasta. In altre parole, diventa possibile trasportare con un servizio di tram moderni, frequente e regolare, grandi quantità di passeggeri nelle parti centrali e nevralgiche di centri abitati diversi, senza effettuare cambi di mezzo. Ciò consente di amplificare enormemente il bacino di utenza di linee ferroviarie prima improduttive e minacciate di chiusura.

Durante il convegno è stato fatto il punto sulla situazione della normativa ferroviaria necessaria a recepire queste novità tecnologiche anche in Italia, considerando che tali sistemi potrebbero essere oggi classificati in tre tipi. Di questi, ovviamente, quello più interessante è certamente il cosiddetto TT3, che prevede cioè la totale promiscuità di circolazione sulle linee ferroviarie di tram e treni, ma aumentano i vincoli di compatibilità. Il tipo TT1, con sostituzione dei treni convenzionali con i tram - treno sulle linee ferroviarie e integrazione con nuove linee urbane, può trovare diverse utili applicazioni in Italia.

Molto interessante e istruttiva è stata l’illustrazione dell’esperienza pioniera e più avanzata in Europa, quella di Karlsruhe. Il primo dei servizi di tram treno in questa città entrò in funzione nel settembre 1992 fra Karlsruhe e Bretten, su una distanza complessiva di circa 30 Km, come linea B della rete extraurbana di Karlsruhe. Dai circa 2.000 passeggeri prima dell’introduzione del tram treno, oggi la linea serve ben 18.000 passeggeri, grazie alla penetrazione ottimale nel centro urbano di Karlsruhe e dell’istituzione di nuove fermate sul percorso ferroviario (raddoppiandone il numero, rispetto a prima) per servire meglio il territorio ed i nuovi insediamenti sviluppatisi lungo la linea.
Nel centro cittadino di Karlsruhe transitano oggi sui binari tranviari urbani, in ogni ora del giorno, tram moderni e veloci, di grande capacità, con orari cadenzati; alcuni di essi poi si immettono sulla rete ferroviaria, per varie destinazioni: ora anche su linee principali a doppio binario, come la stessa dorsale renana che collega Basilea a Francoforte, a Colonia ed alla Ruhr, percorsa nel contempo anche dai treni I.C.E. ad alta velocità. Altri di questi tram partono direttamente su ferrovia dall’ interno della stazione centrale di Karlsruhe; ed alcuni di questi veicoli sono stati acquistati dalle stesse ferrovie statali tedesche ( DB ) e fanno parte del loro parco rotabile.

La linea extraurbana B, istituita nel 1992 fino a Bretten Golshausen, dal 1997 è divenuta la S 4 ed ha proseguito per altri 20 Km., fino ad Eppingen; ora raggiunge Heilbronn, ancora 24 km più avanti. Dall’ altro lato non si ferma più a Karlsruhe, ma, dopo avere attraversato la città sui binari tranviari, si reimmette da questi sulla rete ferroviaria - proprio sulla dorsale renana - e prosegue per altri 32 Km fino alla stazione di Baden Baden, effettuando un percorso diametrale complessivo di oltre 100 Km: con la prospettiva di continuare direttamente, in futuro, dalla stazione fino al centro termale di Baden Baden.

Impressionanti sono i risultati di gestione illustrati da un dirigente dell’Azienda di Karlsruhe e sintetizzati nel grafico che allego.

Paradossale, ma significativa della possibilità concreta di costruire un’alternativa reale ed efficiente al trasporto motorizzato privato è il progetto in corso di realizzazione per ulteriormente sviluppare il sistema, volto a costruire una galleria sotto il centro storico per evitare il “problema” sempre più pressante dell’ingorgo di tram in quella zona.

Naturalmente, delle innumerevoli realizzazioni e progetti presenti in Europa, solo pochissime riguardano l'Italia, e lasciano un grande spazio di iniziativa per chi voglia promuovere anche nel nostro paese una mobilità realmente alternativa all'automobile.

lunedì, luglio 11, 2011

Mercalli: i numeri svelano il flop dell’inutile Torino-Lione

Utilizzando un articolo già apparso su questo blog, pubblichiamo volentieri un commento di Luca Mercalli, esponente di spicco di Aspoitalia che illustra le proprie motivazioni contro il contestato progetto di nuovo tunnel ferroviario tra Torino e Lione.


Scritto da Luca Mercalli


Le grandi opere non le vuole più nessuno, salvo chi le costruisce e la politica bipartisan che le sponsorizza con pubblico denaro. Dell’inutilità del Ponte sullo Stretto non vale più la pena di parlare, e dell’affaruccio miliardario delle centrali nucleari ci siamo forse sbarazzati con il referendum. Prendiamo invece il caso Tav Val di Susa. Su cosa sta succedendo in questi giorni in Piemonte, sulla repressione, vi consigliamo la lettura di “Piove sulla Valle di Susa” di Claudio Giorno scritto per il sito “Democrazia Km Zero”. Per i promotori si tratterebbe di un progetto “strategico”, del quale l’Italia non può fare a meno; sembra che senza quel supertunnel ferroviario di oltre 50 km di lunghezza sotto le Alpi, l’Italia sia destinata a un declino epocale, tagliata fuori dall’Europa.
Chiacchiere senza un solo numero a supporto: è da vent’anni che le ripetono e mai abbiamo visto supermercati vuoti perché mancava quel buco. I numeri invece li hanno ben chiari i cittadini della Valsusa che costituiscono un modello di democrazia partecipata operante da decenni, decine di migliaia di persone, lavoratori, pubblici amministratori, imprenditori, docenti, studenti e pensionati, in una parola il movimento “No Tav”, spesso dipinto come minoranza facinorosa, retrograda e nemica del progresso. Numeri che l’Osservatorio tecnico sul Tav presieduto dall’architetto Mario Virano si rifiuta tenacemente di discutere. Proviamo qui a metterne in luce qualcuno.

Il primo assunto secondo il quale le merci dovrebbero spostarsi dalla gomma alla rotaia è di natura ambientale: il trasporto ferroviario, pur meno versatile di quello stradale, inquina meno. Il che è vero solo allorché si utilizza e si migliora una rete esistente. Se invece si progetta un’opera colossale, con oltre 70 chilometri di gallerie, dieci anni di cantiere, decine di migliaia di viaggi di camion, materiali di scavo da smaltire, talpe perforatrici, migliaia di tonnellate di ferro e calcestruzzo, oltre all’energia necessaria per farla poi funzionare, si scopre che il consumo di materie prime ed energia, nonché relative emissioni, è così elevato da vanificare l’ipotetico guadagno del parziale trasferimento merci da gomma a rotaia. I calcoli sono stati fatti dall’Università di Siena e dall’Università della California. In sostanza la cura è peggio del male.

Veniamo ora all’essere tagliati fuori dall’Europa: detto così sembra che la Val di Susa sia un’insuperabile barriera orografica, invece è già percorsa dalla linea ferroviaria internazionale a doppio binario che utilizza il tunnel del Fréjus, ancora perfettamente operativo dopo 140 anni, affiancato peraltro al tunnel autostradale. Questa ferrovia è attualmente molto sottoutilizzata rispetto alle sue capacità di trasporto merci e passeggeri; sarebbe dunque logico, prima di progettare opere faraoniche, utilizzare al meglio l’infrastruttura esistente.

“Lyon-Turin Ferroviarie”, a sostegno della proposta di nuova linea, ipotizza che il volume dell’interscambio di merci e persone attraverso la frontiera cresca senza limiti nei prossimi decenni. Angelo Tartaglia del Politecnico di Torino dimostra che «assunzioni e conclusioni di questo tipo sono del tutto infondate». I dati degli ultimi anni lungo l’asse Francia-Italia smentiscono infatti questo scenario: il transito merci è in calo e non ha ragione di esplodere in futuro. Un rapporto della “Direction des Ponts et Chaussées” francese, predisposto per un audit all’Assemblea Nazionale nel 2003, afferma che riguardo al trasferimento modale tra gomma e rotaia, la Lione-Torino sarà ininfluente.

E ora i costi di realizzazione a carico del governo italiano: 12-13 miliardi di euro, che considerando gli interessi sul decennio di cantiere portano il costo totale prima dell’entrata in servizio dell’opera a 16-17 miliardi di euro. Ma il bello è che anche quando funzionerà, la linea non sarà assolutamente in grado di ripagarsi e diventerà fonte di continua passività, trasformandosi per i cittadini in un cappio fiscale.

Ho qui sintetizzato una minima parte dei dati che riempiono decine di studi rigorosi, incluse le recenti 140 pagine di osservazioni della Comunità Montana Valle Susa e Val Sangone, dati sui quali si rifiuta sempre il confronto, adducendo banalità da comizio tipo “i cantieri porteranno lavoro”. Ma suvvia, ci sono tanti lavori più utili da fare! Piccole opere capillari di manutenzione delle infrastrutture italiane esistenti, ferrovie, acquedotti, ospedali, protezione idrogeologica, riqualificazione energetica degli edifici, energie rinnovabili. Non abbiamo bisogno di scavare buchi nelle montagne che a loro volta ne provocheranno altri nelle casse statali, altro che opera strategica!

Seguendo lo stesso criterio, anche l’Expo 2015 di Milano sarebbe semplicemente da non fare, chiuso il discorso. Sono eventi che andavano bene cent’anni fa. Se oggi in Italia tanti comitati si stanno organizzando per dire “no” alle grandi opere e per difendere i beni comuni e gli interessi del Paese, non è per sindrome Nimby (non nel mio cortile), bensì perché, come ho scritto nel mio “Prepariamoci” (Chiarelettere), per troppo tempo si sono detti dei “sì” che hanno devastato il paesaggio e minato la nostra salute fisica e mentale.

venerdì, luglio 08, 2011

Le città italiane sono le più inquinate d'Europa

Tra le prime 30 città europee maggiormente inquinate, più della metà, esattamente 17, sono italiane.
A Plovdiv, prima nella graduatoria per la qualità dell’aria peggiore, l’indicatore segna che le
concentrazioni dei tre inquinanti superano in media, nel 2008, 2,6 volte i limiti di legge. Torino, come già evidenziato, si colloca al secondo posto di questa classifica, dopo essere stata al primo
negli anni 2004 e 2005. Nel corso dei cinque anni considerati Torino ha visto diminuire il valore
dell’indice sintetico da 3,1 nel 2004 a 2,7 nel 2007, a 2,5 nel 2008. Milano presenta un valore
dell’indice sostanzialmente stabile, pur con un leggero miglioramento nel 2008, anno nel quale
evidenzia un superamento di 2,2 volte i limiti previsti.

L'Italia è tra le ultime nazioni europee in base allo stesso indicatore sintetico di qualità dell'aria.

Sono queste alcune delle conclusioni di uno studio dell'Istat sulla qualità dell'aria nelle città europee a partire dai da contenuti nei database dell'Agenzia Europea dell'ambiente.

Non mi pare che questa situazione determini una mobilitazione dell'opinione pubblica proporzianale alla gravità degli effetti sulla salute dei cittadini. In Italia si fanno barricate contro tutto tranne contro l'automobile vero idolo pagano delle società moderne.

Allego alcuni grafici che ho ricavato dallo studio (si ingrandiscono cliccandoci sopra), con l'avvertenza che la qualità dell'aria è peggiore per valori più elevati dell'indicatori.

mercoledì, luglio 06, 2011

Risorse dagli oceani: possiamo estrarre minerali dall'acqua di mare?

Questo articolo è stato pubblicato da Ugo Bardi il 22.09.2008 su The Oil Drum: Europe

Viene riproposto su http://www.aspoitalia.it/ in una traduzione di Massimiliano Rupalti.

Nella foto: ricercatori giapponesi che sperimentano l'estrazione dell'uranio dall'acqua di mare usando una fibra assorbente intrecciata (JAEA 2006). E' questa la tecnologia di estrazione del futuro?


Dopo un paio di secoli di estrazioni, i depositi minerari migliori e più concentrati sono sul punto di scomparire. In futuro, dovremo estrarre da depositi a minor concentrazione e ciò sarà più costoso. Non è una mera questione di soldi, estrarre da depositi a minor concentrazione costa più energia e, con il rapido declino dei combustibili fossili, questo è un problema serio. La nostra società non può sopravvivere senza una fornitura di minerali a buon mercato, quindi potrebbe non essere troppo presto per cercare nuove fonti.


Se le miniere sulla terraferma si stanno gradualmente esaurendo, possono gli oceani diventare le nostre nuove miniere? Ci sono state diverse proposte per scavare sul fondo degli oceani, ma questa è solo un'estensione dell'estrazione convenzionale e, inoltre, l'impresa è risultata complessa e costosa. Il vero cambio di paradigma, invece, è quello di estrarre ioni disciolti nell'acqua di mare.


Gli oceani sono vasti e contengono immense quantità di minerali che, in linea di principio, potrebbero essere recuperati senza bisogno di scavare, spaccare, processare e tutte le altre complesse ed energivore procedure di cui abbiamo bisogno per estrarre sulla terraferma. In effetti, l'estrazione di minerali dall'acqua di mare è un concetto che riappare periodicamente in tempi di crisi energetica. Era diventata popolare con la prima crisi petrolifera degli anni 70, per scomparire poi durante la fase dei prezzi petroliferi relativamente bassi che seguirono. Oggigiorno, con la nuova crisi in corso, recuperare minerali dall'acqua di mare sta tornando ad essere attraente. Per esempio, sul web viene spesso affermato come un fatto ovvio che ogni problema di fornitura di uranio che potrebbe avvenire in futuro sarà facilmente risolta estraendo uranio dall'acqua di mare. Occasionalmente possiamo leggere che lo stesso metodo potrebbe essere usato per risolvere ogni carenza di minerali.


In ogni caso, le cose non sono così semplici e vedremo, in ciò che segue, che estrarre minerali a bassa concentrazione dal mare è un'impresa enorme, costosa e complessa. Non vedremo minerali prodotti dall'acqua di mare entrare nel mercato in tempi brevi ed il sogno di “pescare” uranio dal mare è destinato a rimanere tale: un sogno. Ma entriamo nei dettagli.


1. Minerali nell'acqua di mare


L'acqua in oceano aperto contiene sali disciolti in un range da 33 a 37 grammi per litro, che corrispondono ad una massa di circa 5E+16 tonnellate ( nella “notazione-E” E+16 significa 10 elevato alla 16). In altre parole gli oceani contengono circa 50 quadrilioni di tonnellate di materiale disciolto. E' un quantitativo enorme confrontato con la massa totale di minerali estratti oggi nel mondo, che sono misurabili nell'ordine di “soltanto” un centinaio di miliardi di tonnellate all'anno (OPOCE 2000). Comunque, la maggior parte della massa disciolta negli oceani è sotto forma di pochi ioni e questi non sono i più importanti per l'industria.


I 4 ioni metallici più concentrati , Na+, Mg+, Ca+ e K+, sono i soli commercialmente estraibili oggi, con il meno concentrato dei 4 che è il potassio (K) a 400 parti per milione (ppm). Sotto al potassio, scendiamo verso il litio, che non è mai stato estratto in quantità commerciali dall'acqua marina, con una concentrazione di 0.17 ppm. Altri ioni metallici disciolti esistono in concentrazioni minori, a volte inferiori di diversi ordini di grandezza. Nessuno è mai stato estratto per scopi commerciali.


Ma vediamo dove ci troviamo esattamente. Nella tavola sottostante ho elencato le concentrazioni in acqua di mare e la quantità totale di alcuni ioni metallici. La tabella esclude quelli che già vengono estratti commercialmente (Na, Mg, Ca e K) e quelli che esistono solo in tracce così minime che l'estrazione è semplicemente impensabile. Le quantità disponibili nell'acqua marina sono confrontate con le riserve elencate dall' United States Geological Survey (USGS). Il concetto di “riserve” potrebbe essere prudente, ma il risultato di un lavoro recente (Bardi e Pagani 2007) mostra che potrebbe essere una stima più realistica di ciò che possiamo veramente estrarre dalle miniere sulla terraferma.

Per le fonti dei dati, vedere la nota (1) alla fine del testo.


Come vediamo, ci sono enormi risorse di metalli nel mare. La problema è come estrarli. Il metodo più generale consiste nel far passare l'acqua di mare attraverso una membrana che contiene gruppi funzionali che legano alle specie di interesse. Nessuna membrana conosciuta è selettiva al 100% per una singola specie, ma è possibile creare membrane che possono trattenere un piccolo numero di specie a bassa concentrazione selezionate. Gli adsorbati possono essere estratti dalla membrana lavandoli con sostanze chimiche appropriate; un processo chiamato “eluizione”. Dopo questo stadio, gli ioni metallici possono essere separati e recuperati per precipitazione o elettrodeposizione.


In pratica, è molto difficile estrarre ioni a bassa concentrazione a costi ragionevoli. L'estrazione del litio è stata provata durante gli anni 70 (Schwochau 1984) ma i test furono abbandonati rapidamente. L'idea di estrarre uranio ha aleggiato per lungo tempo, almeno dagli anni 60 (vedere Nebbia 2007 per una panoramica). Ma solo pochi grammi sono stati estratti in Giappone nei tardi anni 90 (Seko 2003). Poi, c'è il vecchio sogno di ottenere oro dal mare. Il chimico tedesco Fritz Haber ci ha provato negli anni 20, ma l'impresa di estrarre ioni d'oro a concentrazioni di poche parti per trilione (ppt) era praticamente disperata e, infatti, il tentativo è stato un completo fallimento.


Evidentemente ci sono dei problemi seri. Ciò non è sorprendente: c'è molta acqua nell'oceano e, in confronto, quantità molto piccole di metalli utili. Quindi dobbiamo processare enormi quantità di acqua. Enormi, in questo contesto, significa realmente enormi, come potete vedere dalla tabella che segue. Considerate, come confronto, che il volume totale di acqua desalinizzata oggi è di 1,6E+10 tonnellate.

Tavola 2. Gli elementi sono ordinati come funzione della massa di acqua di mare che sarebbe necessario filtrare in modo da ottenere lo stesso quantitativo di materiali che otteniamo dall'estrazione tradizionale. Questo valore è calcolato in base all'assunto ottimistico di un'efficienza della membrana di filtraggio del 100%. Per le fonti dei dati, vedi (1) alla fine del testo.


La tavola mostra che, anche per il miglior caso elencato, il litio, per recuperare la stessa quantità che otteniamo oggi dall'estrazione convenzionale, avremmo bisogno di approntare strutture gigantesche. Avremmo bisogno di trattare almeno 10 volte più acqua di quella che viene trattata oggi negli impianti di desalinizzazione. Tutti gli altri metalli richiederebbero quantità di acqua ancora maggiori.


Muovere queste gigantesche quantità di acqua non è solo un problema pratico: richiede energia. Questo è un parametro critico specialmente se consideriamo che due elementi vengono estratti per essere usati come fonte energetica: litio ed uranio. L'uranio, sotto forma dell'isotopo 235, è il combustibile della generazione attuale degli impianti a fissione nucleare, mentre il litio, sotto forma di isotopo 6-Li, potrebbe essere la fonte di trizio da usare come combustibile per l'eventuale futura generazione di impianti a fusione nucleare. In entrambi i casi, la fattibilità dell'estrazione è determinata dall'energia necessaria, secondo il ben conosciuto concetto di EROEI, energy returned on energy invested (Hall, 2008) (Energia ricavata rispetto all'energia investita).


Nella prossima sezione vedremo in dettaglio il caso dell'uranio, forse il più importante per applicazioni pratiche e quello di cui abbiamo i migliori dati disponibili. Ci servirà come riferimento per valutare la fattibilità dell'estrazione di tutti gli altri elementi.


2. Estrazione dell'uranio dall'acqua del mare


Al momento, l'industria mineraria può fornire solo circa il 60% dell'uranio necessario per reattori attualmente operanti e che producono il 16% dell'elettricità mondiale. La differenza è integrata con riserve immagazzinate, in gran parte ottenute dallo smantellamento di vecchie testate nucleari. Aumentare la produzione minerale al livello necessario a soddisfare la domanda è un'impresa enorme e costosa, ancor di più se avvenisse insieme alla costruzione di nuovi reattori. Si dibatte sul fatto che si potrebbe sviluppare una seria mancanza di uranio nel prossimo futuro, comunque la si veda, il problema non può essere ignorato (vedi EWG 2007).


Quindi, estrarre uranio dall'acqua di mare è un tema spesso discusso e, come abbiamo visto nella sezione precedente, le quantità teoricamente disponibili negli oceani sono più che sufficienti per allontanare tutte le preoccupazioni sulla carenza per lungo tempo. Infatti, già negli anni 60, l'idea ha cominciato ad essere valutata (Nebbia 2007). Lo sviluppo di una membrana capace di recuperare uranio dall'acqua di mare (Vernon e Shah, 1983) è stato un importante passo avanti ed ha portato a test sperimentali messi in opera negli anni 90 da ricercatori della Japanese Atomic Energy Agency (JAEA). In questi test, pochi grammi di ossido di uranio sono stati effettivamente recuperati dal mare. Da una pagina web datata 1998 (JAEA 1998), vediamo che questi test furono fatti nel 1996/97 ed i risultati sono riportati nei dettagli in un articolo in inglese di Seko ed altri (Seko 2003). Alcuni risultati ottenuti utilizzando una fibra intrecciata come assorbente sono riportati in un'altra pagina web (JAEA 2006).


Comunque, la JAEA sembra aver fermato ogni attività in questo campo, almeno da quanto possiamo comprendere dal loro sito in inglese (ora vi troverete prevalentemente notizie su Fukushima, ndt). Non ci sono rapporti su ulteriori esperimenti, dimostrazioni, impianti o di test di scala pianificati. Qualcosa deve non aver funzionato, chiaramente, ma cosa esattamente? Il tema è complesso, ma possiamo provare a rispondere con il concetto di energia ottenuta dall'energia investita, EROEI.


Dalla tavola 2 vediamo che dovremmo trattare 2E+12 tonnellate di acqua ogni anno per produrre produrre abbastanza combustibile per l'attuale parco di reattori nucleari. Considerato che l'attuale produzione mondiale di energia nucleare è di circa 2.5E+3 terawatt/h all'anno (WNA 2007), arriviamo a determinare che la “densità energetica” dell'acqua di mare sfruttabile dall'attuale tecnologia nucleare è di circa 1E-1 kWh/ton (un decimo di kWh per tonnellata). Non sembra granchè ma è ancora molto più grande dell'energia cinetica della stessa massa d'acqua mossa da correnti di media forza (vedi nota 2).


Ora, per estrarre questo uranio ci sono due possibili strategie: una è quella di pompare attivamente l'acqua attraverso la membrana, l'altra è di lanciare la membrana in mare ed aspettare la migrazione degli ioni di metallo ai siti attivi. In entrambi i casi, serve energia per una serie di operazioni: pompaggio, costruzione di infrastrutture, movimento delle membrane, la loro costruzione, ecc. Non abbiamo abbastanza dati per una valutazione passo-passo dell'energia necessaria, ma possiamo azzardare un ordine di grandezza stimata confrontandola con processi noti.


Cominciamo con la prima strategia: pompare attivamente l'acqua attraverso una membrana. Il processo richiede energia principalmente a causa della viscosità dell'acqua. Questo effetto è descritto dalla legge di Darcy che afferma che l'energia richiesta è inversamente proporzionale ad un parametro chiamato “permeabilità”. Una membrana più fine ha una permeabilità minore di una membrana a maglia più grande. La permeabilità di una membrana per l'estrazione dell'uranio non è riportata negli studi che abbiamo a disposizione e probabilmente non è nemmeno conosciuta al momento. Comunque, possiamo stimare l'energia coinvolta confrontando con un processo simile conosciuto: la desalinizzazione per osmosi inversa.


Nell'osmosi inversa, l'acqua di mare è pompata attraverso una membrana che ritiene gli ioni disciolti, proprio come dovrebbe essere fatto per l'estrazione dell'uranio. L'energia richiesta per la desalinizzazione con l'osmosi inversa è sull'ordine di 2-4 kWh/tonnellata; un valore che include tutta l'energia usata nell'impianto. Per l'uranio, useremmo membrane con una permeabilità maggiore, ma l'energia necessaria non può cambiare di molto. Se prendiamo un valore di 1kWh/tonnellata come un ragionevole “ordine di grandezza” stimata, vediamo immediatamente che non si può fare. Se quello che possiamo recuperare dell'uranio contenuto in una tonnellata d'acqua è circa 1E-1 kWh, non ha senso spendere 1 kWh/tonnellata per l'estrazione, nemmeno se potessimo farlo col 100% di efficienza. Questo risultato non è nulla di nuovo e ci sono altri tipi di calcolo che portano alle stesse conclusioni (Schwochau 1984). Pompare l'acqua attraverso le membrane è così energeticamente costoso che non può essere considerata come una strategia pratica per l'estrazione dell'uranio.


Così, ci rimane la seconda strategia: lanciare le membrane in mare ed aspettare che le correnti o la diffusione portino l'uranio nei siti di assorbimento. Questo metodo evita i costi energetici del pompaggio. Però è anche un modo meno efficiente di usare la membrana. Come conseguenza abbiamo bisogno di maggiori quantità di membrane, infrastrutture più grandi ed abbiamo bisogno di spostare le membrane dentro e fuori dal mare. Tutti questi sono costi energetici. Stiamo osservando un processo complesso e largamente sconosciuto che è difficile da analizzare in tutti i dettagli. Comunque, possiamo provarci.


Innanzitutto possiamo ottenere qualche idea sulla dimensione dell'impresa. Dittmar (2007) ha già osservato che l'impresa è enorme, ma quanto spazio occuperebbero esattamente le membrane assorbenti? Abbiamo visto (vedi tabella 2) che abbiamo bisogno di trattare almeno 2E+13 tonnellate di acqua all'anno. Abbiamo anche bisogno un'acqua relativamente poco profonda, così che le infrastrutture che sostengono le membrane possano essere ancorate al fondo del mare a costi ragionevoli. Ora, considerate il Mare del Nord come un'area adatta allo scopo. E' un mare poco profondo (profondità media inferiore ai 100 mt.) e contiene circa 5E+13 tonnellate d'acqua. Ipotizzando un'efficienza di recupero del 50% (che probabilmente è ottimistica), significa che dovremmo occupare l'intero Mare del Nord con strutture d'assorbimento per ottenere uranio sufficiente solo per il 16% dell'attuale produzione mondiale di elettricità. Per alimentare il mondo intero, avremmo bisogno dell'equivalente di almeno 6 Mari del Nord (solo per l'energia elettrica, trasporti e riscaldamento non sono inclusi – ndt -)


Ma è improbabile che il Mare del Nord abbia correnti sufficientemente forti per sostenere l'estrazione dell'uranio per lungo tempo. Questo è un problema che non è stato studiato nei dettagli: dove possiamo trovare correnti abbastanza forti per muovere le enormi masse d'acqua di cui abbiamo bisogno?


La forza delle correnti è misurata a volte in “Sverdrup”, un'unità che corrisponde ad un milione di tonnellate d'acqua al secondo, o 3E+13 tonnellate all'anno, Quindi, uno Sverdrup è quasi esattamente il flusso di acqua di mare che contiene abbastanza uranio per il fabbisogno attuale degli impianti nucleari. Alcune correnti sono riportate essere molto più forti di uno Sverdrup. Per esempio, forse la corrente più forte nel mondo è la Antarctic Circumpolar Current (ACC) che muove circa 135 Sverdrup. C'è abbondanza di uranio che viene trasportato in quella zona. Ma la media della profondità dell'oceano del Sud Antartico è intorno ai 3000-4000 metri e l'area è molto ostile per le attività umane. Ancorare lì milioni di tonnellate di membrane assorbenti, unitamente alle strutture di trattamento, è semplicemente impensabile.


Forse potremmo considerare lo Stretto di Gibilterra come un ambiente più amichevole dove trovare correnti forti. Costruire dighe sullo stretto per produrre energia è stato già proposto da Hermann Sorgel negli anni 20 col suo concetto della diga “Atlantropa”. Si supponeva che la diga potesse fornire 50 GW di energia idroelettrica, leggermente di più del 10% della potenza attualmente fornita dall'industria nucleare. La diga non fu mai costruita, naturalmente: sarebbe stata un disastro per il Mar Mediterraneo.



Oggi, sembriamo essere un po' più prudenti con questi mega progetti, ma la corrente dello stretto è ancora forte e ci potremmo appropriare di una sua parte per estrarre uranio. Il fluire dell'acqua di mare attraverso lo stretto è di circa 1 Sverdrup, abbastanza per soddisfare il nostro attuale fabbisogno di uranio. Diciamo che potremmo intercettarne il 10% (ed anche così potremmo avere enormi effetti negativi sull'ambiente del Mediterraneo). In questo caso avremmo bisogno di 10 stretti di Gibilterra solo per soddisfare l'attuale fabbisogno dell'industria della fissione nucleare e qualcosa come 60 stretti equivalenti per incrementare la produzione in modo che corrisponda all'attuale domanda mondiale di energia elettrica. Abbiamo l'equivalente di 60 stretti di Gibilterra nel mondo? Non possiamo affermare con certezza che non ci siano, ma una cosa possiamo invece affermare con certezza; l'impresa sarebbe colossale, devastante per l'ambiente e costosa oltre ogni immaginazione.


Tutto questo non significa che sia impossibile estrarre uranio dall'acqua di mare in quantità confrontabili ai nostri bisogni. Ma ci dà una certa prospettiva che possiamo valutare del parametro davvero critico del processo: l'EROEI. Le enormi aree che abbiamo calcolato essere necessarie ci porta a paragonare l'estrazione dell'uranio ad un'altra attività industriale dove grandi masse di materiali sono trasportate attraverso gli oceani: la pesca d'altura.


Abbiamo qualche dato circa la spesa energetica della pesca industriale (Mitchell e Cleveland 1993) e possiamo stimare che l'industria combustibile per un'energia di circa 7 kwh per ogni chilogrammo di pesce recuperato. Un'altra stima deriva dalla conoscenza che il totale della pesca oggi è intorno alle 90 milioni di tonnellate (9E+10 kg) all'anno (FAO 2005) mentre la quantità totale di combustibile usato dalla flotta mondiale di pescherecci nel 2005 è circa 14 milioni di tonnellate di diesel (FAO 2008) (2E+11 kWh, considerando che il contenuto energetico del diesel è di 43GJ/tonnellata). Il risultato è di circa 2 kWh di energia per chilogrammo di pesce portato a terra. Sono stime rozze che tengono in considerazione solo i costi del combustibile. Però sembra il combustibile sia la principale spesa energetica implicata nella pesca d'altura. Così, se prendiamo un valore intermedio di 5 kWh/kg, non possiamo essere troppo lontani in termini di costi energetici dell'estrazione di qualcosa dal mare aperto e riportarlo indietro sulla terraferma.


Ora, se vogliamo usare membrane per l'estrazione dell'uranio, significa che dobbiamo portare le membrane in mare, sommergerle per un po', risollevarle e riportarle a terra per il trattamento e poi ancora in mare e così via. Dal saggio di Seko (2003) vediamo che abbiamo bisogno di circa 300 kg di membrane per ogni kg di uranio estratto ogni anno. Nel saggio leggiamo anche che le membrane venivano “tirate fuori dall'acqua di mare con una nave-gru ogni 20-40 giorni”. In altre parole, le membrane devono essere portate indietro agli impianti di eluizione ogni mese o qualcosa del genere. Recuperare un chilogrammo di alluminio, quindi, potrebbe richiedere il trattamento almeno di 3 tonnellate di membrane ogni anno. Per l'attuale domanda mondiale di uranio (6.5E+4 tonnellate /anno) avremmo bisogno di muovere 2E+8 tonnellate di membrane ogni anno. Questo equivale a circa 10 volte tanto il peso del totale della pesca dell'industria ittica. Un'altra indicazione della misura colossale dell'impresa.


Ma il problema vero è l'energia implicata. Usando la proporzione di 5 kWh/kg che abbiamo calcolato prima per la pesca ed presupponendo le rese e le condizioni riportate da Seko (2003) possiamo calcolare una spesa totale di energia di circa 1E+3TWh/anno per gli attuali bisogni dell'industria nucleare. Ciò è circa lo stesso del totale prodotto, circa 2,5E+3 TWh/anno. Quindi la convenienza energetica (EROEI) è troppo bassa per essere interessante.


Naturalmente c'è un alto grado di incertezza in questo calcolo. Da un lato abbiamo bisogno di considerare che è possibile aumentare l'efficienza dei processi estrattivi usando membrane intrecciate e lavorare a temperature del mare più alte (JAEA 1998, 2008). Potremmo anche costruire impianti di trattamento galleggianti in modo da ridurre i costi di trasporto. Dall'altro lato, il calcolo si riferisce solo alle spese di carburante. A queste dobbiamo aggiungere tutti i costi per le infrastrutture, per le sostanze chimiche per l'eluizione, per l'energia necessaria per recuperare specie di interesse e così via. Dobbiamo anche considerare che le membrane sono sintetizzate dal petrolio greggio. Siccome non ci sono dati disponibili su quanto a lungo possa durare una membrana, non possiamo calcolare quanto petrolio sarebbe necessario, ma sicuramente non sarebbe trascurabile (vedi nota 3 per un tentativo di calcolare questo valore).


Possiamo concludere che c'è un alto rischio che l'estrazione dell'uranio dall'acqua di mare in queste condizioni potrebbe avere un EROEI inferiore a 1. Molto probabilmente sarebbe troppo basso per essere interessante. In pratica nessuno fornirà le enormi risorse finanziarie necessarie per imbarcarsi in un'impresa tale mentre rimane l'incertezza. Inoltre, gli investitori probabilmente non appariranno quando non possono ignorare che, in qualsiasi momento, lo sviluppo di un efficiente reattore autofertilizzante renderebbe i loro enormi investimenti senza valore. Quindi, non sappiamo con certezza se l'industria nucleare dovrà affrontare una carenza di combustibile nel prossimo futuro, ma se dovesse farlo, è meglio scommettere sull'estrazione in miniera convenzionale e sullo sviluppo di reattori più efficienti. Estrarre uranio dal mare non è una soluzione pratica.


4. Il litio e gli altri


Il caso dell'uranio ci ha dato gli strumenti di cui abbiamo bisogno per la valutazione delle prospettive di estrazione di tutti gli altri elementi. Prima di tutto, dobbiamo considerare il litio, che è più abbondante dell'uranio in mare e potrebbe anch'esso essere usato come fonte energetica. L'isotopo 6-Li può essere trasformato in un isotopo di idrogeno, il trizio, che potrebbe essere il combustibile per una futura generazione di reattori a fusione.


Fasel e Tran (2005) stimano che un reattore coperto al litio-piombo raffreddato ad acqua di un GWe di potenza necessiterà di 787 tonnellate di litio all'anno. Questo reattore può produrre 12twh d'energia all'anno. Dai dati della tabella 2, vediamo che per produrre 800 tonnellate di litio abbiamo bisogno di trattare 4E+9 tonnellate di acqua di mare. In altre parole la “densità energetica” dell'acqua di mare in termini di impianti a fusione, sarebbe di circa 3KWh/tonnellata, più di un ordine di grandezza maggiore dell'uranio (1E-1 kWh/tonnellata).


Se membrane efficienti e selettive per il litio possono essere sviluppate, le energie coinvolte nell'estrazione sarebbero probabilmente le stesse che per l'uranio, ma potremmo aver bisogno di dieci volte meno acqua per la stessa quantità di litio, quindi dieci volte meno energia. L'estrazione da pompaggio forzato sarebbe ancora molto incerto in termini di EROEI, ma con le membrane sommerse l'impresa appare possibile senza distruggere il Mare del Nord o costruire dighe per l'equivalente di dozzine di stretti di Gibilterra. Però, sarebbe comunque un'impresa enorme e la sua fattibilità rimane incerta. Comunque, Fasel e Tran (2005) menzionano anche la possibilità di modi più efficienti per usare il litio nei reattori. Così, possiamo concludere che l'estrazione del litio come combustibile nucleare dall'acqua di mare non può essere provata come fattibile in termini di ritorno energetico, ma è comunque un processo che vale la pena studiare.


Il litio è anche un elemento essenziale per le nuove generazioni di batterie usate per i veicoli stradali. Tahil (2006) ha studiato la disponibilità del litio minerale se dovessimo sostituire l'attuale parco macchine con veicoli basati sulle batterie al litio. Ha concluso che andremmo incontro ad una carenza di litio. Questo non è un problema a breve termine, ma potrebbe diventare serio un giorno. Da uno sguardo alla tabella 2 vediamo che se dovessimo ottenere l'attuale produzione minerale di litio filtrando l'acqua degli oceani attraverso delle membrane, avremmo bisogno di 1,5E+3 TWh che è il 10% della produzione mondiale di energia elettrica attuale. E' una quantità molto grande, ma non inconcepibile. Usando membrane sommerse saremmo capaci di ridurre sostanzialmente quella quantità di energia, forse di un ordine di grandezza. Comunque, secondo Tahil (2006), avremmo bisogno di incrementare la produzione di litio circa di un fattore 10, se volessimo tenere il passo dell'attuale tendenza di crescita. Questo è chiaramente impossibile usando litio estratto dall'acqua di mare, almeno finché ci affidiamo alle attuali fonti energetiche. Tuttavia non è impossibile che l'acqua di mare un giorno possa diventare una significativa fonte di litio per veicoli a batteria, sempre che il litio venga riciclato ed i veicoli costruiti in modo tale da essere più leggeri ed efficienti.


Per tutti gli altri elementi elencati nella tabella 1, l'estrazione dal mare sembra essere impossibile o, almeno, estremamente difficile. Considerate il rame come esempio. La quantità totale presente negli oceani è circa 50 volte l'attuale produzione annuale (vedi tabella 2). Così, in 50 anni esauriremmo il rame dall'acqua di mare, anche se fossimo capaci di filtrare tutta l'acqua degli oceani del pianeta. Ma ciò è impensabile, naturalmente. Considerazioni simili valgono per la maggior parte dei metalli di interesse tecnologico. Il vecchio sogno di pescare oro dal mare rimane tale: un sogno.


5. Conclusione


Forse, un giorno, potremmo sviluppare futuristici impianti robotizzati ancorati al fondo del mare. Queste macchine sarebbero alimentate dall'uranio estratto dall'acqua di mare e potrebbero usare il plancton marino per produrre “tentacoli” organici per assorbire ioni minerali. Il trattamento potrebbe essere fatto sul posto e i metalli recuperati potrebbero spediti in superficie belli e impacchettati. Ma ciò sembra un sogno degli anni 50, alla stregua degli aerei atomici e dei week end sulla luna per tutta la famiglia. Con la possibile eccezione del litio, il meglio che possiamo concepire oggi è che estrarre dagli oceani potrebbe produrre realmente solo quantità “omeopatiche” di minerali, migliaia di volte inferiori delle quantità prodotte oggi. Nel sistema industriale di oggi quantità del genere sarebbero inutili. Questo risultato è vero anche per l'uranio, per cui l'estrazione dall'acqua di mare non può essere considerata come soluzione alle carenze attuali dell'uranio minerale.


Mettere insieme volumi molto grandi di risorse minerali a bassa concentrazione porta facilmente a stime ottimistiche di disponibilità “ quando il prezzo di mercato sarà giusto”. Ma questo ottimismo è mal riposto. Alla fine, è il paradigma della “macchina mineraria universale” (Bardi 2008) che domina. Non è la quantità assoluta di una risorsa minerale che conta ma, piuttosto, la sua concentrazione. Estrarre da risorse a bassa concentrazione, non importa se disciolte nell'acqua di mare o nella crosta terrestre, è così costoso in termini di energia necessaria che è oltre le nostre possibilità sia nel presente sia in un prevedibile futuro. _______________________________________________________________


Riconoscimento: vorrei ringraziare Pietro Cambi e Joe Doves per i loro commenti e consigli circa l'energia impiegata per la desalinizzazione.


- Note


(1) Fonte dei dati per le tavole: concentrazione degli elementi in acqua di mare J Floor Anthoni (2000, 2006) www.seafriends.org.nz/oceano/seawater.htm. Abbondanza oceanica calcolata presupponendo un volume totale dell'oceano di 1,3E9 chilometri cubici. Riserve minerali dall'USGS sommario dei beni minerari del 2007 (http://minerals.usgs.gov/minerals/pubs/mcs/) gli estratti sulle riserve di uranio sono dell'Energy Watch Group (http://www.lbst.de/publications/studies__e/2006/EWG-paper_1-06_Uranium-Resources-Nuclear-Energy_03DEC2006.pdf). Tutte le riserve sono in termini di elemento puro, tranne per alluminio, ferro, e titanio, forniti in termini di ossidi.


(2) Confronto della densità di energia dell'acqua di mare in termini di uranio fissile e come fonte di energia per turbine sottomarine. Una forte corrente marina potrebbe muoversi ad una velocità di pochi metri al secondo. Consideriamo una velocità rappresentativa di 4 metri al secondo e calcoliamo l'energia come ½ mv^2. In questo caso una tonnellata di acqua potrebbe trasportare circa 2E-3kWh, molto di meno del valore calcolato precedentemente in termini di contenuto di uranio (circa 1E-1 kWh/tonnellata). Comunque, una turbina subacquea potrebbe ben avere un miglior EROEI del complesso processo di estrazione dell'uranio dall'acqua di mare e della sua utilizzazione in un impianto a fissione.


(3) Energia necessaria per costruire le membrane per l'estrazione di uranio. Dal solo lavoro pubblicato nella letterature scientifica internazionale (Seko 2003) possiamo dedurre che abbiamo bisogno di circa 300 chilogrammi di membrana per ogni chilogrammo di uranio per anno. Tentando un'ipotesi sulla base del saggio di Vernon e Shah (1983) dovremmo presumere che le ripetute immersioni della membrana degraderebbe le sue prestazioni e genererebbe il bisogno di sostituirla approssimativamente ogni anno. Un sito russo, http://npc.sarov.ru/english/digest/132004/appendix8.html dice che la membrana può essere considerata utilizzabile 20 volte prima di essere sostituita. Se questo è il caso, può essere usata per circa un anno e mezzo. Considerando in un anno la durata della membrana, avremmo bisogno di sintetizzare circa 300 kg di fibra attiva ogni anno. Siccome il petrolio greggio ha un contenuto energetico di 12kWh/kg, potremmo usare circa 12 MWh che, usati in una turbina a gas a ciclo combinato ad alta efficienza, produrrebbero circa 6mwh di potenza elettrica. Un chilogrammo di uranio in un impianto a fissione nucleare può generare 40 MWh di potenza elettrica e, perciò, il processo potrebbe avere un ragionevole EROEI di circa 7. Comunque, notate anche che, per ottenere fibra sufficiente per fornire abbastanza uranio per la produzione del totale dell'energia elettrica oggi, avremmo bisogno di 2-3 miliardi di barili di petrolio all'anno. E' una piccola quantità confrontata all'attuale produzione (più di 30 miliardi di barili all'anno) ma non trascurabile e potrebbe diventare sempre più importante visto che il petrolio diminuisce a causa del suo progressivo esaurimento.


Riferimenti


Bardi U., Pagani, M., 2007, "Peak Minerals" http://europe.theoildrum.com/node/3086


Bardi U., 2008 "The Universal Mining Machine" http://europe.theoildrum.com/node/3451


Busch, M. Mickols, B, "Economics of desalination— reducing costs by lowering energy use" Water and wastewater international, http://www.pennnet.com/display_article/208957/20/ARTCL/none/none/1/Economics-of-desalination---%E2%80%94-reducing-costs-by-lowering-energy-use/


Dittmar M., 2007, "The Nuclear Energy Option facts and fantasies", Proceedings of the ASPO-6 conference, Cork, Ireland.
www.aspo-ireland.org/contentfiles/ASPO6/3-2_APSO6_MDittmar.pdf


FAO 2005 http://www.earth-policy.org/Indicators/Fish/2005.htm


FAO 2008, http://www.fao.org/docrep/009/a0699e/A0699E08.htm.


Fasel, D., Tran. M.Q., 2005, Availability of lithium in the context of future D–T fusion reactors. Fusion Engineering and Design 75–79 pp. 1163–1168


Floor Anthoni, J., (2000, 2006) Oceanic abundance of elements, www.seafriends.org.nz/oceano/seawater.htm.


JAEA 1998 Development of the Adsorbent at the Takasaki Research Laboratory http://www.jaea.go.jp/jaeri/english/press/980526/ref01.html


JAEA, 2006 "Confirming Cost Estimations of Uranium Collection from Seawater" JAEA R&D Review, http://jolisfukyu.tokai-sc.jaea.go.jp/fukyu/mirai-en/2006/4_5.html


Mitchell, C. and Cleveland C.J., 1993. "Resource scarcity, energy use and environmental impact: A case study of the New Bedford, Massachusetts, USA, fisheries. Journalof Environmental Management, volume 17, Number 3 / May, 1993, p. 305


Nebbia, G., 1970, "L'estrazione di Uranio dall'acqua di mare"
http://www.aspoitalia.net/index.php?option=com_content&task=view&id=192&Itemid=38


OPOCE (Office for official publications of the european communities) 2000. Environmental signals, http://reports.eea.europa.eu/signals-2000/en/page017.html


Schwochau, K., 1984, "Extraction of Metals from Sea Water", Springer series "Topics in Current Chemistry" vol 124. http://www.springerlink.com/content/y621101m3567jku1/


Seko N., Katakai A., Hasegawa H., Tamada M., Kasai N., Takeda H., Sugo T., Saito K. 2003, "Aquaculture of Uranium in Seawater by a Fabric-Adsorbent Submerged System" Nuclear Energy
Volume 144 · Number 2 · November 2003 · Pages 274-278


Tamada, M.; Seko, N.; Kasai, N.; Shimizu, T., 2005
Synthesis and practical scale system of braid adsorbent for uranium recovery from seawater
FAPIG (169), p.3-12(2005) ; (JAEA-J 00045)


Tahil, W, 2006, "The Trouble with Lithium Implications of Future PHEV Production for Lithium demand" http://tyler.blogware.com/lithium_shortage.pdf


Vernon, F., and Shah T., 1983, "The extraction of uranium from seawater by poly(amidoxime)/poly(hydroxamic acid) resins and fibre Reactive Polymers, Ion Exchangers, Sorbents Volume 1, Issue 4, October 1983, Pages 301-308


WNA, World Nuclear Association, 2007, http://www.world-nuclear.org/info/inf16.html.