lunedì, maggio 30, 2011

La “grid parity” del fotovoltaico

In questo nuovo articolo, Domenico Coiante ci spiega in maniera analitica che il raggiungimento della completa competitività economica del solare fotovoltaico rispetto alle altre fonti di energia è ancora lungi dall'essere conseguita e che a tale scopo sono necessari ancora degli avanzamenti tecnologici. In particolare, ciò che ostacola la riduzione dei costi di produzione sembra essere proprio il costo dei componenti impiantistici diversi dai moduli fotovoltaici.


Scritto da Domenico Coiante


Da qualche tempo, sempre più frequentemente, appaiono sulla stampa articoli che annunciano come sia ormai a portata di mano il conseguimento della competitività del fotovoltaico per gli impianti direttamente connessi alla rete elettrica, cioè la desiderata “grid parity” tra il costo di produzione del kWh fotovoltaico con quello dei kWh convenzionali che circolano nella rete. Gli annunci più recenti sono quello dell’EPIA (Associazione delle Industrie Fotovoltaiche Europee), che colloca tale evento intorno al 2020, cioè entro circa 9 anni, disponibile cliccando qui e quello comparso sulla rivista “Quale Energia” (www.qualenergia.it), che lo colloca addirittura nel 2013.

Per vedere quanto c’è di vero in queste previsioni, proviamo a riportare i fatti che dovrebbero caratterizzare scientificamente il conseguimento della parità.
Innanzi tutto stabiliamo il significato del concetto di parità economica, o di competitività. Il kWh fotovoltaico è immesso nella rete elettrica ed è pagato allo stesso prezzo dei kWh convenzionali che in quel momento vi stanno circolando. Il prezzo dell’elettricità è regolato dalla legge della domanda e dell’offerta e quindi può variare da una località all’altra, da un’ora all’altra e da un giorno all’altro. Ad esempio, nel corso della giornata il prezzo d’acquisto della rete può variare da circa 5 c€/kWh delle ore notturne a circa 9 c€/kWh nelle ore di punta intorno a mezzogiorno. Allora il confronto andrebbe rigorosamente fatto istante per istante seguendo l’andamento temporale del prezzo. Tuttavia, per lo scopo del nostro lavoro e per non complicare troppo le cose, prendiamo come riferimento il prezzo medio giornaliero unificato su scala nazionale (PUN), che si trova pubblicato sul sito del Gestore del Mercato Elettrico (www.mercatoelettrico.org/It/). Mentre scrivo queste note il PUN odierno medio (24/05/2011) vale 7,51 c€/kWh. In definitiva, per essere competitivo, il kWh fotovoltaico deve costare al massimo questa cifra.

In un mio precedente lavoro, disponibile qui è stato calcolato il costo di produzione del kWh fotovoltaico come:

CkWh = [(AEP)]-1{[QN (1-Tb/dQd)(1-T)-1](B + KR) + KEM} KI

Dove i vari parametri hanno i seguenti valori:
• AEP (annual energy production) = produttività specifica annuale netta espressa in kWh/kW = DH/Ip = 1200 kWh/kWp (media nazionale);
• QN = r/[1 – (1+r)^-N] = fattore di annualità = 0,06505;
• r = tasso annuale d’interesse reale = 5%;
• N = vita operativa dell’impianto = 30 anni;
• T = rateo delle tasse dirette = 0,33;
• b = quota parte dell’investimento in apparati tecnici riconosciuta per il deprezzamento = 0,5;
• d = numero di anni in cui avviene il deprezzamento = 12;
• Qd = r/[1 – (1+r)^-d] = fattore di annualità per l’ammortamento = 0,1295 ;
• B = fattore di maggiorazione del costo di capitale per l’aumento dei prezzi durante la costruzione della centrale = 1;
• KR = frazione dell’investimento per l’acquisto delle parti di ricambio durante l’esercizio = 0,1;
• KEM = frazione dell’investimento impiegata per la spesa annuale di esercizio e manutenzione = 0,01;
• KI = costo specifico dell’impianto espresso in €/kWp;
• D = nmis nth nin ncp = fattore di prestazione dell’impianto = 0,75;
• nmis = fattore di mismatching nell’assemblaggio dei moduli in pannelli = 094;
• nth = fattore medio di temperatura per il riscaldamento dei moduli durante il funzionamento = 0,92;
• nin = fattore medio d’invecchiamento dei moduli nell’arco della vita operativa = 0,93;
• ncp = rendimento del condizionamento di potenza (inverter, ecc.) = 0,94;
• H = insolazione media annuale sui moduli espressa in kWh/m2 = 1600 kWh/m2;
• Ip = intensità della radiazione di picco espressa in kW/m2 = 1 kW/m2.

Inserendo i valori indicati nell’espressione precedente si ricava per il costo del kWh l’espressione:

CkWh = 8,783 10-5 KI

Considerando che il costo specifico dell’impianto fotovoltaico chiavi in mano si aggira oggi intorno a KI = 3000 €/kWp, si ottiene il valore attuale medio in Italia del costo di produzione:

CkWh = 26,3 c€/kWh

Siamo perciò ancora un fattore 3,5 sopra al livello di parità.
Usando ora la stessa espressione come un’equazione per determinare il costo dell’impianto che corrisponde alla parità a 7,51 c€/kWh, otteniamo per KI il valore:

KI0 = 855 €/kWp

Pertanto la parità potrà essere ottenuta solo quando il costo totale dell’impianto scenderà dagli attuali 3000 a 855 €/kWp. Sorgono allora due domande:

1. E’ possibile ottenere questo valore?
2. Se ciò è possibile, quando potrà avvenire?

Vediamo, pertanto, che il quesito circa il conseguimento della parità richiede una risposta positiva alla prima domanda e solo dopo aver verificato questo fatto possiamo cercare di rispondere alla seconda. Evidentemente le previsioni riportate nei due lavori citati danno per scontata la risposta positiva alla prima domanda e cercano di rispondere alla seconda sulla base dell’estrapolazione della curva che esprime l’abbassamento del costo di produzione del kWh in funzione del tempo. Ciò presuppone l’ipotesi che la tendenza attuale di sviluppo possa continuare per gli anni a venire con almeno lo stesso valore presente del tasso annuale di decrescita dei costi. Pertanto la previsione non è basata sulla stima probabilistica del permanere delle condizioni al contorno che stanno permettendo l’abbassamento del costo, ma esprime l’ottimistico desiderio che le cose proseguano indisturbate come ora.

Di fatto, gli esperti di questo genere di previsioni sanno che il modo più corretto di affrontare l’argomento è quello di tracciare la curva d’apprendimento economico e di ragionare su di essa. Proviamo a fare tale operazione con l’intento di verificare la validità delle previsioni.
Ammettiamo per il momento che il costo dell’impianto si sia ridotto agli 855 €/kWp che permettono la parità. Supponiamo che tale costo sia dovuto per il 60% ai moduli fotovoltaici e il 40% al resto del sistema. Avremo così un costo dei moduli pari a circa 513 €/kWp e 342 €/kWp per il resto del sistema.

Tra il prezzo di un prodotto commerciale immesso nel mercato e il numero dei pezzi, venduti cumulativamente nel corso degli anni, esiste una precisa relazione matematica, che può essere rappresentata graficamente su scala bilogaritmica come una funzione lineare decrescente (naturalmente in condizioni ideali di libero mercato e in assenza di vincoli limitativi esterni). In tale rappresentazione il prezzo cala al crescere del volume cumulativo delle vendite. Per capire meglio, basta pensare al prezzo dei telefoni cellulari e a come esso sia calato al crescere della diffusione capillare nell’uso. E’ una legge generale di scala che viene indicata come legge d’apprendimento economico del mercato. L’autore di queste note ha potuto seguire personalmente l’andamento storico dei dati di prezzo relativi ai moduli fotovoltaici a partire dal 1975 ed ha ricostruito (anche avvalendosi di altre fonti di osservazione) la relativa curva d’apprendimento, mostrata in figura.
Ogni punto rappresenta la coppia di valori, prezzo-volume di mercato, di quell’anno. Si parte dal 1975 e si arriva al 2010. I punti sperimentali si dispongono lungo una retta come previsto dalla teoria fino al 2003. Da quell’anno, per i successivi cinque anni, i punti stazionano sullo stesso livello di prezzo discostandosi dalla retta ed infine recuperano verso l’andamento teorico nel 2010.
Lo scostamento degli ultimi anni coincide con l’introduzione nei paesi europei delle incentivazioni governative che hanno causato un eccesso di domanda rispetto alla capacità dell’offerta con conseguente lievitazione anomala dei prezzi.

L’adeguamento della capacità produttiva industriale, nel frattempo intervenuto, sta riportando il sistema nella logica d’apprendimento. Il punto rappresentativo del 2010 si colloca molto vicino al prolungamento della retta, lasciando presumere il prossimo riallineamento all’andamento rettilineo precedente. Assumendo ciò come un’ipotesi probabile, possiamo estrapolare la curva d’apprendimento fino ad incontrare il valore del prezzo dei moduli ritenuto capace di produrre il kWh a costo competitivo. Come visto sopra, tale valore è pari a 513 €/kWp, cioè circa 0,7 $/Wp (1 € = 1,3 $), che nel nostro grafico è rappresentato dalla linea scura orizzontale. L’incontro tra la curva d’apprendimento estrapolata e questo livello avviene per un volume cumulato delle vendite pari all’incirca a 300000 MWp.

Essendo consapevoli di aver azzardato l’ipotesi della ripresa dell’apprendimento normale, la probabilità del raggiungimento della competitività per la coppia di valori, prezzo 0,7 $/Wp – volume di mercato 300000 MWp, ha un margine di confidenza molto alto. Fino a questo punto ci sentiamo abbastanza tranquilli circa la previsione. E’ il passaggio successivo di sostituire la scala dei volumi di mercato con quella temporale che possiede un grado di aleatorietà molto alto. Infatti nulla ci autorizza a dire, a parte la speranza, che il divario tra le vendite cumulate del 2010, circa 40000 MW (www.epia.org “Global market outlook for photovoltaics until 2015”), e il traguardo dei 300000 MW possa essere colmato in tre anni. Significherebbe ammettere che il volume delle vendite possa aumentare a circa 80000 MW all’anno contro i 16500 MW registrati nel 2010.
Viceversa, nell’ipotesi conservativa che in media il volume annuale delle vendite si mantenga per gli anni a venire sul valore di 16500 MW del 2010, il valore cumulativo del mercato raggiungerebbe i 300000 MW in circa 15 anni.
Considerando che il volume annuale delle vendite mostra una tendenza alla crescita, la previsione dell’EPIA di circa 9 anni appare abbastanza realistica.
Pertanto, riassumendo il nostro ragionamento, possiamo dire che, se fosse possibile ridurre il costo degli impianti fotovoltaici a circa 855 €/kWp (60% moduli e 40% resto del sistema), la competitività sarebbe raggiunta entro i prossimi 9-10 anni.

A questo punto, però, è necessario verificare che effettivamente la risposta alla prima domanda sia positiva.
E qui, purtroppo, le cose si complicano notevolmente. Infatti, le analisi economiche applicate alla tecnologia fotovoltaica attuale (silicio cristallino, film sottili, efficienza di conversione commerciale massima al 12-16%) mostrano la presenza di un costo limite per il resto del sistema a circa 1000 €/kWp, cosa che porta il costo totale intorno a un costo limite di 1500 €/kWp (vedere questo mio precedente articolo), il che significa un costo minimo di produzione del kWh pari a 13,1 c€/kWh, ancora non competitivo.

In definitiva, allo stato attuale della tecnologia fotovoltaica e in una stretta logica di mercato, la risposta alla prima domanda è negativa e, pertanto, le previsioni temporali circa il raggiungimento della “grid parity” hanno poco senso. A meno che non si facciano entrare in gioco due aspetti concomitanti: i benefici economici connessi ai vantaggi ambientali del fotovoltaico, cioè il ricorso esplicito alle esternalità, e il passaggio a nuove tecnologie produttive a più alta efficienza in grado di ridurre la superficie degli impianti e, quindi, di abbassare sensibilmente il costo del resto del sistema. Ma questo è un altro discorso.

venerdì, maggio 27, 2011

I consumi di carburante in Italia

Anche l’ultimo rapporto dell’Unione Petrolifera registra un calo dei consumi di carburante in Italia.

La domanda totale di carburanti (benzina + gasolio) nel mese di aprile è risultata pari a circa 2,9 milioni di tonnellate (Mton), di cui 0,8 Mton. di benzina e 2,1 Mton. di gasolio autotrazione, con un decremento dell’1,4% rispetto allo stesso mese del 2010.

Nei primi quattro mesi del 2011 la somma dei soli carburanti (benzina e gasolio) evidenzia un calo dell’1% (-118.000 tonnellate), ma la scomposizione del calo mostra una flessione del 5,7% della benzina e una crescita dello 0,8% del gasolio.

Nei due grafici allegati possiamo osservare l’andamento storico dei consumi di carburante in Italia. Il primo, relativo all’evoluzione del consumo totale di carburanti, illustra efficacemente una tendenza alla stasi nei primi anni duemila, seguita da una riduzione a partire dal 2008, data di inizio della crisi finanziaria ed economica. Il secondo, relativo ai soli consumi dei mezzi per il trasporto privato delle persone, differisce leggermente dal primo per un’accentuazione dei fenomeni descritti in precedenza, con un calo che inizia qualche anno prima, nel 2005. La ragione è evidente e l’abbiamo spiegata in questo precedente articolo: il calo dei consumi totali di carburante è stato mitigato dalle politiche di sostegno statale all’autotrasporto delle merci, settore cruciale della nostra economia. Nonostante ciò, nel 2009 anno della crisi, anche l’autotrasporto delle merci ha ridotto per la prima volta i consumi di carburante.

Considerando che nessun particolare miglioramento dell’efficienza dei motori si è verificato né il nostro paese ha potenziato il sistema di trasporto pubblico delle persone, semmai c’è da registrare un ulteriore peggioramento del servizio a causa dei tagli ai trasferimenti, il calo dei consumi registrato anche nel 2011 nonostante la moderata ripresa economica in atto, è sicuramente da attribuirsi alla dinamica dei prezzi, tornati ai livelli del 2008. In altre parole, in Italia la riduzione nell’uso dei mezzi privati sembra essere strettamente connessa al superamento di un picco di convenienza economica nell’acquisto dei carburanti.

Un’ultima notazione riguarda il persistere di una tendenza alla preferenza dei mezzi alimentati a gasolio da parte degli italiani, confermata anche dalle statistiche sui consumi di carburante. Essa è fortemente dipendente dai minori prezzi del mercato italiano, grazie a un regime fiscale maggiormente favorevole rispetto alle benzine, che compensa abbondantemente i maggiori costi industriali. Si tratta a mio parere di una tendenza perniciosa, perché i motori diesel sono i principali responsabili delle emissioni di polveri sottili all’origine di una vera e propria emergenza sanitaria nel nostro paese.

martedì, maggio 24, 2011

Povera Italia!

Nell’articolo di un anno fa “Un paese sull’orlo del baratro” avevamo evidenziato che se si raffronta il debito pubblico con un parametro che misura la ricchezza delle famiglie, la “ricchezza finanziaria netta”, ci si accorge che il nostro paese da questo punto di vista è praticamente allo stesso livello di grandi come la Germania e la Francia e questo spiega la situazione relativamente più tranquilla rispetto ad altri paesi attualmente a rischio di fallimento.

Proseguendo questo approccio analitico alla valutazione dell’effettiva ricchezza delle nazioni, voglio proporvi nei grafici allegati che ho ricavato dallo studio "The World Distribution of Household Wealth" di UNI – WIDER e dai dati Oecd, un confronto internazionale basato sulla ricchezza netta, un parametro che misura la somma delle attività reali e finanziarie, al netto dei debiti.

Le componenti reali (o non finanziarie) sono per lo più costituite da beni tangibili, come ad esempio le abitazioni, i terreni e gli oggetti di valore; comprendono però anche le attività immateriali, come per esempio il valore di un brevetto o quello dell’avviamento di un’attività commerciale. Le attività finanziarie, come ad esempio i depositi, i titoli di Stato e le obbligazioni, sono strumenti che conferiscono al titolare, il creditore, il diritto di ricevere, senza una prestazione da parte sua, uno o più pagamenti dal debitore che ha assunto il corrispondente obbligo. Le passività finanziarie, cioè i debiti, rappresentano la componente negativa della ricchezza e assumono prevalentemente la forma di mutui e prestiti personali.

Uno dei grafici confronta i paesi anche in base al cosiddetto Indice di Gini, un parametro che misura la concentrazione della ricchezza nelle fasce di popolazione. L’indice di Gini varia tra 0, in presenza di minima concentrazione, e 1, nel caso di massima concentrazione del fenomeno.

Come si può vedere nei primi due grafici relativi all’anno 2000, l’Italia era ai primi posti nel mondo sia per quanto riguarda la ricchezza netta procapite che per la distribuzione della ricchezza nella popolazione. Ma anche se guardiamo a dati più aggiornati come quelli dell’Oecd 2008 relativi alla ricchezza netta delle famiglie in rapporto al reddito, anche se limitati a meno paesi, ci accorgiamo che la situazione è rimasta estremamente favorevole al nostro paese.

Infatti, la lettura del documento “La ricchezza delle famiglie italiane 2009” della Banca d’Italia, ci conferma questo sorprendente primato: “Secondo studi recenti, la ricchezza netta mondiale delle famiglie ammonterebbe a circa 160.000 miliardi di euro. La quota relativa all’Italia sarebbe pertanto di circa il 5,7 per cento; tale quota appare particolarmente elevata se si considera che l’Italia rappresenta poco oltre il 3 per cento del PIL mondiale e meno dell’1 per cento della popolazione del pianeta. L’Italia appartiene alla parte più ricca del mondo, collocandosi nelle prime dieci posizioni tra gli oltre 200 paesi considerati nello studio, in termini di ricchezza netta pro-capite. Il 60 per cento delle famiglie italiane ha una ricchezza netta superiore a quella del 90 per cento delle famiglie di tutto il mondo; quasi la totalità delle famiglie italiane ha una ricchezza netta superiore a quella del 60 per cento delle famiglie dell’intero pianeta.”

Di converso, “le informazioni sulla distribuzione della ricchezza desunte dall’indagine campionaria della Banca d’Italia sui bilanci delle famiglie italiane indicano che alla fine del 2008 la metà più povera delle famiglie italiane deteneva il 10 per cento della ricchezza totale, mentre il 10 per cento più ricco deteneva quasi il 45 per cento della ricchezza complessiva.”
Però l’indice di Gini è rimasto sostanzialmente stabile nell’ultimo decennio e “Secondo le stime disponibili, nel confronto internazionale l’Italia registra un livello di disuguaglianza della ricchezza netta tra le famiglie piuttosto contenuto, anche rispetto ai soli paesi più sviluppati.”

Come si può vedere nell’ultimo grafico, la ricchezza netta nel 2009 è leggermente aumentata, ma da qualche anno sembra aver raggiunto un picco come tanti altri parametri significativi dell’andamento dell’economia che abbiamo descritto in precedenti articoli.
In Italia le attività reali rappresentavano il 62,3 per cento della ricchezza lorda, le attività finanziarie il 37,7 per cento. Un dato caratteristico del nostro paese rispetto al quadro internazionale è l’elevato peso della proprietà di abitazioni all’interno della ricchezza netta reale (82%).

Concludendo, il nostro paese sul piano economico è messo meno male di quanto le continue lamentazioni delle rappresentanze politiche e sociali evidenziano. Ciò è in parte spiegabile con l’atteggiamento tipicamente italiano che si può definire con un espressione gergale del dialetto napoletano, un po’ pesante ma efficace, “chiagne e fotte”. L’elevato livello di ricchezza netta è compensato e in parte correlato con l’enorme debito pubblico che, per essere ridotto ai valori di stabilità richiesti dall’Unione Europea, in un quadro di sostanziale stagnazione economica strutturale, determinerà inevitabilmente in futuro un prelievo dalla ricchezza netta. E’ auspicabile che tale prelievo avvenga in un contesto di riequilibrio delle differenze sociali. Ricchezza stabile (stazionaria) e redistribuzione dei redditi sono peraltro i requisiti indispensabili di una società ambientalmente sostenibile.

venerdì, maggio 20, 2011

Classifica della potenza fotovoltaica installata nelle Regioni italiane

Il grafico allegato, che ho ricavato utilizzando gli ultimi e più aggiornati dati disponibili nell’Atlasole del GSE, descrive la distribuzione della potenza installata di pannelli fotovoltaici in rapporto alla popolazione (Watt procapite) delle venti Regioni italiane.

Se consideriamo in prima approssimazione che i livelli di installazione siano dipendenti da tre fattori: quantità di insolazione (da cui discende la maggiore o minore redditività dell’investimento), ricchezza economica (a cui può essere correlata una maggiore propensione all’investimento) e politiche dei governi locali (maggiori o minori incentivazioni fiscali, edilizie ed urbanistiche), ci accorgiamo che alcune Regioni meno ricche, come la Basilicata e, in parte la Puglia, abbiano compensato questo handicap grazie alle migliori condizioni meterologiche, al maggiore sostegno politico e a una più efficace azione amministrativa, che altre regioni meridionali hanno completamente vanificato i più elevati livelli di insolazione a causa di inefficienza e scarsa sensibilità amministrativa.

Ci sono Regioni come il Trentino che hanno bilanciato il fattore minore insolazione con un valore maggiore degli altri due parametri. Stupiscono in particolare la posizione in classifica della Toscana, vicina alle peggiori regioni del Sud e ultima delle regioni centrali e l’ultimo posto della Liguria. Probabilmente pesano le preoccupazioni relative all’impatto paesaggistico ed architettonico dei pannelli solari nel paesaggio agricolo e sugli edifici storici.

giovedì, maggio 19, 2011

Un libro per il referendum nucleare



Nel precedente articolo abbiamo cercato di capire quante possibilità ci siano di andare effettivamente a votare per il referendum sul nucleare del prossimo 12 - 13 Giugno. Abbiamo anche suggerito di non allentare l’impegno politico a sostegno del quesito referendario per evitare brutte sorprese, continuando a informare sui limiti industriali, ambientali energetici e sanitari della tecnologia nucleare.
Per chi volesse utilizzarli in campagna elettorale, sul sito di Aspoitalia e su questo blog (cercando la voce energia nucleare) sono disponibili numerosi approfondimenti scientifici di tutti i molteplici aspetti della questione.

Voglio però qui presentare e recensire brevemente un interessante libro che ho avuto l’opportunità di commentare durante un recente dibattito sul nucleare alla Facoltà di Economia dell’Università di Pisa. Si intitola “Nucleare SI, Nucleare NO” ed è pubblicato dalla Casa Editrice EMI. L’autrice è Sabrina Arcuri, una giovane laureata in Economia del territorio e dell'ambiente, attualmente allieva del Corso di laurea specialistica presieduto dal Prof. Tommaso Luzzati, in Sviluppo e gestione sostenibile del territorio, presso l’ateneo pisano,.

Bene, ritengo che questo agevole libricino possa rappresentare un utile strumento informativo per gli elettori, ma anche per tutti i non specialisti che volessero farsi comunque un opinione sull’argomento, perché si colloca in maniera eccellente in uno spazio efficacemente divulgativo senza perdere di vista un rigoroso approccio scientifico alle complesse tematiche sottese alla scelta nucleare. Tutti gli argomenti vengono affrontati in maniera chiara, completa e neutrale, dando spazio a tesi contrapposte: dalla situazione dell’energia nucleare nel mondo, alla disponibilità della materia prima, dagli aspetti economici al ciclo del combustibile, trattamento e deposito delle scorie, dalla questione della sicurezza agli effetti sulla salute, fino a concludere con un’analisi del caso italiano.

Peraltro, dopo la lettura del volumetto ho scoperto anch’io con piacere di avere acquisito delle informazioni che mi mancavano come, ad esempio, l’elenco completo e non breve di tutti gli incidenti nella storia del nucleare civile
Purtroppo, il libro è stato scritto prima dell’incidente di Fukushima, per questo mancano alcuni aggiornamenti rispetto a questo evento catastrofico, che potrebbero essere inseriti in una prossima edizione dell'opera. All'autrice vanno sinceramente i nostri complimenti per un’opera utile e di piacevole lettura.

mercoledì, maggio 18, 2011

Una spada di Damocle pende sul referendum antinucleare

Manca meno di un mese alla data del referendum contro il nucleare e non si sa ancora se gli italiani potranno esprimere il proprio voto su questa materia cruciale.

Infatti, il Governo ha approvato di recente un emendamento alla legge che contiene le procedure per l’attuazione del programma di costruzione di nuove centrali nucleari, cancellando tutti gli articoli citati nel quesito abrogativo e rinviando sine die la decisione.

La questione è molto controversa perché l’annuncio ufficiale del Presidente del Consiglio di voler solo rinviare a tempi migliori l’attuazione del piano, pone dubbi sull’effettiva volontà legislativa di accogliere le richieste referendarie. Spetterà quindi alla Corte di Cassazione sciogliere la controversia interpretativa.

Cliccando qui potete leggere uno specifico commento di Stefano Rodotà su Repubblica del 27 aprile scorso. Sostanzialmente, se la Cassazione dovesse ritenere che le nuove norme non recepiscano la volontà dei referendari, deciderebbe lo svolgimento della consultazione elettorale, spostando il quesito sulle nuove norme governative. Ma, siccome quest’ultime contengono l’abrogazione di tutte le norme sottoposte al quesito referendario, il risultato paradossale sarebbe che la vittoria del SI ripristinerebbe le norme che favoriscono la realizzazione del piano nucleare del governo. Rodotà propone perciò di far sciogliere il nodo interpretativo alla Consulta, ma secondo me, sul piano logico, la Cassazione, rilevando il paradosso, finirà per annullare il referendum. Comunque, non sono un giurista e spero di sbagliarmi.

Politicamente è però importante che i referendari mantengano la mobilitazione fino a quando non si esprimerà la Cassazione, utilizzando il tempo intercorrente per illustrare ai cittadini i motivi, ambientali, sanitari e industriali contro il nucleare.

Se alla fine il referendum non si dovesse tenere, a mio parere si tratterebbe comunque di una vittoria del movimento antinucleare. Sicuramente questo governo non riproporrà il piano nucleare, in primis perchè siamo a ridosso di nuove elezioni politiche ma soprattutto perchè il referendum gli ha dato l’opportunità di una strategia di uscita da una tecnologia che si sta mostrando sempre più costosa ed inaffidabile. Non fatevi ingannare dalle dichiarazioni di Berlusconi al vertice con Sarkozy, secondo me dettate dall’esigenza di rassicurare i francesi che ci vogliono sbolognare la loro patacca dell’ EPR e con cui erano già stati siglati accordi impegnativi.
Rimane la grave sconfitta politica di un governo che aveva strombazzato per anni una scelta energetica che ora è costretto a rimangiarsi.

lunedì, maggio 16, 2011

Analisi del costo di produzione del kWh nucleare. Nuovo articolo di Domenico Coiante

Oggi vorrei recensire brevemente l’ultimo, eccellente lavoro di Domenico Coiante riguardante il costo di produzione dell’energia nucleare. Potete leggerlo integralmente sul sito di Aspoitalia, nell’Archivio degli articoli, cliccando qui.

Si tratta di un’analisi completa, accurata ed articolata di tutti i fattori che influiscono sul costo finale, che lascia ormai pochi dubbi sulla reale convenienza economica della tecnologia nucleare.
Partiamo perciò dalle conclusioni di Coiante:

“In definitiva, la nostra stima assegna al costo del kWh nucleare l’intervallo di valori:

CkWh = (8,1 ¸ 9,4) c€/kWh

Confrontando questo risultato con i dati della Tab.2, si può vedere che i valori ottenuti si collocano al di sopra delle stime più ottimistiche e in buon accordo con i dati dei rapporti Lazard e Keystone.
Osservando i pesi dei diversi contributi, si può vedere come il costo finanziario incida per oltre il 70%. E’, pertanto, fondamentale per raggiungere un buon margine di confidenza sul risultato conoscere con precisione questo parametro di costo, che, nella pratica, può variare molto in dipendenza dalle condizioni socio politiche del paese in cui si va ad istallare l’impianto.
La nostra stima si riferisce all’area dell’UE, con i suoi costi e i suoi requisiti per la sicurezza e con particolare riguardo alle condizioni strutturali italiane. A questo proposito dobbiamo tenere conto del fatto che il prezzo unico d’acquisto dell’energia elettrica in Italia è situato oggi in media a 7 centesimi di euro e che il prezzo del kWh per il carico di base, cui è destinata la produzione nucleare, è di 4,7 centesimi di euro (www.mercatoelettrico.org PUN index del giorno 3/5/2011).
Possiamo, pertanto, concludere che, nonostante i miglioramenti avvenuti nel fattore di carico e nell’efficienza di trasformazione dei reattori (qui puntualmente registrati) e l’acquisizione del credito di emissioni di CO2 al valore di mercato, l’energia elettrica nucleare non è competitiva.”

Ovviamente rimando a un’attenta lettura dell’articolo di Coiante per comprendere i motivi che conducono a queste conclusioni, qui mi limito solo ad alcuni commenti.

Il metodo di calcolo utilizzato dall’autore è quello consigliato dall’Agenzia Energetica Internazionale per comparare il costo di produzione delle varie fonti energetiche, quindi difficilmente si potrà contestare questo aspetto dello studio. Esso è fondato sulla determinazione del cosiddetto VAN (Valore Attuale Netto), cioè l’attualizzazione all’anno zero di tutti i flussi di costo nell’intero ciclo di vita del reattore.

Oltre l’apparente complessità delle formule, rimane il dato di fatto sintetizzato da Coiante nelle conclusioni, che il 70% del costo di produzione sia determinato dalla componente finanziaria, cioè dal capitale richiesto per la costruzione delle centrali e dalle condizioni finanziarie di acquisizione di tale investimento.
A tale proposito, assume un ruolo centrale la fase di preammortamento dell’investimento, cioè il periodo di tempo intercorrente tra l’affidamento dei lavori e l’inizio della costruzione: “L’ammortamento del debito inizia solo quando la centrale entra in servizio e comincia a produrre reddito. La restituzione avviene in un numero N di rate annuali lungo tutta la vita operativa dell’impianto. Tra la data di concessione del prestito e quella d’inizio dell’ammortamento passa un periodo di tempo, detto tempo di cantiere, di n anni, con n che può arrivare anche a oltre 10 anni.
Durante questo periodo occorre pagare gli interessi sulla somma presa in prestito e questa spesa, detta di preammortamento, va a cumularsi in modo attuariale sul debito.”

Ciò determina un sensibile aumento delle spese previste per la mera costruzione delle centrali e gli esempi dei reattori in costruzione in Finlandia e in Francia stanno a dimostrarlo. Su questo fattore, che le analisi più ottimistiche spesso ignorano o sottovalutano, incidono sicuramente le condizioni specifiche di mercato locale per la concessione del prestito, ma anche i tempi necessari ad iniziare i lavori. Da questo punto di vista, i tempi biblici necessari a iniziare la costruzione delle opere pubbliche in Italia, dovrebbero indurci a qualche ulteriore riflessione critica sulla convenienza dell’investimento nel nostro paese.

L’altra considerazione che mi sento di fare in merito alla forchetta di valori indicata da Coiante è che quello più basso corrisponde a una durata della vita operativa delle centrali di 60 anni (maggiore è la produzione energetica, minore è il costo unitario), che per ora è una prospettiva non ancora suffragata dall’esperienza reale. Qualche dubbio sorge se consideriamo che in fondo, a parte la fase di produzione dell’energia termica, la centrale nucleare non differisce sostanzialmente da una qualsiasi centrale termoelettrica (la cui durata è da considerare empiricamente più bassa), e che la risoluzione di maggiori problematiche di sicurezza probabilmente determineranno un ulteriore aumento dei costi di costruzione e manutenzione.

L’ultima considerazione riguarda la componente del costo legata al combustibile nucleare, che secondo le valutazioni di Coiante incide dal 4% al 5%, quindi in misura poco rilevante, come affermano spesso i nuclearisti. Però, considerando che l’uranio di facile estrazione è quasi terminato, è prevedibile nei prossimi anni una nuova crescita dei prezzi della materia prima che potrebbero incidere in misura sensibile sul costo di produzione del kWh marginale.

Concludendo, il costo di produzione del kWh nucleare è superiore ai prezzi di mercato delle altre fonti energetiche e difficilmente potrà superare questo gap, proprio a causa delle sempre maggiori esigenze di sicurezza, l'uranio è una risorsa limitata e disponibile in pochi paesi, il ciclo del combustibile nucleare è completamente nelle mani di poche aziende, come quelle che io chiamo "le quattro sorelle dell'arricchimento". Ognuno di questi argomenti l’abbiamo sviluppato in precedenti articoli, ma il succo politico-industriale della questione è che, se mai il nostro paese tornasse al nucleare, sarebbe totalmente succube dei francesi. Per cui, una politica più attenta agli interessi nazionali, secondo me dovrebbe essere orientata a diversificare le forniture dei combustibili fossili e a sviluppare anche sul piano della ricerca le uniche fonti autoctone italiane, cioè quelle rinnovabili.

venerdì, maggio 13, 2011

1 milione di interventi di riqualificazione energetica in quattro anni

In questo articolo dell’anno scorso abbiamo evidenziato gli ottimi risultati anche in termini di risparmio energetico complessivo delle detrazioni fiscali del 55% per gli interventi di riqualificazione energetica degli edifici.

In un’intervista a Giampaolo Valentini, responsabile Enea per il 55%, disponibile sul sito dell’ente, apprendiamo ora che gli interventi negli ultimi quattro anni, secondo le stime dell’Enea, sono stati oltre 1 milione, con un picco nel 2010 (405 mila interventi). La stragrande maggioranza (il 71% del totale) sono stati effettuati negli ultimi due anni.

Gli interventi più frequenti hanno riguardato l’involucro edilizio e la sostituzione degli infissi, mentre la sostituzione degli impianti termici ha determinato i risparmi energetici maggiori.
Gli investimenti per gli interventi di efficienza energetica degli edifici ammonterebbero a circa 11,1 miliardi. L’importo totale delle minori entrate fiscali è di circa 6,1 miliardi di euro. In compenso però l’Enea stima benefici per circa 10 miliardi di euro, ottenuti grazie ai risparmi sulla bolletta energetica nazionale, entrate per il fisco per gli interventi realizzati e i prodotti utilizzati, incremento del valore degli immobili dopo gli interventi.

Secondo Valentini, in Italia il 35,2% dei consumi di energia totale dipendono dal settore residenziale e, di questi, almeno il 70% sono relativi al riscaldamento. Oggi le abitazioni italiane consumano 120-150 kWh/m2 all'anno, un livello ancora troppo alto che tuttavia con le attuali tecnologie e con le dovute accortezze costruttive, senza extra costi, potrebbe essere ridotto addirittura del 50%.

Per quanto riguarda l’altro provvedimento che incentiva l’uso efficiente dell’energia in Italia, quello relativo al mercato dei cosiddetti “certificati bianchi”, in questo articolo avevamo sintetizzato i primi risultati.

Invece, cliccando qui è possibile leggere l’ultimo Rapporto dell’Autorità per l’Energia Elettrica e il Gas. Il dato significativo è che tenuto conto dei titoli di efficienza energetica emessi nel periodo precedente e non annullati per le verifiche di conseguimento degli obiettivi 2005, 2006, 2007 e 2008, i TEE complessivamente disponibili al 31 maggio 2010 ammontavano a 6.645.018, pari al 102% dell’obiettivo complessivo da conseguirsi nel 2009 e così ripartiti:
- 4.884.367 di tipo I (attestanti la riduzione di consumi di energia elettrica);
- 1.438.753 di tipo II (attestanti la riduzione di consumi di gas naturale);
- 321.898 di tipo III (attestanti la riduzione di consumi di combustibili solidi, liquidi e di altri combustibili gassosi).

martedì, maggio 10, 2011

Solar Energy Report

A tutti coloro che sono interessati all’evoluzione del solare italiano segnalo vivamente la lettura del Solar Energy Report 2011 redatto da un gruppo di docenti e ricercatori del Politecnico di Milano, disponibile cliccando qui.

Si tratta di un Rapporto approfondito e completo, da cui si possono trarre interessanti informazioni su tutti gli aspetti delle tecnologie che utilizzano l’energia solare (fotovoltaico, termico, termodinamico), dai costi all’evoluzione del mercato italiano in rapporto a quello internazionale, dai riferimenti normativi ai livelli occupazionali.

La prima cosa che sorprende è l’estrema effervescenza del mercato italiano del fotovoltaico negli ultimi anni, grazie alle incentivazioni del Conto Energia. Se si considerano anche le installazioni conseguenti al cosiddetto “Decreto Salva Alcoa” l’Italia avrebbe già superato i 7000 MW di potenza, collocandosi al secondo posto al mondo dopo la Germania.

L’effetto più evidente e positivo di questa evoluzione è stato il calo vistoso dei prezzi dai pannelli, grazie soprattutto al minore costo dei moduli che oggi rappresenta soltanto il 40% del costo totale d’installazione (a fronte del 70% di pochi anni fa). Ma anche il prezzo degli inverter segue un’analoga tendenza al ribasso.

Secondo i redattori del Rapporto, la causa principale di questa vera e propria esplosione sono stati gli elevati rendimenti e il basso rischio dell’investimento. Infatti, il Tasso Interno di Rendimento (il tasso di attualizzazione che rende nullo il VAN) cioè la resa dell’investimento, è valutato nel 2010 dal 18% al 25% !!

Un altro dato molto interessante sul piano occupazionale è quello relativo all’analisi dell’intera filiera tecnologica che oggi inizia a vedere la presenza di operatori italiani non solo nella distribuzione e installazione, ma anche negli altri settori come quelli della produzione di celle, moduli e inverter.
Il Rapporto conclude con alcune note di rilevante preoccupazione sulle sorti del mercato italiano del solare in seguito alle incertezze determinate dagli ultimi provvedimenti governativi. Preoccupazioni a cui ci associamo decisamente.

lunedì, maggio 09, 2011

L'alternativa al trasporto privato



Prendiamo spunto dall’inaugurazione dell’ennesimo tram francese, quello coloratissimo di Reims, per ricapitolare i vantaggi di questo mezzo di trasporto collettivo che rappresenta oggi la migliore alternativa all’automobile, in un mondo con sempre meno petrolio e più caro.

Qui e qui abbiamo spiegato perché i sistemi di trasporto ferro – tranviari moderni sono i più efficienti in termini economici e gestionali.

Qui abbiamo anticipato l’inizio della fine del trasporto pubblico su gomma in Italia, puntualmente confermato con i tagli ai servizi che stanno effettuando in questi giorni tutte le aziende pubbliche del settore.

Qui abbiamo evidenziato i motivi dei minori consumi energetici specifici dei trasporti su ferro rispetto agli altri mezzi di trasporto.

La diffusione in Europa di questa modalità di trasporto innovativo negli ultimi vent’anni, in rapporto alle poche esperienze italiane è sintetizzata in questo e quest’altro articolo.

Nel frattempo, il nostro paese non solo si caratterizza per il ritardo nell’adeguamento infrastrutturale del proprio sistema di trasporti, ma addirittura primeggia nell’affidarsi a presunti sistemi innovativi che in realtà accumulano problemi operativi o si rivelano delle vere e proprie bufale.

Ne abbiamo parlato qui, qui potete leggere dell’ultimo incidente strutturale del Translohr di Padova. Il fallimento annunciato del filobus a guida ottica “Civis” di Bologna è assurto alle cronache nazionali di Report.

Qui accanto trovate cosa bisognerebbe fare in Italia e presto per recuperare il tempo perduto, aumentando le accise sui prodotti petroliferi di appena due centesimi e spostando risorse economiche da sempre più inutili progetti autostradali.

giovedì, maggio 05, 2011

Le quattro sorelle dell'arricchimento

Qualche giorno fa ho letto qui una stimolante, divertente e istruttiva intervista al noto fisico Luigi Sertorio sulla questione del nucleare, ritrovando sintetizzate tutte le perplessità sul piano industriale di questa tecnologia, che più volte abbiamo analizzato sulle pagine del blog, dalla disponibilità di risorse uranifere mondiali, alla dipendenza dai produttori di uranio, dal rischio di incidente nucleare ai costi ecc.

Non avevamo però finora affrontato il problema ricordato da Sertorio della dipendenza totale dalle aziende che operano nelle varie fasi di confezionamento del combustibile nucleare, in primis il processo di arricchimento dell’uranio.
Le informazioni su questo aspetto cruciale dell’avventura nucleare italiana le troviamo nel Rapporto annuale 2009 dell’Euratom Supply Agency della Commissione Europea.
Come si può vedere nella tabella allegata tratta dal rapporto citato (cliccare sopra per ingrandire), le principali aziende che operano il processo di arricchimento dell’uranio che detengono quasi il 98% del mercato sono appena quattro.

Inoltre, quelle che producono le barre di combustibile di più grande capacità sono in Francia, Germania, Federazione Russa e Stati Uniti, ma ce ne sono anche in altri paesi, spesso sotto la licenza di uno dei fornitori principali. Le informazioni fornite alle AIEA hanno consentito di identificare 40 impianti di fabbricazione del combustibile su scala commerciale, in funzione in Argentina, Belgio, Brasile, Canada, Cina, Francia, Germania, India, Giappone, Kazakistan, Corea, Pakistan, Romania, Federazione Russa, Spagna, Svezia, Regno Unito e Stati Uniti.

Eppure continuano a dire senza ritegno che il programma nucleare italiano servirebbe anche a ridurre la dipendenza energetica italiana dall’estero.

La metà dei reattori operativi nel mondo sono negli Stati Uniti, in Francia, in Giappone e in Russia, che hanno tutti aziende di arricchimento dell'uranio, tranne il Giappone. Sarà un caso che alcuni dei paesi che stanno progettando l'uscita dal nucleare, non hanno impianti di arricchimento?

Crisi economica e identità nazionale

Al recente concerto del 1° maggio a Roma le 500.000 persone presenti all’evento, in maggioranza giovani, hanno cantato all’unisono le tre versioni dell’Inno di Mameli eseguite da vari interpreti, concludendo con un colossale e impressionante SI quella di Eugenio Finardi.

C’è chi continua a stupirsi di queste entusiastiche espressioni dello spirito nazionale che contraddistinguono il 150° anniversario dell’Unità d’Italia, e la notizia del giorno sembra essere che gli italiani amano il proprio paese. Ma in realtà questo stupore dimostra solo una scarsa conoscenza o comprensione della psicologia profonda del popolo italiano.

Si è spesso detto, sbagliando, che negli italiani sia carente l’identità nazionale.
L’equivoco nasce dal fatto che tale sentimento di appartenenza non è carente, ma solo latente e si manifesta con maggiore evidenza nei momenti di maggiore difficoltà del paese. E dalla confusione che spesso si fa tra senso della Nazione e senso dello Stato, la cui mancanza purtroppo, per ragioni storiche e antropologiche, è una dei tratti caratteristici del nostro popolo.
L’esempio che per primo mi viene in mente per spiegare questi concetti è l’episodio del film di Mario Monicelli “La grande guerra”, in cui i due soldati cialtroni interpretati splendidamente da Vittorio Gassman e Alberto Sordi, hanno un improvviso scatto di orgoglio nazionale andando incontro alla morte, per il rifiuto di rivelare la posizione dei commilitoni al comandante tedesco che ha disprezzato la loro italianità.

Gli italiani ora avvertono che il nostro paese sta vivendo un periodo storico difficile e gravido di possibili conseguenze negative. Non solo per i rischi di divisione alimentati dalla Lega Nord, ma soprattutto per i cambiamenti epocali che si preannunciano a seguito della crisi economica strutturale che stiamo vivendo. E come sempre, reagiscono con un rigurgito di orgoglio e coesione nazionale.

Sono convinto che l’Italia potrà affrontare meglio di altre nazioni gli inevitabili adattamenti socio economici necessari ad affrontare la fine della crescita economica e l’incombente scarsità di risorse energetiche prossime venture. Perché una delle caratteristiche precipue del nostro paese è l’estrema variabilità di ecosistemi e culture territoriali, con la quale sarà forse possibile rispondere più efficacemente alle maggiori necessità di autosufficienza alimentare ed energetica.
Però, questi vantaggi potenziali potranno divenire effettivi solo sviluppando una maggiore coesione sociale e limitando la tradizionale tendenza di molti italiani ad anteporre il proprio interesse individuale a quello della collettività di cui fanno parte.

Questa condizione esistenziale rappresenta il vero rischio della nostra nazione e si potrà contrastare solo con la forza dell’esempio di tutti coloro che invece hanno a cuore il bene comune.
Il primo a morire in battaglia durante la gloriosa spedizione dei Mille fu Desiderato Pietri, un opportunista che si era aggregato alla spedizione tentando di ricavarne qualche vantaggio economico personale. Eppure il fulgido esempio di Garibaldi e delle Camicie Rosse convinse anche lui a combattere per la causa comune dell’Unità d’Italia.

lunedì, maggio 02, 2011

Sicurezza dei reattori nucleari



Scritto da Domenico Coiante


La probabilità d’incidente di fusione del nocciolo

Nei primi 13 anni della mia vita lavorativa da fisico, mi sono occupato di emissioni nucleari, realizzando numerosi rivelatori a silicio e germanio destinati alla spettrometria delle radiazioni alfa, beta e gamma emesse nel corso degli esperimenti di fisica nucleare che erano condotti, sia a Frascati presso il Sincrotrone, sia alla Casaccia presso il reattore di ricerca Triga.
Nel 1974, in occasione dell’avvio del Programma Nucleare Italiano dei 20000 MW, detto di Donat Cattin dal nome del ministro dell’industria dell’epoca, fui selezionato per occuparmi di sicurezza nucleare nell’ambito della Direzione Centrale per la Sicurezza dell’allora Comitato Nazionale per l’Energia Nucleare. Ho trascorso i successivi 5 anni a studiare e ispezionare i sistemi di sicurezza dei reattori italiani con speciale attenzione alle linee di strumentazione elettronica, dai sensori, preamplificatori, amplificatori e logiche di funzionamento, fino agli attuatori.

Oltre ad aver partecipato alla revisione decennale della licenza dei reattori di Latina e del Garigliano e, quindi, alla verifica sul campo delle condizioni della strumentazione dopo 10 anni d’esercizio, ho fatto parte del gruppo di esperti che ha eseguito le verifiche di conformità del progetto del reattore di Caorso, allora in costruzione quasi ultimata, per quanto riguarda le parti rilevanti per la sicurezza.
E’ in questa occasione che mi sono imbattuto per la prima volta nei dati della probabilità dei vari incidenti che possono capitare in un reattore e, in particolare, sul dato relativo all’evento più grave: la fusione del nocciolo.
Era allora attribuita a questo evento la probabilità d’accadimento di uno su centomila all’anno. Cioè, se un reattore potesse funzionare per 100000 anni, andrebbe sicuramente incontro alla fusione del nocciolo, oppure se ci fossero in funzione 100000 reattori, in uno di essi si verificherebbe l’incidente nel corso dell’anno.

Nel 1975 fu pubblicato il famoso Rapporto Rasmussen sulla sicurezza dei reattori nucleari, che era costato tre anni di lavoro ad un gruppo di esperti capeggiato da Norman Rasmussen. Ricordo questo evento per lo scalpore suscitato soprattutto perché innalzò di 5 volte il dato circa la probabilità della fusione del nocciolo portandolo al valore di uno su 20000 all’anno.
Il rapporto fu molto criticato, non tanto per il metodo, quanto per il merito e sorsero come funghi numerosi gruppi di studio che ne revisionarono i calcoli. In particolare furono inclusi nei danni anche i morti per cancro causati in tempo differito dalla dose di radiazioni assorbita dalla popolazione, che Rasmussen non aveva considerato. Il risultato finale della revisione fu un ulteriore aumento della probabilità dell’evento che fu portato al dato finale di uno su 10000 per reattore all’anno.

Successivamente, nel 1979, essendo stato fortemente ridotto il Programma Nucleare Italiano a soli 4 reattori ed essendo stata assegnata al CNEN la nuova competenza dello sviluppo delle fonti rinnovabili, fui incaricato di occuparmi del Progetto Fotovoltaico nell’ambito del Programma sulle Fonti Rinnovabili e lasciai le faccende nucleari.
Da allora non ho avuto più modo di seguire gli argomenti di affidabilità dei reattori fino ad un mese fa con l’evento catastrofico di Fukushima.
Spero che i miei soliti sei lettori mi scuseranno per aver iniziato il tema con alcune note autobiografiche, ma ho ritenuto necessario farlo per accreditarmi presso di loro come uno che ha conosciuto abbastanza da vicino i reattori nucleari.

A rammentarmi oggi la storia passata è stata la mia partecipazione al convegno, indetto dall’Associazione Amici della Terra, tenuto a Roma il 15 aprile scorso, dal titolo: “Dopo il disastro nucleare in Giappone, Energia: Rifare I Conti”, i cui atti possono essere consultati sul sito www.amicidellaterra.it. In tale occasione ho presentato una memoria sulle fonti rinnovabili ed ho potuto così ascoltare uno dei relatori sul nucleare, che, a conclusione del suo interessante intervento sul disastro di Fukushima, ha mostrato il grafico sperimentale della crescita cumulativa del numero di reattori per anno in funzione del tempo.
Il grafico mostrava come l’incidente di Fukushima fosse la conferma sperimentale del dato di probabilità dell’evento: cioè proprio uno su 10000 per reattore all’anno.
La considerazione immediata, richiamata da questo fatto, è che la situazione della sicurezza dei numerosi reattori della II generazione, (che sono ancora in funzione e per i quali è stato concesso l’allungamento della vita operativa da 30 a 40 anni), non appare affatto migliorata negli ultimi 35 anni: uno su 10000 era la probabilità di fusione del nocciolo nel 1975 quando mi occupavo di questo argomento e uno su 10000 è ora, nonostante le dichiarazioni di continui accorgimenti migliorativi apportati durante la loro gestione.

Tanti anni fa, nella mia ingenua razionalità cartesiana, mi ero posto il problema di come si potesse calcolare con precisione questo dato per un reattore. Mi dicevo: “Se ciò è possibile, possiamo qualificare ciascun tipo di reattore assegnandogli il suo dato di affidabilità e, quindi, effettuare il confronto tra le diverse tecnologie e scegliere razionalmente quella più sicura”.
Il fatto che ciò non fosse ancora stato fatto a distanza di 15 anni dalla commercializzazione dei primi reattori e che si continuasse a discutere circa la migliore sicurezza di un tipo di reattore rispetto ad un altro, senza mai portare a sostegno il dato numerico dell’affidabilità, mi lasciava profondamente perplesso. Non riuscivo a spiegarmi il perché.

A darmi l’occasione per affrontare questo argomento fu la partecipazione ad un corso di specializzazione sull’affidabilità dei sistemi complessi tenuto all’Euratom di Ispra dal professor Alessandro Volta (discendente diretto dal suo illustre avo), ritenuto un’autorità mondiale nel campo dell’affidabilità dei sistemi. Ho potuto così valutare il lavoro di Rasmussen, comprendendone le limitazioni.
Il metodo, che era stato usato era quello classico, messo a punto nell’avionica. Esso è concettualmente semplice. Il sistema complesso è scomposto in sottosistemi più semplici e questi a loro volta suddivisi nei diversi componenti, ciascuno dei quali contiene un certo numero di parti elementari, di cui si conosce l’affidabilità con un gran margine di confidenza. A questo punto si costruiscono i due cosiddetti “alberi”, quello degli eventi e quello dei guasti. Si seguono le diverse linee d’azione funzionale che, partendo dagli elementi più semplici del sistema, ne realizzano la missione. Si vede poi che cosa accade in caso di guasto di uno o più componenti e come questo guasto si ripercuote sulla catena funzionale dell’intero sistema allo scopo di verificare la possibilità dell’evento peggiore: il blocco del sistema stesso.

Nel caso di una bassa complessità e di assenza di interazione tra le diverse linee d’azione, il calcolo della probabilità totale di guasto si esegue percorrendo il percorso logico che porta all’evento finale. Le probabilità degli eventi intermedi si compongono in somme e prodotti fino a definire il valore finale. Purtroppo, il reattore nucleare è un sistema molto complesso e l’albero dei guasti costruito per l’evento di fusione del nocciolo risulta particolarmente complicato a causa delle numerose biforcazioni ed intersezioni dei vari percorsi logici che, partendo dalle numerose parti elementari, possono portare al guasto totale. Per arrivare ad un risultato, nella simulazione del calcolo anche sui grandi computers, è necessario ricorrere a ipotesi semplificative, cosa che, unita alla incertezza con cui si conosce l’affidabilità dei vari stadi intermedi, porta ad avere il dato finale con un margine di incertezza molto alto.
Proprio questa fu la principale critica, non al metodo, ma al risultato finale di Rasmussen. Anzi, si riconobbe che non era possibile nemmeno conoscere con precisione quale fosse il margine d’incertezza di quel risultato.
Ma allora come si fa a stabilire che la probabilità della fusione del nocciolo è pari a uno su 10000?
Si fa ricorso all’esperienza, applicando il metodo statistico dei grandi numeri. Si segue il seguente ragionamento: “Siamo nel 2011 ed oggi ci sono in funzione nel mondo 437 reattori, di ciascuno dei quali si conosce esattamente l’età (Fonte: IAEA-PRIS, MSC, 2011). Moltiplichiamo il numero dei reattori per la corrispondente età e sommiamo i risultati: otteniamo la quantità cumulata di reattori per anno di funzionamento. Nella fattispecie abbiamo 11489 reattori anno. Sempre dalla fonte citata possiamo ottenere il numero dei reattori che, ad oggi, sono stati spenti per fine esercizio e per ciascuno di essi conosciamo gli anni di operatività. Ripetendo l’operazione precedente ricaviamo il numero cumulativo dei reattori per anno che hanno operato e che ora sono spenti. Sono 2880 reattori anno.

In definitiva l’esperienza ci mostra come, fino ad oggi, 14369 reattori anno abbiano assolto la loro missione di produrre energia elettrica.
Dalle statistiche sugli incidenti nei reattori nucleari per la produzione elettrica, apprendiamo che, ad oggi, si sono avuti tre eventi certi di fusione del nocciolo: Three Mile Island 1979, Chernobyl 1986, Fukushima 2011 (anche se i reattori fusi sono almeno due, li consideriamo un solo caso perché la causa di guasto è stata comune). Pertanto, la probabilità di questo evento è pari a 3 su 14369, cioè 2 su 10000 per reattore all’anno”.
Ed ecco fatto: il dato sperimentale ci porta ad una probabilità doppia rispetto a 1 su 10000, ma siamo sicuramente dentro il margine d’incertezza del dato calcolato con i modelli di simulazione.
In definitiva, possiamo considerare assodato che la probabilità di fusione del nocciolo nei reattori nucleari è pari ad 1-2 casi su 10000 per reattore all’anno.

Il significato del numero

A far comprendere alla casalinga di Voghera che cosa significhi questo arido numero, ci pensano i cultori della scienza statistica, che subito si affannano ad elaborare chiarimenti esemplificativi per trasformare il dato in forma più accessibile. Si comincia con il considerare che, una volta avvenuta la fusione del nocciolo, la probabilità di rilascio d’emissioni all’esterno del contenimento primario è stimata in uno su cento. Allora, la probabilità che una persona esterna, che si trovi a passare vicino alla centrale, possa incontrare le emissioni radioattive è pari a 1 su 1 000 000 per reattore all’anno.

Proseguendo in modo grossolano lungo questo percorso, diciamo che la probabilità che la dose delle radiazioni assorbite possa produrre la morte del passante è stimata in meno di 1 su 10, per cui la probabilità totale che un incidente di fusione del nocciolo possa causare la morte di un passante è stimata in un valore più basso di 1 su 10 milioni per reattore all’anno.

A questo punto si compie un passaggio logico, considerato come corretto e consequenziale, mentre non lo è affatto: si effettua il confronto del dato ottenuto con quello della probabilità di morte per l’accadimento dei più importanti sinistri con i quali siamo abituati a convivere. Questa operazione comparativa contiene l’assunto implicito, non dichiarato, che i numeri siano omogenei. Come tutti sanno fin dalle elementari, le patate si confrontano con le patate e le mele con le mele. Come vedremo meglio in seguito, in questo caso il dato di probabilità dell’evento nucleare non è omogeneo con quello degli incidenti convenzionali e quindi non ha senso effettuare il confronto.
Fatta questa puntualizzazione, vediamo come procede il discorso. In genere è riprodotta la seguente tabella, i cui dati sono stati stimati per gli abitanti degli USA e che, pertanto, vanno considerati soprattutto come indicativi dell’ordine di grandezza (Fonte: Mazzini M., 2001, Corso di Sicurezza ed Analisi di Rischio, Università di Pisa: www.dimnp.unipi.it/m.carcassi/materialedidattico/RISCHIO_VERS_2.pdf

Rischio individuale di morte per anno
Rischio di morte persone adulte Probabilità per anno
Mortalità generale 6 * 10-3
Cancro 2 * 10-3
Incidenti totali 5 * 10-4
Incidenti d’auto 2 * 10-4
Incidenti d’aereo 5 * 10-5
Folgorazione 6 * 10-6
Uragani, fulmini, tornados, alluvioni, ecc 1 * 10-6
Incidenti nucleari 5 * 10-7

Il gioco è fatto: morire per incidente nucleare è cento volte meno probabile che morire in un incidente aereo e 400 volte inferiore al rischio di crepare per un banale incidente d’auto. Il rischio di morte per incidenti totali, (sinistri automobilistici, ferroviari, cadute, scoppi di gas, incendi, ecc.), è 1000 volte più alto del rischio nucleare.
La conclusione è che, siccome accettiamo tranquillamente tutti i giorni il grande rischio di morire in un incidente d’auto, dobbiamo molto più tranquillamente accettare il debolissimo rischio, praticamente inesistente, di passare a miglior vita per un incidente nucleare. Tra la miriade di rischi di morte che affrontiamo tutti i giorni della nostra vita, quello nucleare è assolutamente il meno preoccupante perché è di gran lunga il più piccolo.
Il significato quantitativo dei dati dimostra come sia del tutto irrazionale considerare il rischio nucleare come il più pericoloso.

Il rischio percepito

Queste considerazioni, tranquillizzanti, sono state fatte più volte nel corso della storia del nucleare, sia in occasione dell’incidente di Three Mile Island, sia di quello di Chernobyl. Le stesse argomentazioni sono recentemente riapparse in relazione alla presentazione del nuovo programma nucleare italiano e sono state oggetto di discussione nella campagna per la raccolta delle firme del referendum abrogativo previsto per giugno prossimo. La nuova, drammatica situazione conseguente all’incidente di Fukushima dell’11 marzo ha improvvisamente reso anacronistiche e stonate le argomentazioni filonucleari e, per qualche tempo, il dibattito si è sopito.
Dall’11 marzo sono passati quasi due mesi ed ancora sono in corso in loco le attività per bloccare il rilascio dei prodotti radioattivi, che continuano ad uscire dai reattori danneggiati. Siamo quindi ancora in piena emergenza e, tuttavia, qualche epigono del nucleare ha già ricominciato a proporre testardamente le solite considerazioni rassicuranti basate sui dati del bassissimo rischio numerico.

Ma allora, se è vero che il rischio è praticamente inesistente come ci dicono i numeri, perché il nucleare genera questa irrazionale paura?
Ci deve essere qualcosa che i numeri non dicono, qualcosa che gli analisti non sono riusciti a quantificare nei numeri, o che forse non è esprimibile numericamente. Deve essere qualcosa che attiene alla sfera emotiva ed intuitiva degli individui, a quelle preziose qualità istintive, non sempre razionalizzabili, che ci hanno guidato attraverso i numerosi pericoli naturali che abbiamo dovuto affrontare nel nostro percorso evolutivo. L’uomo ha imparato a convivere con il rischio di morte che gli proviene dalle numerose attività perché ne percepisce e ne comprende la natura e le conseguenze. Ad esempio, chi vive in prossimità di un deposito di combustibile sa che può capitare un incendio e perfino un’esplosione, le cui conseguenze possono coinvolgerlo. Sa che ci possono essere danni immediati alle cose ed alle persone, anche con numerosi decessi. L’incidente può durare qualche giorno e può impegnare grandi risorse per contrastarlo, ma dopo un periodo relativamente breve tutto torna sotto controllo. Si fa l’inventario dei danni e dei feriti, si esprime la pietas solidale per i morti e si inizia a ricostruire, cancellando i segni del dramma accaduto. A distanza di qualche anno, solo chi ha vissuto in prima persona l’evento ne ricorda i dettagli e ne riconosce qualche segno residuo nel territorio. Per gli altri tutto è come prima.
Per il nucleare non è così. Pensiamo, ad esempio, all’aprile del 1986, a Chernobyl. I morti immediati sono stati sepolti ed ormai sono trascorsi 25 anni. Ma i segni della catastrofe sono ancora ben presenti, sia nel perimetro della centrale e nelle ampie zone limitrofe divenute inaccessibili, sia nelle migliaia di persone oggi adulte che lottano con i danni fisici provocati dalla dose di radiazioni allora assorbita.

A volerli cercare, i segni dell’incidente sono ancora presenti anche in Italia, soprattutto nelle zone del Nord Est, investite dal margine della nuvola radioattiva. Chi ha buona memoria ricorderà che fu rilevata la presenza di iodio e cesio perfino nelle verdure coltivate nella campagna romana (tutta la produzione ’86 dei carciofi di Ladispoli fu buttata per protesta in mezzo all’Aurelia, causando difficoltà al traffico per giorni). Proviamo allora a chiederci che fine hanno fatto questi radionuclidi cosparsi nei campi ed assorbiti nel terreno. Lo iodio, che ha un tempo di dimezzamento di circa una settimana, è ormai praticamente scomparso e non desta preoccupazione. Il cesio invece ha un tempo di dimezzamento di 30 anni ed essendone trascorsi solo 25, anche se in misura ridotta, è ancora ben presente nel terreno e quindi nel ciclo vegetale ed animale.

La conclusione è che l’incidente nucleare di Chernobyl è ancora attuale e presente anche da noi e non può essere messo alle spalle come un qualsiasi altro disastro avvenuto lontano. Allo stesso modo, il disastro di Fukushima continuerà a far sentire le sue conseguenze nell’ambiente complessivo ancora per decine di anni, indipendentemente dalla volontà di sottovalutarlo o ignorarlo.

Sta proprio qui la differenza fondamentale tra gli incidenti convenzionali e quelli nucleari. Sta nella differente natura del rischio, nella sua qualità specifica di estendersi sia nella dimensione spaziale, sia in quella temporale, aspetti che nessuna valutazione probabilistica è in grado di quantificare, ma che le nostre ancestrali facoltà intuitive sanno perfettamente percepire ed associare al “rassicurante” valore numerico.
Uno può pure continuare a dire che la probabilità dell’incidente di fusione del nocciolo è piccolissima: una su diecimila. Però l’evento è già accaduto almeno tre volte e, quando accade, la natura dei danni non è affatto convenzionale, perché le conseguenze sull’ambiente e sulla salute si trascinano per generazioni. E’ questo che determina la percezione del rischio in modo amplificato rispetto alla semplice valutazione probabilistica ed è questo aspetto intuitivo, non secondario, che dovrebbe essere preso seriamente in considerazione da chi propone la tecnologia nucleare come soluzione dei problemi energetici.