#AntinucléairesVSclimat : « Le nucléaire, c’est trop cher ! »

Thread initial par @AStrochnis :

Les passages en italique sont les retranscriptions exactes des propos de l’auteur de ce thread. Les passages en caractères romans sont mes propres ajouts et commentaires, dont je vais minimiser le nombre pour ne pas dénaturer le propos initial.

Il y a eu un erratum suite à certains propos erronés de ce thread, je le joins également en fin de billet.

Et moi, je vais m’intéresser d’abord à cette fiche-ci. J’ai déjà commencé hier avec le petit encart en haut à gauche.

En substance, le chiffre en lui même n’est pas complètement faux, mais il faut aller voir plus loin et lire l’étude en entier. Même avec ces surcoûts, le kW installé nucléaire est moins cher que le kW installé éolien et beaucoup moins cher que le kW installé photovoltaïque.
Et encore, on ne parle que de kW installé, c’est-à-dire qu’on ne parle pas de facteur de charge, ni même de renouvellement du parc. Je rappelle qu’une centrale nucléaire est prévue pour durer 60 ans (EPR) voire même 80 ans pour les centrales américaines.
L’éolien et le PV, c’est 20 ans. C’est-à-dire que les investissement, il faudra les réaliser 3 fois pour les ENR là où une seule fois sera suffisant pour le nucléaire.
Pour plus de détail, allez voir
⬇️⬇️

Maintenant intéressons nous au bas de l’infographie, dont les données sont tirées de l’étude Lazard 2017. Pour celles et ceux qui voudraient la voir, elle est disponible ici.

Il s’agit d’une étude réalisée par la banque Lazard sur les coût des différents modes de production d’électricité aux États-Unis, et uniquement aux États-Unis. La méthode est-elle applicable en France? À priori je dirai non, déjà pour une raison énoncée en page 3 de l’étude :

« Does not reflect decomissioning costs or potential economic impact of federal loan guarantees or other subsidies. Low and high end depicts an illustrative nuclear plant using the AP1000 design. »

Outre le fait que le démantèlement n’est pas compté (mais il ne l’est pour aucun moyen de production), le souci est que les réacteurs sont des AP1000, qui ne sont pas utilisés en France, et je ne suis pas sur que ces coûts soient utilisables tels quels. Mais ce n’est pas le pire.
En page 2, qui est le graphe représenté par 
@sdnfr, il est un petit incipit, qu’ils ont visiblement oublié de lire, et que je vous livre :

« Certain Alternative Energy generation technologies are cost-competitive with conventional generation technologies under some scenarios; such observation does not take into account potential social and environmental externalities (e.g., social costs of distributed generation, environmental consequences of certain conventional generation technologies, etc.), reliability or intermittency-related considerations (e.g., transmission and back-up generation costs associated with certain Alternative Energy technologies) »

Et oui, les jolis chiffres présentés par @sdnfr traduisent, une fois de plus, le coût d’énergie installée, et non réel. En prenant un facteur de charge de 23% pour l’éolien et de 70% pour le nucléaire, on passe à des fourchettes de 130 à 260 $/MWh pour l’éolien et 160 à 261 $/MWh pour le nucléaire. [Voir à ce sujet l’erratum en bas de page]

Je rappelle également que compte tenu des durées de vie, il faudra refaire certains investissement. Sur 60 ans par exemple, les investissement fixes (hors combustibles donc) seront faits une seule fois
[pour le nucléaire] contre trois fois pour le vent.
Ce qui donne donc un coût du MWh éolien trois fois plus cher que celui du nucléaire.

Je rappelle également que compte tenu des durées de vie, il faudra refaire certains investissement. Sur 60 ans par exemple, les investissement fixes (hors combustibles donc) seront faits une seule fois [pour le nucléaire] contre trois fois pour le vent.
Ce qui donne donc un coût du MWh éolien trois fois plus cher que celui du nucléaire.

Chers amis de @sdnfr, il va falloir apprendre à lire plus consciencieusement les études. J’espère que vous n’avez pas externalisé cette prestation, sinon vous vous êtes fait escroquer.

Dernier point, il est question également dans l’étude question d’émission de CO2 en comparaison avec des centrales à charbon (on rappelle qu’ils en prennent pas en compte l’intermittence). Ça me rappelle le rapport du GIEC sorti il y a deux jours, vous savez celui où divers mix électriques sont testés pour pouvoir contenir le réchauffement à 1,5 °C, dans lesquels certes les ENR croissent entre 40% et 70% par rapport à 2010, mais où également la part du nucléaire double voire quintuple. Une petite réaction @sdnfr?
Ou alors c’est comme pour le reste, vous faites du cherry picking sans vous soucier des hypothèses.

Ah oui, et concernant le graphe en haut à gauche de votre infographie, concernant les investissement.
C’est aussi de l’escroquerie intellectuelle.
L’investissement se fait parce qu’il y a un tarif de rachat garanti et un bénéfice garanti pour le client. C’est la subvention qui génère l’investissement. Arrêtez les subventions, et vous verrez qu’on investira beaucoup moins dans les ENR.

Et sinon, [dans le prochain thread/billet] je reviens vous parler d’une autre de leurs fiches, qui présente l’Allemagne comme LE modèle à suivre, et qui est aussi truffée de mensonges.
Bisou .

Erratum :

J’ai commis deux erreurs : concernant les facteurs de charge, et les coûts relatifs aux durées de vie.

Je pensais que Lazard avait travaillé sur la puissance installée. En fait non, les facteurs de charge utilisés étaient de 90% pour le nucléaire et 50% pour l’éolien. Pour l’actualisation, j’avais bêtement multiplié par trois les coûts éoliens car ne elles durent que 20 ans.

J’ai donc repris les données d’entrées de Lazard et appliqué à nos « spécificités françaises », sur les facteurs de charge et la durée de vie des installations. Mes nouvelles hypothèses sont donc les suivantes. Pour l’éolien, 23% et 20 ans. Le nuc, c’est 67% et 60 ans.

Pour le solaire, c’est 18% et 30 ans. A noter que Lazard avait initialement pris 40 ans pour la durée de vie d’une centrale. Pour les coûts, j’ai pris les chiffres des pages 18, 19 et 20 de l’analyse Lazard.

Total Capital cost pour l’investissement , fixed et variable O&M pour les coûts d’exploitation, et les coûts de combustible pour le nuc. J’ai aussi pris pour hypothèse, comme Lazard (page 17), que les coûts d’exploitation augmentaient de 2,25% chaque année (O&M escalation rate).

Je n’ai pris que ces données-ci pour calculer un coût total durant l’exploitation du parc et ramené à un coût moyen par MWh. Je tiens également à disposition mes fichiers excel si besoin.
[Contactez @Astrochnis sur Twitter pour ça]

Il s’agit donc de calculs hors coûts de réseau, de démantèlement et de gestion d’intermittence. Je n’ai pas regardé, dans un premier temps, les coûts de remplacements des parcs. Et il s’agit uniquement de déterminer les coûts bruts des différentes filières, pas de prendre en compte la fiscalité ou le financement.

Voici le premier résultat auquel je suis arrivé. Le nucléaire reste donc légèrement plus cher que l’éolien, dont acte. Et le solaire beaucoup moins cher.

Les écarts de ces résultats par rapport à l’étude initiale sont principalement dues aux variations de facteurs de charge, qui augmente substantiellement le coût de l’éolien. La baisse du coût du nucléaire vient de la durée de vie.

L’hypothèse américaine était d’une exploitation de 40 ans, j’ai pris 60.
Mais j’avais quand même l’impression de comparer des choux et des carottes du fait que les parcs avaient des durées de vie différentes. J’ai donc voulu calculer les coûts des remplacements des parcs en formulant plusieurs hypothèses : les coûts O&M continuent d’augmenter au rythme de 2,25% par an, et les besoins en investissement pour réinstaller les parcs sont les mêmes. C’est-à-dire que si à l’instant T on a besoin de 1000$ pour installer une éolienne,dans 20 ans on aura aussi besoin de 1000$.

Les facteurs de charges sont pris inchangés (hypothèse discutable, mais je n’ai pas d’infos sur ce qu’ils pourraient être dans 20 ou 40 ans). Et j’ai pris deux scénarios : les investissements nécessaires sont provisionnés ou pas. Provisionnés, cela signifie que les capitaux nécessaires aux remplacement existent dès le début du projet, mais sont placés de manières à être utilisés dans 20, 30 ou 40 ans. Pour les taux d’actualisation, je me suis basé sur la Banque de France.

J’ai donc pris la moyenne arithmétique des valeurs des TEC 20 et 30 ans sur les 12 derniers mois, soit 1,3% pour 20 ans et 1,66 pour 30 ans. Comme je n’ai pas trouvé de TEC 40 ans, j’ai pris arbitrairement 2%. Cela signifie en gros pour pour remplacer le parc éolien dans 20 ans, j’aurai besoin d’une somme entre 1200 et 1600 $/kWh, et que ça revient à disposer aujourd’hui de sommes entre 926 et 1273 $/kWh…

Et j’ai appliqué ces formules pour le renouvellement du parc solaire au bout de 30 ans, et deux renouvellement de parc éolien à 20 et 40 ans. Et voici le résultat :

Et j’ai aussi fait la même chose si les réinvestissements n’étaient pas provisionnés, dès le début.

Donc en synthèse, si on tient compte des remplacement de parc pour maintenir la production électrique, le nucléaire et l’éolien ont des coûts similaires, le solaire étant moins cher.
Et en conclusion, l’étude de 
@sdnfr reste quand même foireuse.

Au passage, dernier point sur cette étude de @sdnfr. Ils ont précisé que l’étude Lazard était applicable au reste du monde.
Seulement, le levelized cost of energy, tel que calculé par Lazard, dépend des taxes appliquées, et a pris pour hypothèse un amortissement sur 20 ans pour toutes les technologies (voir page 17 de l’étude). Donc non, ce n’est pas un modèle applicable en dehors des Etats-Unis.


#AntinucléairesVSclimat : « Le nucléaire est totalement hors délai », 2/2.

Première partie.

Thread initial :

On commence gentiment.

« Extraction de l’uranium, construction des centrales, gestion des déchets : la filière nucléaire émet aussi des gaz à effet de serre. »

D’une part, soyons clairs, personne ne prétend le contraire. Il suffit de voir la quantité de béton apparent d’une centrale nucléaire pour s’en douter.
D’ailleurs, dans le billet précédent, je parlais moi-même de remplacer du charbon par du « nucléaire à 50 grammes de CO2 par kilowattheure ».

Alors, le nucléaire émet des gaz à effet de serre, oui. Combien ? Là… Il y a deux grandes écoles : les antinucléaires ressortent régulièrement le nombre de 66 grammes d’équivalent CO2 par kilowattheure. Tandis que l’industrie française, mais aussi le GIEC, retiennent des Analyses de Cycle de Vie (ACV) à une dizaine de g/kWh. Entre 5 et 15, généralement 12 grammes.

Je vais aller chercher deux études pour cela. La première est celle systématiquement invoquée par les antinucléaires, celle de Sovacool et al. Et elle est accessible publiquement.
Cette étude, qui compile tout un tas d’études d’ACV du nucléaire dans le monde et en fait la moyenne (méthodologie discutable), aboutit donc à 66 g/kWh.
Mais c’est une pseudo-moyenne mondiale. Avec d’énormes disparités par pays. Je ne peux pas l’expliquer en détail, mais je peux l’illustrer par un exemple, l’enrichissement de l’uranium.
En France, jusque dans les années 2000 où l’on est passé à l’ultracentrifugation, l’enrichissement de l’uranium se faisait par un procédé que l’on appelle la « diffusion gazeuse ». On faisait ça à l’usine Eurodif, au Tricastin.

D’ailleurs, les tours aéroréfrigérantes que l’on voit surplomber la centrale du Tricastin depuis l’autoroute du soleil ou la LGV Sud-Est appartiennent à cette usine d’enrichissement, pas à la centrale nucléaire.

Notez, sur la photo précédente, la cheminée sur la gauche des tours aéroréfrigérantes. Cette cheminée et une ou les deux tours sont très souvent utilisés pour illustrer des centrales nucléaires, dans la presse française. Alors que l’on parle de deux des très rares tours aéro existantes en France qui ne soient pas rattachées à une centrale nucléaire ^^ ».

Une particularité de la diffusion gazeuse est qu’elles est EXTRÊMEMENT consommatrice d’énergie. Eurodif, qui produisait de l’uranium enrichi pour une centaine de réacteurs nucléaires en France et en Europe consommait à elle seule la production électrique de deux à trois des réacteurs du Tricastin, adjacents. Environ 2500-3000 MW pour l’usine d’enrichissement seule (depuis, avec l’ultracentrifugation, on est redescendus à 50-60 MW). 
Heureusement, 2500-3000 MW d’électricité nucléaire bas-carbone.

Mais dans un pays qui ferait de l’enrichissement avec de l’électricité majoritairement fossile (au hasard : USA, Russie, Pays-Bas, probablement aussi la Corée du Sud, le Royaume-Uni…), cet enrichissement serait fort émetteur de CO2.

Voilà un exemple qui illustre une possible explication des divergences dans les études.

Mais dans l’étude de Sovacool, qui s’intéresse au monde entier, est citée une étude s’intéressant au cas français (tableau 4 : Dones et al, 2003), et les valeurs d’intensité CO2 retenue par cette étude… cohérentes avec les 5 à 15 grammes par kWh défendus par l’industrie française ou retenus par le GIEC.
Valeurs qui montrent que le nucléaire peut être extrêmement bas-carbone.

Je signale que là, je conclus ce point en m’appuyant sur la source de référence des anti-nucléaires. Encore une fois, en analysant leurs arguments, ils se retournent contre eux…

Maintenant, une autre source que j’adore, une étude qui étudie l’impact environnemental (pas uniquement climatique) du cycle du nucléaire français.
Et elle aussi est accessible au public, bordel ! 😀

Cette étude, je lui consacrerai un thread et un billet dédiés, tant elle est géniale.

À noter qu’en raison de son âge (2014) et les dernières données auxquelles les auteurs ont eu accès, cette étude considère le cycle du nucléaire avec l’enrichissement par diffusion gazeuse.
Et elle aboutit à une valeur de 5.3 g/kWh, dont 1,7 grammes pour les mines, 0,6 pour l’enrichissement, 2,1 pour la (dé)construction des réacteurs, 0,4 pour le retraitement, et 0,1 pour la gestion des déchets.

Maintenant, petit rappel honnête : extraction des métaux (acier, aluminium, cuivre, métaux rares…), construction des centrales, gestion des déchets : toutes les filières énergétiques y ont recours, et donc émettent des gaz à effet de serre.
Rien n’égale les énergies fossiles, évidemment, mais l’éolien s’en retrouve au même niveau que le nucléaire (le GIEC retient 12 g/kWh). L’hydraulique aussi, parfois plus haut selon les sources.
Le photovoltaïque est quelque part entre 30 et 60 g/kWh. La biomasse, selon les cas, entre très bas et quelques centaines de grammes de CO2 par kWh.

Bien sûr, pour l’éolien et le solaire, on parle de production hors gestion de l’intermittence. Si l’intermittence est comblée par des batteries ou des centrales à gaz, il faut reconsidérer ces valeurs.

Bon. Maintenant qu’est atomisé le sophisme de la solution parfaite (non sourcé dans l’infographie, btw) sur les gaz à effet de serre du nucléaire, passons à la suite.

-6% d’électricité nucléaire produite dans le monde entre 2006 et 2017.

Let’s see.
Pourquoi 2006, pour commencer ?
Parce que c’est le maximum historique. Donc c’est ce qui permet de tirer le plus gros chiffre. En prenant 2005, on serait à -5%. Avec 2007, on serait à -4%.

Lien direct

Si on prend 2000 comme référence comme pour les données en haut à gauche de leur infographie, on est à +2%. Si on prend 2012, pour regarder l’évolution depuis l’après Fukushima-Daiichi, +7%.
Donc primo, le chiffre en lui-même ne vaut rien.

Deuxièmement, il faut regarder les causes de cette baisse. On va rester sur le référentiel 2006-2017, puisque c’est 2006 le maximum historique de production nucléaire mondial.
La variation, en valeur absolue, sur l’intervalle, elle est de -168 TWh. Qui fait baisser la tendance ?

Fukushima. Avant tout, Fukushima. 
La catastrophe de Fukushima-Daiichi a eu comme dommage collatéral de faire baisser la production nucléaire de 275 TWh au Japon et 91 TWh en Allemagne entre 2006 et 2017. Les seules autres baisses notables c’est Taiwan, avec -17 TWh (essentiellement à cause d’une mauvaise année 2017) et la France, -52 TWh, en raison d’une performance record du parc en 2005-2006 et peu glorieuse en 2016-2017.

Donc finalement, sans Fukushima qui a définitivement arrêté la moitié du parc japonais et temporairement arrêté l’autre moitié, et qui a donné un prétexte à l’Allemagne pour arrêter la moitié de son parc, l’autre moitié étant à suivre… Le nucléaire aurait progressé.

Fukushima n’a pas été une bonne chose pour l’industrie nucléaire mondiale, c’est un fait. Mais c’est un écueil dans une tendance positive, que ne reflète pas le chiffre avancé par le Réseau Sortir du Nucléaire

Il nous reste enfin à voir ce joli graphique intitulé :

« La part du nucléaire dans la production mondiale d’électricité n’a cessé de chuter »

Bon, on va balayer très vite le chiffre sur la part du nucléaire dans l’ÉNERGIE consommée.
Le nucléaire est un moyen de production électrique. Le comparer à toute l’énergie, donc au pétrole des transports, au gaz du chauffage, etc… C’est biaisé.
En plus, c’est s’exposer à un violent retour de flamme, puisque si le nucléaire représente, en 2017, 4,4% de l’énergie primaire consommée dans le monde, 596 Mtep sur 13511 Mtep d’après la banque de donnée BP (et non pas « moins de 2% », hou le mensonge…), l’hydroélectrique en représente 6,8%, à peine davantage. Et tous les autres renouvelables réunis représentent… 3,6%.

Donc si la conclusion sous-entendue par le Réseau Sortir du Nucléaire est « le nucléaire est négligeable », solaire et éolien le sont amplement davantage.

Donc le message, c’est quoi ?
« Rien ne peut faire face aux fossiles, abandonnons la lutte contre le dérèglement climatique ! » ?

Fail.

Ou soutien caché au charbon ou au gaz, allez savoir ? ¯\_(ツ)_/¯

Maintenant, si l’on se compare non plus à toute l’énergie mais par rapport à la production électrique…
Les chiffres du réseau SDN sont bons, cette fois, c’est déjà ça. Un max à 17,5% en 1996, pour moi, et 10,3% en 2017.

Mais dans l’absolu, la production nucléaire, elle a augmenté : 2407 TWh en 1996, 2635 TWh en 2017.

Tout simplement, elle a augmenté moins vite que la consommation électrique. Donc sa part baisse.
Évidemment, l’essor de la Chine, entre temps, y est pour beaucoup. Très beaucoup. Entre 1996 et 2017, la consommation électrique mondiale a augmenté de 11800 TWh. Dont 5400 rien que pour la Chine ! Et 1100 TWh pour l’Inde.

Conclusion logique ? On y revient : le nucléaire ne se développe pas assez vite (ah bon ?).

Et si l’on pense climat… Il faut donc développer le nucléaire beaucoup plus vite.
Merci @sdnfr pour votre bêtise qui soutient l’accélération du nucléaire ! ♥

#AntinucléairesVSclimat

Le Réseau Sortir du Nucléaire, regroupement d’associations et ONG professionnalisées ou non dans le militantismes antinucléaire, a renouvelé fin 2018 sa campagne « Le nucléaire ne sauvera pas le climat », visant à nier l’intérêt de l’énergie nucléaire dans la lutte contre le dérèglement climatique.

À l’appui de cette campagne, une infographie prétendant présenter un argumentaire derrière le slogan.

Une infographie à la rigueur scientifique plus que discutable que j’ai entrepris, épaulé de Twittos bien informés, de « débunker ».

Cela a été réalisé sur Twitter au travers de neuf threads, à raison d’un à deux par page de l’infographie. Tous ces threads sont regroupés dans le thread suivant.

Je vais entreprendre de les retranscrire sur ce blog, et tous seront indexés sur cette page, afin de ne pas alourdir le sommaire sur la page d’accueil avec 9 billets sur un même sujet.

Et on commence tout de suite.

« Le nucléaire est totalement hors délai », 1/2.

« Le nucléaire est totalement hors délai », 2/2.

« Le nucléaire, c’est trop cher ! »

« Nucléaire : inadapté à un climat dégradé ».

« Face au danger climatique, multiplier les dangers nucléaires ? », 1/2.

« Face au danger climatique, multiplier les dangers nucléaires ? », 2/2.

« Économies d’énergie + renouvelables = nucléaire arrêté + climat protégé ».

« Transition énergétique : l’Allemagne montre la voie ! »

#AntinucléairesVSclimat : « Le nucléaire est totalement hors délai », 1/2.

Thread initial :

On commence fort.

« En moyenne, 10 ans pour construire un réacteur ».

Là, j’ai deux options.

La première, c’est de faire l’idiot, et abuser de leur manque de contexte. Dans ce cas, je regarde différents parcs nucléaires mondiaux.
Exemple au hasard, le parc nucléaire français : le temps entre le lancement de la construction et la divergence du cœur, il est en moyenne de… 6,3 ans, d’après la base de donnée de l’AIEA. Et même de 6,0 ans si j’exclus les réacteurs de 1450 MW qui ont été plus problématiques.
On pourrait de telle sorte regarder des tas de pays qui ont eu des programmes nucléaires ambitieux : construire des réacteurs en plus de dix ans, c’est l’exception, pas la règle.

L’autre option, c’est d’être de bonne foi et supposer qu’ils ont oublié de préciser qu’ils parlent des réacteurs de 3è génération. Mais… Ça serait une approche illogique.
En effet, cela consisterait alors en une comparaison sur un échantillon réduit (une poignée de réacteurs en service) de têtes de série non représentatives.
Est-ce qu’on parle des performances de l’éolien sur la base du prototype de Smith-Putnam, aujourd’hui ?

Ou, plus sérieusement, pour comparer des sauts de générations à d’autres, est-ce qu’on juge l’éolien sous le seul spectre des balbutiements hors de prix de l’éolien offshore ?

https://www.usinenouvelle.com/article/les-industriels-de-l-offshore-eolien-rassures-les-six-projets-verront-bien-le-jour.N709819

Donc non, un réacteur d’une filière mature, ça ne se construit pas en dix ans en moyenne. Un peu plus de 5 ans, 6 à 7 disons. Au bénéfice d’un peu plus d’1 GW de production qui se révèle, si ce n’est toujours pilotable, constante, aux arrêts pour maintenance près.
Et si l’EPR, puisqu’il est donné en exemple, ne parvient à réduire ses délais et coûts à des niveaux raisonnables… Il perdra le marché, tout simplement, au profit des chinois, russes, coréens, américains. Les réacteurs actuels ou futurs.
Parce que la vision centrée sur la France et les difficultés de l’EPR n’est pas fidèle à ce qui se fait ailleurs dans le monde, avec un marché actif de 55 réacteurs en construction en Russie, Turquie, Brésil, Émirats Arabes Unis, Argentine, Chine, France, Inde, Pakistan, Ukraine, Taiwan, Slovaquie, Japon, Finlande, Biélorussie, Bangladesh, Corée du Sud, États-Unis.

Passons à la suite.

9% d’émissions de GES évitées en mettant un réacteur en service un réacteur tous les 15 jours, ce qui serait impossible ?

Les comparaisons sont foireuses : le nucléaire n’a pas vocation a être la solution unique alternative à toutes les formes d’énergies fossiles, mais surtout dans la production électrique. Et il n’est pas déployable dans le monde entier comme solution unique…

Alors jugeons-le non pas sur des extrapolations absurdes d’hypothèses infondées, mais sur ce qui a été, et ce qui peut être projeté à l’avenir.

Le record historique du nucléaire, c’est une augmentation de la production de 600 kWh/hab/an, en moyenne sur 10 ans. En Suède.

Donc là, on est certes dans de la haute performance, mais réaliste. 
Et l’on va évidemment considérer que le nucléaire vient à la place de production au charbon, car ça sera dans le futur notre objectif prioritaire.
On remplacerait donc 600 kWh/an/hab de charbon à ~850 gCO2/kWh par du nucléaire à ~50 g/kWh en comptant large. Gain de 800 grammes de CO2 par kWh nucléaire produit.
Et l’on parle d’une production en hausse de 600 kWh par an et par personne. Donc des émissions annuelles de CO2 par habitant qui baisseraient de 480 kg, et ce chaque année pendant 10 ans en moyenne.

Arrondissons à 500.

La moyenne de l’Union Européenne, elle est à 8700 kg de CO2 émis en 2017 par habitant. Qui refuserait de baisser ses émissions à 8200 kg en 2018 ? 7300 kg en 2019 ? Sous les 5 tonnes en 2025 ? C’est possible, en développant le nucléaire comme le fit autrefois la Suède.

C’est trop lent pour suffire. Mais c’est loin d’être négligeable. Le nucléaire n’est pas la solution, personne ne dira le contraire ; mais il en fait partie.

Quelques éléments de réflexion supplémentaires, sur ce sujet, dans ce précédent billet.

On passe à la suite.

Cinquante fois plus de capacités solaires et éoliennes auraient été installées dans le monde que de nucléaire, depuis 2000

Bon, je ne vais pas vous faire l’affront de vous expliquer la notion de facteur de charge, vous savez qu’aucun moyen de production ne produit 100% du temps à sa valeur nominale.

Avec 400 GW de nucléaire en service (en comptant les réacteurs japonais dont on attend le redémarrage) pour une production de 2500 TWh/an, on a un facteur de charge moyen de 71% – plombé, particulièrement, par le Japon.
Pour l’éolien, on parle, en 2017, d’une production de 1100 TWh pour un parc de 515 GW. Pour le solaire, 440 TWh pour 400 GW installés. Donc des facteurs de charge respectifs de 24% et 13%. C’marrant, ce sont exactement les mêmes valeurs que la France ^^ »

Donc si on raisonne en production moyenne et non plus nominale (ou « puissance crête »), les +35 GW de nucléaire, +399 GW de solaire, +497 GW d’éoliens mentionnés produisent respectivement l’équivalent de +25 GW, +52 GW et +119 GW.
Damned, c’est déjà beaucoup moins impressionnant.

Je vous rappelle que je fais une erreur grave, je suis désolé, je compare des choses pas comparable : la production nucléaire n’est pas intermittente comme le solaire ou l’éolien, elle…
Mais j’essaye d’expliquer simplement. Et, de toute façon, mon erreur est en défaveur du nucléaire, donc je me l’autorise.

Pour affiner sur l’intermittence, j’ai déjà abondé sur ce sujet ici et .

En prenant en compte le facteur de charge, on a réduit l’asymétrie, mais l’éolien colle toujours presque un facteur 6 au nucléaire !
Sauf que… Jetons un œil à une autre page de l’infographie, traitée par @astrochnis dans le thread ci-dessous…

Celle-ci nous apprend que le solaire et l’éolien auraient, pour afficher un tel développement, bénéficié d’investissements 20x supérieurs à ceux dans le nucléaire.

Donc.

Donc il est manifestement plus coûteux, d’après les données du Réseau Sortir du Nucléaire d’investir dans l’éolien et le solaire que dans le nucléaire.
À production égale. Et à plus grand service rendu pour le nucléaire (l’intermittence, tout ça…).


Bon, bah concluons simplement par… Oups ! ^_ ^

La suite de cette première page de cette infographie dans le billet suivant.
Moi, je m’en vais savourer cette fin où le pseudo-argumentaire des antinucléaires se retourne 🙃 contre eux quand on l’analyse intelligemment 😘


De la suffisance des réserves mondiales d’uranium

Ce billet est issu d’un thread rédigé en réponse à une question posée sur Twitter. Vous pouvez retrouver la question et le thread à ce lien ou ci-dessous.

La raison pour laquelle on peut tout entendre… C’est que ça dépend d’un paquet de paramètres.
Aux conditions actuelles d’extraction, d’enrichissement, d’utilisation, de recyclage, et compte tenu des réserves connues, ouais, environ 100 ans à consommation à peu près constante.
Mais y’a des variables d’ajustement à tous les niveaux du cycle du combustible :

  • extraction
  • enrichissement
  • consommation
  • recyclage

Ce qui limite ces ajustements, c’est un peu la technique, beaucoup l’économie : aujourd’hui, l’uranium coûte une misère, donc 0 effort pour l’économiser. On n’exploite que les gisements les plus riches, on enrichit sans forcer, on consomme sans optimiser, on recycle à peine.

Ce qui permettrait ces ajustements, ce serait un coût de l’uranium plus élevé… Justement quand il commencera à se faire un peu plus rare. Comme le pétrole où les gisements étaient plus nombreux au fur et à mesure que les prix sont montés. Comme toute ressource naturelle de stock, en fait (hydrocarbures, métaux…).

Et ce qui est cool avec le nucléaire, c’est que l’uranium c’est quelque chose comme 1-2% du prix du kWh payé par l’usager, en France en tout cas. De l’ordre de 0,15 centimes sur les 15 centimes que coûte un kWh.

On pourrait proposer un petit calcul d’ordre de grandeur pour le constater. La production électronucléaire française nominale est de 420 TWh pour 8000 tonnes « métal lourd » d’uranium naturel, soit 9400 tonnes d’octaoxyde de triuranium, la forme sous laquelle il s’échange sur les marchés.
Son prix
oscille actuellement autour de 35 US$/lb, soit 67 €/kg.
Cela nous conduit à 630 millions d’euros d’uranium, pour 420 millions de mégawattheures produits, donc un prix de l’uranium de 1,5 €/MWh, ou 0,15 centimes par kWh.

Donc même une augmentation d’un facteur 10 sur le coût de l’uranium, ça va augmenter le kWh d’un centime et demi sur plusieurs décennies, c’est négligeable.
Si les conditions économiques permettent d’envisager des paramètres d’ajustement du ratio consommation/stock d’uranium, quels sont-ils ?

Liste non exhaustive.

Exploitation de l’uranium naturel

  • 1) Exploiter des gisements moins riches. Très simple, faut juste vérifier que ça reste rentable.
  • 2) Exploiter des « gisements secondaires » : cendres de charbon, résidus miniers de d’autres industries minières… Même chose, rien de sorcier, juste une question de rentabilité.

Ces deux options permettent de gagner pas mal de ressources, sans changer les ordres de grandeur, je pense, mais sans être très chères.

  • 3) Exploiter l’uranium marin.

Là, on est sur une idée un peu folle, compliquée techniquement (et donc chère) à mettre en œuvre, mais extraire l’uranium naturellement dissout dans l’eau de mer multiplierait les réserves par… Beaucoup. Plus d’info dans le thread ci-dessous.

  • 4) Récupérer l’uranium hautement enrichi ou le plutonium des armes nucléaires. Ça s’est déjà fait, aucune difficulté technique ni économique, faut juste avoir des pays qui se désarment ^^

Enrichissement

  • 5) Il faut enrichir plus… En France, quand on enrichit l’uranium, on fait 1 tonne d’enrichi à 3-4% et 7 tonnes d’appauvri à 0,3% à partir de 8 tonnes de naturel à 0,7%.
    Si on poussait l’enrichissement pour réduire la teneur dans l’appauvri à 0,2%, voir 0,1%, alors on économiserait de l’uranium naturel, à production d’uranium enrichi égale.
    Mais enrichir coûte cher, et l’uranium naturel, aujourd’hui, ne coûte rien. On se fatigue pas, donc.
    Mais puisque l’appauvri n’est pas perdu mais sagement entreposé chez nous, on pourrait toujours ultérieurement en tirer encore un peu d’enrichi si le besoin le justifiait, pas de problème, c’est pensé pour.

Utilisation en réacteurs

  • 6) On peut tirer, en fonction du taux d’enrichissement, de sa fabrication, de son mode d’utilisation, plus ou moins d’énergie d’une tonne de combustible nucléaire. Là encore, question d’équilibre économique entre faire l’effort ou gâcher de l’U qui coûte rien.
    Et ce n’est pas marginal, parce qu’en augmentant un peu l’enrichissement (de 3.5% à 4.5%), on arrive à quasiment doubler la quantité d’énergie qu’on peut tirer d’une tonne de combustible. Toutefois, ça induit de multiples contraintes, sur la gestion du cœur et sur le retraitement. Rien d’insurmontable, ça s’est même déjà fait, mais ça coûte.

Retraitement-Recyclage

  • 7) Actuellement, en France, produit un peu plus de 10% de notre électricité nucléaire avec du combustible recyclé, avec le MOx (récupération du plutonium et de l’uranium du combustible usé et fabrication de combustible neuf avec).
    D’une part, on pourrait pousser ce concept plus loin, parce qu’aujourd’hui on ne récupère qu’une partie de l’uranium usé pour l’associer au plutonium, mais on pourrait aussi récupérer le reste et le ré-enrichir. C’est le projet d’EDF, de manière à monter à 25% de production à base de combustible recyclé d’ici l’horizon 2025.
    Pas de verrou technique, ça s’est déjà fait sur une centrale nucléaire avant d’être abandonné… Par raison économique.
    Par contre, le recyclage, même limité, est loin d’être généralisé au monde entier. Donc y’a un moyen de pousser plus loin le recyclage à échelle mondiale et donc d’économiser considérablement de la ressource en uranium.

Bon, jusqu’à présent, à part pour l’uranium marin, j’ai évoqué des solutions assez modestes et qui jouent marginalement sur l’ordre de grandeur. Capable de multiplier les ressources par 2, 3 , peut-être, j’en sais rien… Mais on va finir GRAND.

  • 8) La FUCKING surgénération. Le plutonium, on le recycle qu’une fois. Avec des réacteurs surgénérateurs, déjà, on va pouvoir le recycler des tas de fois. Et, surtout, on va pouvoir en produire des quantités astronomiques.
    Juste à base d’uranium appauvri. On a notre cœur de réacteur surgénérateur, enrobé d’uranium appauvri qui va absorber les neutrons qui vont s’échapper du cœur. ET PAF. Neutron, uranium 238, bim, plutonium 239. Bon, c’pas si simple, mais le résultat est celui-là.
    Et du coup, en France, on se retrouverait à pouvoir alimenter un parc de surgénérateurs plusieurs millénaires, voire plusieurs dizaines de milliers d’années.
    Juste avec l’uranium appauvri qu’on a déjà en stock, purifié, entreposé, tout prêt. Sans avoir plus besoin d’extraire un gramme du sol (une fois le cycle lancé, ce qui nécessite une longue phase de transition tout de même).
    Et à l’échelle mondiale, c’est l’idée aussi. En ajoutant la surgénération basée non plus sur l’uranium, mais sur le thorium (+ abondant que l’U), c’est encore plus la fête du slip.

Bon, par contre, la surgéné, c’est compliqué – faisable, des réacteurs l’ont montré (Phénix…) et le montrent encore (BN-600, 800…) – mais compliqué. Et donc cher à terme, très cher aujourd’hui (car pas mature).
Un peu comme l’extraction de l’U marin. Mais du coup, le jour où les réserves d’uranium commencent à être un problème, on a 6 variables (à ma connaissance) d’ajustement pour se donner un peu de large…

Et se mettre sérieusement à bosser sur les 2 dernières variables qui, elles, ne donnent pas « un peu de large » mais des réserves… Illimitées, en fait, à l’échelle de notre civilisation.

Voilà mon petit panoramique. Basé sur mes souvenirs de cours du cycle du combustible et d’économie du nucléaire. J’prétends pas l’exactitude parfaite, notamment ce qui concerne l’extraction qui est hors de mon périmètre, mais l’essentiel y est, je crois !

La part du nucléaire est dérisoire…

…et ce dernier est donc inapte à jouer un rôle significatif dans la transition énergétique.

Vraiment ?

Le présent article est repris d’un thread publié sur Twitter, que vous pouvez retrouver à cette adresse et ci-dessous.

La réponse est très simple : aucun moyen de production peu émetteur de gaz a effet de serre n’est suffisant ou suffisamment rapide en l’état actuel.

Il faut plusieurs d’entre eux, plus vite qu’aujourd’hui, voire plus vite que jamais.
Et le nucléaire n’est pas significativement en retard sur ce qu’on appelle les énergies nouvelles. 

Et pour une fois, pas de long discours, mais des images qui parleront pour elles-mêmes.

Lien direct
Lien direct
Lien direct
Lien direct
Lien direct

Quelques données pour comprendre certains aspects de ces graphiques.

  • On n’y parle que de mix électrique, et non pas de mix énergétique. Car c’est sur l’électricité que nucléaire, hydraulique, et ENR (Énergies Nouvelles Renouvelables) peuvent aujourd’hui avoir un impact important.
  • On ne compare que les énergie bas-carbone entre elles, qui représentent environ 90% du mix électrique en France, 50% en Europe, 40% en Amérique du Nord et 30% en Asie-Pacifique et en moyenne mondiale. Les fossiles dominent encore largement (charbon en tête, suivi de gaz).
  • L catégorie « autres » est de très loin dominée par la biomasse, suivie de la géothermie, suivie d’un peu tout le reste à l’état de traces.

À l’échelle mondiale, la majorité du travail de « dé-carbonation » de l’électricité reste à faire, mais tous les moyens de production d’électricité bas-carbone sont susceptibles d’y participer à échelle mondiale, certains plus que d’autres en fonction des spécificités locales.

Et s’il fallait absolument retenir que certains sont trop insignifiants pour peser significativement, le nucléaire n’en fait pas partie.

Comment irradient les radiations ?

Ce billet est issu d’un thread publié sur Twitter, que vous pouvez trouver, avec davantage d’illustrations que je dirais… Métaphoriques, à ce lien ou ci-dessous.

Entre temps est sortie cette excellente vidéo sur la chaîne Youtube « Le Réveilleur » qui explique le phénomène de radioactivité. Je vous en conseille vivement le visionnage dès à présent.

Et, si elle n’est pas encore sortie au moment où j’écris ces lignes, est prévue ensuite une vidéo sur les effets sanitaires de l’exposition à la radioactivité, tenez vous informés 😉

À l’origine de ce thread, des propos que j’avais lus il y a quelques temps : une personne avait peur que les rayonnements qui sortiraient de Cigéo irradient tout le monde aux alentours.
Et là, j’ai bien du admettre que la radioactivité est un concept pour certains fort obscur.

La radioactivité, c’est le phénomène de transformation d’un atome instable en un autre atome, stable ou non. Cette transformation s’accompagne, pour des raisons de conservation de la masse et de l’énergie (rien ne se perd, rien ne se créé, tout ça tout ça ) d’une émission d’une particule.

Une particule de matière, et, parfois aussi, d’un photon (une onde électromagnétique, comme le sont la lumière, les micro-ondes…) très haut en énergie : on parle là de rayons X (parfois) ou γ (lire gamma).

Il y a aussi des cas où des atomes « excités » (hauts en énergie) se désexcitent en émettant juste un photon γ .
On parle aussi de radioactivité, même s’il n’y a pas de changement de l’atome en un autre.

D’ailleurs, on est d’accord sur le fait que photon γ, rayon γ, même affaire ? Dualité onde/corpuscule, ça va ? Au cas où :

Du coup, la radioactivité, ce sont des atomes radioactifs, donc de la matière, qui émet des rayonnements ou des particules.

On a bien deux acteurs en jeu, c’est bon ?
L’émetteur (l’atome radioactif) et l’émission (les particules ou rayons). Bien avoir ça en tête.

Bon, et le souci de la radioactivité, c’est que les particules/ondes émises ont tendance à causer des lésions aux tissus organiques en cas de très forte exposition et, à des niveaux moindres, engendrer des mutations qui peuvent, dans certains cas, aboutir au développement de cancers.

Dans des cas d’expositions intenses, on ne parle non plus de possibilité de conduire à un cancer (effet stochastique) mais de dommages immédiats : brûlures d’abord, et autres joyeusetés plus ou moins affreuses ensuite (effet déterministe).

On reviendra sur les conséquences. Revenons d’abord sur le phénomène : la radioactivité émet des photons γ, certes, et… Des particules de matière ?

Yep. De trois types.

La radioactivité α (alpha), pour commencer : ce qui est émis, c’est un noyau d’atome d’hélium : un amas de deux neutrons, deux protons. 

C’est de la grosse particule, très massive, donc capable de causer des dommages considérables aux tissus humains.
La contrepartie, c’est que la particule étant grosse et chargée électriquement (deux protons → deux charges positives), elle est très facile à arrêter. Une feuille de papier la stoppe net. Les peaux mortes de l’épiderme, idem. Sans dommage.

Là où la radioactivité α devient problématique, c’est si elle est émise directement à l’intérieur du corps. Il faut donc avoir ingéré ou inhalé des particules qui émettent des rayonnements α, d’où l’importance de bien différencier émetteur/émission.

En cas d’absorption de particules radioactives, on parle alors de contamination interne.
Terriblement nocive avec les émetteurs α, alors que l’exposition externe (le fait de recevoir seulement des rayonnements depuis l’extérieur) est à peu près inoffensive.
Nuançons : les α, même en externe, ça peut être dangereux en cas d’exposition prolongée. Par exemple des dépôts de poussière radioactive sur la peau, sur les mains, etc. Mais si, comme la plupart des gens, vous vous lavez, l’exposition ne sera pas très prolongée.
Dans ce cas, on parle de contamination externe.

Là où ça devient drôle (non), c’est si vous portez des bijoux contenant des émetteurs α. L’uranium et le thorium, par exemple, sont des métaux que l’on trouve dans des minéraux naturels et sont, ça tombe bien, des émetteurs α !
Alors la vente de bijoux en contenant est censée être interdite, hein.
Mais avec internet… Bon.

Méfiez vous des « l’énergie des pierres ». Rappelez vous que naturel n’est pas synonyme de sain 😉

Bref, après cette parenthèse,, revenons à nos rayons.
Après les rayons α, X et γ, parlons des β- (prononcer « beta moins »). Ceux-là émettent des particules de petite taille : des électrons.
Plus pénétrants, du coup, que les rayons α, mais toujours chargés électriquement, donc facile à arrêter par quelque chose sensible aux charges électriques.
L’exemple type, c’est la feuille d’aluminium, qui arrête net un flux de particules β-.

Vous l’aurez deviné, s’il y a des β-, c’est qu’il y a vraisemblablement aussi des β+. Les émetteurs β+ sont rares, mais ils existent, et émettent des posit(r)ons, l’antiparticule de l’électron. Même masse, charge opposée. Et extrêmement simple à arrêté : la rencontre d’un positron et d’un électron (et ces derniers sont plus qu’abondant dans la matière) conduit à l’annihilation des deux. Donc le pouvoir pénétrant des β+ est quasiment nul… Mais au cours de l’annihilation sont émis des photons γ.

Ainsi, pour ce qui est des émetteurs α et β, pour peu qu’ils soient confinés, ils sont inoffensifs puisque ce qui confinera la matière, que ce soit une cuve, un conteneur, une gaine… Arrêtera aussi les rayonnements. Doublé gagnant.

Et l’on y revient alors aux rayons γ.
En général, ils accompagnent la décroissance des atomes radioactifs, hein, ils sont assez rarement le fruit d’une annihilation, quand on parle de radioactivité dans l’industrie nucléaire (c’est différent pour le médical).

Ce sont des photons. Donc en terme de taille ou masse, c’est nada.
Et ce sont des particules neutres électriquement. Donc là, pour les arrêter… Ben ça se complique.
La bonne nouvelle, c’est que si on peine à les arrêter avec de la matière, on peine aussi à les arrêter avec notre organisme, ils nous traversent donc en partie sans causer de dommage.

Mais le corollaire est que l’on y est sensible non seulement en cas de contamination mais aussi d’exposition externe.

Donc en général, pour atténuer (et non plus stopper) un flux de rayons γ, ce ne sont pas des feuilles de papier ou d’aluminium que l’on va solliciter, mais des centimètres de plomb, des décimètres de béton lourd, ou des mètres d’eau. C’est un poil plus galère, surtout pour équiper une personne.

Et la transition est toute trouvée pour embrayer sur la radioprotection : pour se protéger des rayonnements, dans le nucléaire, on a trois leviers.

L’un d’entre eux, ce sont les écrans, ce qu’on intercale entre l’émetteur et nous. Comme le plomb ou le béton que je mentionnais.

Un autre levier est… La distance. Et oui : plus on est loin de la source, plus l’intensité de ce qu’on recevra sera faible. D’une part à cause de l’absorption par le milieu ambiant, mais, surtout, à cause de la dispersion des rayonnements.
Pour la même raison que Mercure est davantage exposée aux rayonnements solaires que ne l’est la Terre.

Et le troisième levier… Le temps. Moins on s’expose longtemps, mieux c’est. Basique, simple, évident.

Ces trois leviers visent à respecter les trois grands principes de radioprotection. Ces derniers sont des piliers à garder en tête lors de toute possible exposition à des substances radioactives ou des radiations. 

Dans l’industrie, nucléaire ou non, mais aussi dans l’aviation, ou la médecine !

Le premier est la justification.

On n’expose pas d’individus sans justifier du bien-fondé de cette exposition. Impératif sanitaire, économique incontournable, etc. 
Si une exposition est évitable, elle est évitée.
Faire une radiographie de sa main juste pour reproduire celle d’Anna Röntgen, pour la beauté de l’Histoire, ce serait un viol de ce principe de justification.

Bien entendu, les cas litigieux abondent, ne serait-ce que l’aviation commerciale :
Stricto sensu, prendre l’avion et s’exposer aux rayonnements cosmiques alors que l’on pourrait prendre le train, c’est déjà litigieux vis-à-vis de ce principe. Donc la justification est à étudier avec de la jugeote, pas de manière dogmatique et infléchissable 😉
Et on illustre là une limite du principe de précaution, par ailleurs.

Deuxième principe de la radioprotection, la limitation.
Même si une exposition est justifiée, elle doit respecter certaines limites. En France, en 2019, pour les doses au corps entier :

  • 1 mSv d’exposition artificielle non-médicale pour le public.
  • 6 mSv pour les travailleurs du nucléaire (et autres) catégorisés B.
  • 20 mSv pour la catégorie A. 

Le tout, calculé à chaque fois sur une année glissante.
Pour vous donner des références d’ordres de grandeur, tout de même, l’exposition moyenne des français à la radioactivité, toutes origines confondues, est de 4,5 mSv/an, avec une énorme variabilité, comme le présente l’IRSN :

Et la valeur à laquelle on sait que le risque de cancer est accru (en-dessous, on ne sait pas trop, ça ne veut pas dire que le risque existe ou non), c’est 100 mSv.

Les dommages déterministes, ils se manifestent à l’approche de 1000 mSv.
Ah, oui, et ça se lit « millisieverts », au fait 😅

C’est la mesure de la dose de radioactivité, qui intègre le type de rayonnement, le mode d’exposition, mais aussi des paramètres biochimiques.

Et le troisième principe de la radioprotection, c’est l’optimisation.

Si l’on a justifié l’exposition, qu’on respecte les limites légales, on doit quand même montrer que l’on fait au mieux pour réduire l’exposition, dans la mesure du raisonnable.

On parle de mettre en œuvre une démarche ALARA : « As Low As Reasonably Achievable ».

On envisage différents moyens de réduire l’exposition en atténuant la quantité de radiations émises, ou en jouant sur les paramètres temps, distance, et écran, pour optimiser la dose reçue.

Et avec ce principe qui impose d’aller au-delà du minimum légal, je vois, personnellement, un bon exemple du concept de « défense en profondeur » structurant la sûreté nucléaire, dont la radioprotection est une facette.

Maintenant, vous connaissez les différents types de radiations, les différentes façon d’y être exposé, et de s’en protéger.

Et vous avez les billes pour comprendre que les radiations émises dans les sites nucléaires (centrales, usines, stockage…) ne peuvent pas vous atteindre si vous ne vous baladez pas dans les zones à risque de l’installation nucléaire.

En revanche, le véritable risque est la dispersion dans votre environnement de substances radioactives, qui vous conduirait à une exposition externe aux dépôts au sol ou aux radiations émises par des particules dans l’air ou l’eau, un contamination externe par les dépôts de retombées sur votre peau et surtout à une contamination interne par inhalation de radioéléments ou ingestion de produits contaminés.

Et c’est là le plus gros enjeux de la sûreté nucléaire.

L’accident nucléaire majeur : un scénario

Le présent billet est issu d’un thread sur rédigé sur Twitter que vous pouvez retrouver à ce lien et ci-dessous.

Un disclaimer préalable : je vais me focaliser sur les réacteurs français, de type « Réacteur à Eau Pressurisée » (REP). Ce que je vais dire ne sera que très partiellement applicable à d’autres réacteurs, notamment les REB de Fukushima.

Les grandes différences entre REP et REB (ainsi que les RBMK de Tchernobyl, par exemple) sont décrites dans ce thread, qui fera l’objet d’un billet sur ce blog, tôt ou tard.

Pour commencer, à quoi ça ressemble, un REP, et comment ça fonctionne ?
Je pique Framatome cet excellent visuel :

En très bref, dans la cuve (1) est situé le cœur du réacteur, où est entretenue la réaction en chaîne qui produit de la chaleur. Typiquement, dans les 2500 à 4000 MW de chaleur.

Les quatre pompes (3) assurent la circulation de l’eau à un débit assez fou entre la cuve et les GV, ou générateurs de vapeur (2), qui sont de gros échangeurs de chaleur eau/eau entre le circuit primaire et secondaire.

Dans ces GV, l’eau du secondaire, liquide, est chauffée par l’eau du primaire jusqu’à ébullition et vaporisation.
Ensuite, la vapeur part à la turbine, est refroidie par le tertiaire, liquéfiée, et revient aux GV. Voilà, vous avez les bases.

Après, il y a le pressuriseur dans lequel pas grand chose ne circule, il sert surtout à maintenir la pression stable en abritant une « bulle » de vapeur qu’on comprime ou détend pour mettre l’eau de tout le primaire sous pression.

À noter que cette illustration est valable pour les réacteurs de 1300 MW, 1500 MW, et l’EPR. Nos 34 réacteurs de 900 MW n’ont que trois boucles : trois pompes, trois GV.

Bon, on a les pré-requis sur le design du réacteur. Maintenant, à quoi sert l’électricité, dans son fonctionnement ?
Avant tout, à faire tourner les 3-4 pompes du primaire et faire circuler l’eau de sorte qu’elle transporte la chaleur de la cuve vers les GV.
4 millions de kW à balader.

L’électricité sert à des tas et des tas d’autres fonctions, évidemment, ne serait-ce qu’au pilotage du réacteur.
Mais le cœur (haha) du problème est quand même la circulation de l’eau dans le primaire.

Avant d’envisager la perte d’alimentation électrique, je suis d’avis de faire un petit tour d’horizon des différentes alimentations possibles, justement.

Histoire d’être clair sur le fait que c’est pas une bête coupure de courant dont on va parler dans la suite 😋

Le réacteur est évidemment connecté au réseau électrique français. Par une ligne de 400 kV dite « principale », sur laquelle il évacue sa production électrique après avoir prélevé ce dont il a besoin pour le faire fonctionner – notamment pour faire tourner les pompes primaires, donc.

En cas de défaillance de cette ligne, on tente un « îlotage » : on découple le réacteur du réseau électrique, et on essaye de faire baisser sa puissance de sorte à ce qu’il s’auto-alimente, en produisant juste ce dont il a besoin.
C’est une manœuvre assez tendue, parce qu’il y a pas mal d’actions à opérer pour changer considérablement le point de fonctionnement du primaire et du secondaire. Il faut notamment réguler très rapidement la concentration de bore dans le primaire.
Bref, pas mal de changements qui peuvent ne pas être toujours faits assez vite, ou être mal faits et « taper » les systèmes de protection du réacteur et déclencher son arrêt automatique par chute des barres de contrôle dans le cœur.

En cas d’échec de l’îlotage, et donc arrêt du réacteur, on tente de passer l’alimentation de la tranche sur une autre alimentation externe, le « réseau externe auxiliaire » de 400 kV également.
Les pompes primaires ne sont alors plus alimentées. Mais elles sont munies d’énormes volants d’inertie qui les font tourner quelques moments encore. 
Mais à ce moment là, on sait déjà qu’on va devoir piloter le réacteur sans elles.

Heureusement, il est en train de s’arrêter, et donc la puissance passe de 4000 MW (celle de la réaction de fission en chaîne) à quelques centaines de MW, la puissance « résiduelle » due à la radioactivité du cœur.

Donc si on vous parle d’emballement de la réaction, d’impossibilité d’arrêter la fission, etc., dans ce contexte, ce sont en général des conneries. La chute des barres tue net la réaction en chaîne, en 5 secondes, il n’y a quasiment plus rien d’autre que la puissance résiduelle à évacuer.

Bon, côté alimentation électrique, on tente de démarrer les deux groupes électrogènes diesel qui alimenteront différents systèmes de sauvegarde pour pérenniser le refroidissement du réacteur, et le garder de manière générale en fonctionnement contrôlé.

Si aucun des deux diesel ne démarre (c’est déjà pas de pot : double défaillance, ou défaillance + agression externe locale, ou agression externe généralisée), on sollicite un groupe d’ultime secours : soit la turbine à combustion de la centrale, si elle en a une, soit un diesel d’un réacteur voisin.

Si ce groupe d’ultime secours est indisponible aussi, là, ça commence à devenir compliqué.
Depuis Fukushima, EDF déploie des diesel d’ultime secours à raison d’un par tranche, mais elles ne sont pas encore toutes équipées.

Il y a encore une barrière, c’est l’acheminement de moyens d’alimentations électrique depuis l’extérieurs, notamment par la FARN (Force d’Action Rapide du Nucléaire, mise en place suite à Fukushima également).
Déployable sur n’importe quelle tranche en moins de 24h, même en conditions extrêmes (comme après un séisme, infrastructures routières endommagées, etc.).

Mais dans le cas où :

  • On perd l’alimentation électrique principale
  • Et on échoue l’îlotage
  • Et on perd l’alimentation électrique
  • Et on perd un diesel
  • Et on perd (où il est indisponible) le second diesel
  • Et on perd le groupe d’ultime secours
  • Et on perd le diesel d’ultime secours
  • Et on n’obtient jamais d’aide extérieure

Que peut-il alors se passer ?

Notons quand même que niveau probabilité, on est déjà très, très bas. Parce que l’enchaînement d’une telle série de défaillance, même dans des circonstances exceptionnelles (type séisme, encore une fois), il est quand même hautement improbable.

Mais vu que la sûreté, en France, c’est la prévention ET la mitigation (se mettre à l’abri des risques ET envisager qu’on se les prenne dans la face quand même), étudions le scénario d’une perte longue et totale d’électricité. Qu’arriverait-il à notre réacteur ?

Alors, d’abord, une petite déclaration de… Non-intérêt :p
Je ne travaille pas dans le domaine des accidents graves de réacteurs.
Donc je me base sur des souvenirs de cours, essentiellement ^^

Il est par conséquent tout à fait possible que je fasse quelques erreurs, ou quelques omissions ou hypothèses un peu fortes. Mais je ne doute pas qu’on me le fera remarquer, donc il y aura peut-être des errata en fin de billet 😉

J’ai donc mon réacteur qui vient de s’arrêter, avec 200-300 MW de puissance résiduelle qui sont encore produits dans le cœur par sa radioactivité.

Mes pompes primaires, notamment, ne sont plus alimentées.
Elles continuent à assurer la circulation quelques instants grâce à leur volant d’inertie, transférant la chaleur vers les GV, avant de s’arrêter complètement.

Mais la physique nous joue un heureux tour. Rappelez vous de la géométrie du primaire : les générateurs de vapeur sont en hauteur, par rapport à la cuve ! On a donc une source de chaleur en bas, et une source froide en hauteur.

On dit que l’air chaud monte, mais la réalité est plus vaste que ça : un fluide chaud est moins dense que le même fluide, froid. Donc l’eau froide des GV va descendre en poussant l’eau chaude du cœur vers le haut.
Ainsi s’établit une convection naturelle qui fait circuler l’eau dans le primaire, une convection naturelle qui serait totalement insuffisante si le réacteur était en fonctionnement, mais pour la puissance résiduelle, ça suffit.

D’ailleurs, il faut noter que tout au long de la séquence que l’on va décrire, la puissance résiduelle elle va diminuer.
Si on part de 4 GW de chaleur (pour un réacteur de 1300 MW électriques), au moment de l’arrêt, on est tout au plus à 300 MW.
Je dis « tout au plus » parce que ça dépend de l’âge du combustible. S’il vient juste d’être partiellement remplacé, on a une partie du cœur qui est très peu radioactive, donc chauffe peu.
S’il était sur le point d’être renouvelé, ça chauffe au max. 300 MW, donc.
Puis ça décroît : 

  • après une minute, on tombe à 200 MW
  • 80 MW après 30 minutes,
  • 60 MW à une heure,
  • 24 MW après un jour.

Bref, par convection naturelle (« thermosiphon »), on transporte la chaleur aux GV. Mais eux, ils en font quoi de cette chaleur ? Et bien ils la transmettent à l’eau du secondaire, qui, du coup, va s’évaporer.

Cette vapeur, on va pouvoir la rediriger non plus vers LA turbine, mais vers une petite turbine qui va faire tourner une pompe (une turbopompe, quoi…), qui va prélever de l’eau dans un réservoir (une « bâche ») pour l’acheminer vers les GV.

Et la vapeur, après avoir entraîné cette turbopompe, on la relâche dans l’atmosphère, car on n’a plus le matos disponible pour la condenser. Peu importe, c’est de l’eau du secondaire, jamais en contact (sauf suraccident) avec le primaire, donc saine.

De la sorte, on peut évacuer la chaleur du cœur pas mal de temps. Et donc se donner les délais pour, d’une part, laisser baisser la puissance résiduelle, et d’autre part pour rétablir le courant, apporter de l’eau, etc. Obtenir des délais.

Mais on a dit : scénario sans aucune aide extérieure ni récupération de l’électricitié.

Donc la bâche où se sert la turbopompe, elle va se vider, et on va supposer qu’on n’a pas d’autre source d’eau disponible.
Alors à terme, la chaleur, on va continuer à la transférer aux générateurs de vapeur, à faire évaporer l’eau du secondaire, mais sans y ramener d’eau fraîche. Donc on va assécher les GV côté secondaire.

Fin du refroidissement du primaire, donc, et donc plus de convection naturelle. L’eau du primaire va se figer.

Au niveau du contact avec le combustible, l’eau va s’échauffer peu à peu, jusqu’à ce que des bulles de vapeur se forment sur les gaines du combustible.
Ces bulles vont grossir, se décrocher, et monter vers le haut de la cuve.
On va avoir une sorte de grosse bulle de vapeur, donc, sous le couvercle, qui va peu à peu grandir.

Puis la bulle va avoir assez grandi pour commencer à se propager dans le primaire.
On a vu la forme du primaire, on voit que si une bulle se forme en haut de la cuve, si elle se propage vers le bas, elle va passer dans les tuyauteries et donc va se propager dans tout le reste du circuit qui est plus haut que la cuve.
Ainsi, peu à peu, le primaire va passer sous forme de vapeur dans les générateurs de vapeur, le pressuriseur, les pompes…

Et la vapeur chaude, de plus en plus chaude, elle va monter en pression. Jusqu’à faire sauter les soupapes du pressuriseur (si elles n’ont pas été ouvertes avant, ça dépend de comment s’est produit l’accident, mais imaginons qu’on subisse vraiment tout).

À ce moment, la vapeur va s’échapper vers ces soupapes, d’abord dans un réservoir, puis, quand celui-ci sera plein, ses propres soupapes vont conduire la vapeur à s’évacuer dans l’enceinte de confinement.

Donc là, on a perdu la seconde barrière de confinement (le circuit primaire), mais la première (les gaines du combustible) et la troisième (l’enceinte) tiennent le coup.

En principe, on devrait pouvoir déclencher une pluie dans l’enceinte pour refroidir et condenser la vapeur. Mais ça requiert une alimentation électrique que l’on s’interdit dans ce scénario. En conséquent, la pression et la température vont peu à peu monter dans l’enceinte, mais avant qu’elle atteigne les quelques bars qu’elles est conçue pour encaisser, il va se passer d’autres choses.

Revenons dans notre cuve.

La vapeur à commencé à se barrer par les soupapes, donc la pression chute drastiquement.
Donc encore plus de vapeur se forme.
Maintenant, tout le circuit primaire est en vapeur, et la bulle de vapeur continue alors à grossir, vers le bas, se propageant donc vers le cœur.

À un moment, le combustible se retrouve en contact non plus avec de l’eau liquide mais avec de la vapeur, très peu conductrice de chaleur.
Le combustible va donc ne plus pouvoir bien évacuer la puissance thermique vers l’eau et va peu à peu chauffer.
Et vers à quelques 800-900 °C, il va se passer un truc drôle : l’alliage de zirconium qui constitue les gaines du combustible va s’oxyder.

Alors l’oxydation du zirconium au contact de l’eau a haute température, c’est pas comme de la rouille, non non. C’est BADASS.
C’est une réaction violemment exothermique, à ces températures, qui conduit malheureusement le zirco à prendre feu. Ce genre de feu (bon, y’a le bonus pyrophoricité en plus, là).
La température va monter très très vite et, en gros, passé 1200 °C, les gaines ne gainent plus rien.

Bref, ça commence à sentir la fusion. 

Les gaines se disloquent (sloquent), la température décolle, et le mélange de combustible, de gaines, et du reste des trucs a l’intérieur de la cuve commence à fondre. La première barrière de confinement a donc lâché.

Les radioéléments sous forme de gaz ou d’aérosols présents dans le combustible se barrent dans le primaire et donc, peu à peu, via les soupapes, dans l’enceinte (ils franchissent donc la deuxième barrière).

Si jusque là on pouvait toujours dépressuriser l’enceinte en rejetant la vapeur par la cheminée (la vapeur est toujours un peu contaminée, mais à travers les filtres des cheminées, sur les réacteurs français, ça serait pas trop méchant)… là on se retrouve avec beaucoup de radioactivité dans l’enceinte.

Du coup, balancer à la cheminée…
Bah on le ferait quand même, hein, parce qu’il vaut mieux des rejets contrôlés, filtrés, à la cheminée, qu’incontrolés en cas de rupture de l’enceinte sous la pression. Three Mile Island est là pour nous le confirmer.

Là où ce fut un énorme problème pour Fukushima, ils n’ont pas pu dépressuriser ni filtrer, jusqu’à la rupture du confinement. Oops.
S’ils avaient eu des moyens de dépressuriser au travers de bons filtres, les rejets auraient été bien moindres… Mais avec des « si »…

Oh, et il y a un truc que j’ai oublié, c’est que quand le zirconium s’oxyde…

Il produit du dihydrogène. 
Gaz hautement volatil et hautement explosif, la joie !

Bon. Nos enceintes de confinement, contrairement à celles de Fukushima-Daichi entre autres, elles ont des recombineurs, des machins qui, sans aucune source d’énergie, peuvent transformer l’hydrogène pour éviter l’explosion. On devrait limiter les problèmes de ce côté.
(Et c’est justement parce qu’on s’est demandé « et si » après TMI qu’on s’en est dotés…)

Mais le risque hydrogène est à traiter très sérieusement malgré tout, pour éviter ne serait-ce que des explosions petites et localisées, qui fragiliseraient l’enceinte ou les tuyauteries. Et on n’a pas besoin de ça : on a un souci de cœur qui est en train de fondre…

Et là… On atteint les limites des scénarios que je connais.
Soit on a fini par ramener de l’eau, et le cœur, même partiellement fondu, peut rester bien dans la cuve comme à Three Mile Island.

Soit il peut percer la cuve, comme pour certains réacteurs de Fukushima, s’étaler sur le béton et, pourquoi pas, imaginons, percer le béton et se disperser dans le sous-sol.
Dans ce cas, ce ne sont plus seulement les gaz et aérosols qui franchissent la troisième barrière de confinement, mais une quantité hallucinante de radioéléments .
C’est pour prévenir une telle issue que l’EPR est doté d’un « récupérateur de corium ».

Enfin bon. La leçon de tout ça, c’est qu’il faut TOUJOURS AVOIR LE COMBUSTIBLE SOUS EAU.

J’ai oublié de mentionner quelque chose, au cours de la baisse de pression du circuit primaire suite au dégazage au travers des soupapes.
Dans les enceintes sont présent des cuves sous pression qu’on appelle accumulateurs, reliées au primaire par des soupapes (tarées à quelque chose comme 40 bar, de mémoire).
Ce sont des réservoirs d’eau très borée (le bore, pour assurer de ne pas avoir de retour de la réaction en chaîne).

Au cours de la baisse en pression du primaire, sous leur propre pression, ils vont naturellement (sans avoir besoin d’action ou d’électricité) ouvrir les soupapes et se vider dans le primaire, fournissant un appoint d’eau fraîche, et donc un délai supplémentaire avant de dénoyer le cœur.

Et j’ai aussi omis une petite turbine, alimentée aussi par la vapeur des GV (tant qu’ils en produisent), qui elle même alimente un petit alternateur, pour fournir un peu de puissance électrique pour gérer les systèmes de sauvegarde.

Bref. 
On voit qu’un scénario d’accident grave, ça existe, le risque zéro n’existe pas, évidemment.

Mais on a fait un (petit) tour d’horizon de moyens que l’on a pour gagner du temps, garder le cœur refroidi le plus longtemps possible, et ce même dans le cas où l’on a perdu rigoureusement TOUTES les alimentations électriques, externes, internes, et où l’on n’a pas de source froide venant de l’extérieur. 

Donc on est dans un cas extrême, en termes d’improbabilité d’occurrence : prévention.
Et en cas d’occurrence malgré tout, on a fait le maximum pour limiter les conséquences : mitigation.

Rejets filtrés, dispositions pour obtenir les plus gros délais possible, pour rétablir les systèmes de l’intérieur, ou recevoir de l’aide depuis l’extérieur.

En termes de dispositions de mitigation, y’a aussi tout ce qui se passe autour de la centrale : consignes de prendre les pastilles d’iode, de se confiner, ou d’évacuer, en fonction de la tournure des événements.

D’ailleurs, puisqu’on en parle !
En cas d’accident grave, nucléaire ou autre, faites STRICTEMENT ce que vous disent les autorités.
Même si ça peut vous paraître bizarre, ils savent mieux que vous ce qui se passe.
Si on vous dit de vous confiner, n’évacuez pas, confinez-vous !
Vous vous exposeriez davantage à la pollution, si elle est passagère, en sortant pour vous éloigner qu’en restant bien à l’abri dans une maison fermée.

N’allez pas non plus chercher vos gosses à l’école, où ils seront confinés ou évacués, si besoin. N’allez pas vous entasser (avec eux, au retour) dans des embouteillages et maximiser votre/leur exposition au danger.

Bref, je me suis égaré, je reviens à mon réacteur. Mais j’ai un peu fait le tour, là… 

Éviter les accidents ET imaginer qu’on ne les évitera pas et minimiser les conséquences. Une règle d’or qui a fait défaut, historiquement… Et qui s’impose particulièrement dans le cadre des ECS, les « Examens Complémentaires de Sûreté » réalisés après Fukushima, dans le monde entier, France en tête de file.

Une centrale n’est pas une bombe, n’est pas quelque chose qui peut « péter » au moindre événement, et rien n’est pris à la légère. On a toujours un empilement de protections organisationnelles et matérielles entre l’événement et l’accident radiologique.

Et je pense que la longue énumération que constitue ce billet l’illustre quelque peu 😉




Tchernobyl et les douaniers français

Cet article est repris du thread initialement publié sur Twitter que vous pouvez retrouver à cette adresse et ci-dessous.

« Ils ont essayé de nous faire croire que le nuage de Tchernobyl s’est arrêté à la frontière »

« Ils vont encore nous raconter que ça va s’arrêter à la frontière »

Combien de fois a-t-on pu entendre ou lire ces phrases et d’autres semblables, ces vannes éculées depuis 30 ans, lorsque sont évoqués un incident, un accident nucléaire ou tout simplement le nucléaire en général ?

De fait, une proportion, jamais chiffrée à ma connaissance (mon ressenti personnel m’inviterai à estimer un généreux huit dixièmes), de la population est convaincue que lors de l’épisode de la catastrophe de Tchernobyl en fin Avril, début Mai 1986, les autorités scientifiques et politiques, ainsi que les journalistes, ont fait croire à la population française que le panache de gaz et aérosols radioactifs libérés sur l’Europe par le réacteur 4 de la centrale Lénine n’avait pas passé la frontière française.

Ce qui en fait, je pense, la théorie du complot la plus répandue du pays, et de très loin. Et je pèse mes mots : théorie du complot. Il s’agit en effet d’une croyance populaire en une collusion entre scientifiques, politiques, journalistes, pour cacher la vérité au citoyen moyen. Une grande conspiration, donc.

Théorie à laquelle adhèrent, ironiquement, nombre de concernés, journalistes comme politiques.

Exemples :

Nucléaire : comme la Russie, la France a déjà nié le passage d’un nuage radioactif

Ou encore :

Michèle Rivasi: « Tchernobyl, c’est le premier gros mensonge de l’Etat »

Bref, des gens très bien placés pour mettre fin à cette rumeur… Mais également, hélas, pour la perpétuer.

Quelques sources pour commencer.
Pour une documentation détaillée (50 pages) de l’historique de Tchernobyl, voir l’essai de Pierre Schmitt, Le « nuage » de Tchernobyl se serait arrêté aux frontières ».

Pour une présentation (podcast de 40 minutes) sur la construction médiatique du mythe, écouter le podcast Le mythe du nuage de Tchernobyl, construction d’un récit télévisuel par Romy Roynard sur 8è Étage.
Son étude complète, La catastrophe nucléaire de Tchernobyl : une crise technologique. Traitements médiatiques et enjeux communicationnels (26 avril 1986-31 mai 1996) est également accessible à ce lien.

Au cœur de cette croyance, aujourd’hui, cette image, extraite d’un bulletin météo sur Antenne 2, diffusé le 30 Avril 1986, deux jours après l’annonce par l’U.R.S.S. de l’accident, qui avait lui-même eu lieu deux jours auparavant.

Cette image est reprise abondamment depuis 1986 pour entretenir le mythe, parfois accompagnée d’extraits, généralement soigneusement coupés, de la présentation du bulletin.
La version complète est, elle, très instructive.

La vidéo ci-dessous en propose un extrait assez long pour comprendre de quoi il en retourne, suivi d’une simulation ultérieure par l’IRSN de la propagation du nuage :

Concrètement, à aucun moment, n’entendrez-vous qu’il « s’arrêterait à la frontière ». Il a été dit dans ce bulletin du 30 Avril 1986 qu’un anticyclone protégeait la France à ce moment, ce qui était correct, et ce, pour a priori trois jours.
Le tout, avec beaucoup de précautions. Les timecodes associés aux extraits suivants sont ceux de la vidéo ci-dessus.

0:38 – Il faut bien faire la différence entre le possible et le réel. D’abord, les certitudes […]

1:11 – Maintenant, les prévisions […]

1:30 – En France, l’anticyclone des Açores s’est développé. La météo affirme qu’il restera jusqu’à vendredi prochain suffisamment puissant pour offrir une barrière de protection

1:44 – Mais attention : ces prévisions sont établies pour trois jours

Il se trouve que le nuage a été détecté en France un peu plus de 24h plus tard pour la première fois, et le surlendemain de manière plus généralisée sur le pays.

Donc, in fine, les prévisions (qui étaient bien qualifiées comme telles) se sont trompées en annonçant une stabilité « pour trois jours » qui n’a en réalité duré qu’un jour, un jour et demi.
Et, depuis trente ans, on crie au mensonge sur cette base ; une légère erreur de prévision météorologique est devenue une théorie du complot faisant des dizaines de millions d’adeptes.
On recycle cette carte sans son contexte, sans rappeler la date, ni la chronologie des événements : on ne lui demande qu’une chose, c’est de confirmer ce que l’on pense en savoir.

Cette anecdote seule n’aurait pas suffi, espérons-le, à créer une telle légende urbaine. Elle offre l’image à instrumenter pour la perpétuer, mais il a fallu l’entretenir.
Et on peut compter sur plusieurs acteurs pour cela :

  • l’incompétence des politiques au pouvoir ;
  • l’intérêt des politiciens et mouvements antinucléaires ;
  • le goût du scandale par les médias
  • le déni des mêmes médias.

Voyons ces quatre piliers dans l’ordre.

L’incompétence
Sans épiloguer sur le long pont du 1er Mai qui s’annonçait alors, faisant que, du 28 au 30 Avril, bien des services publics tournaient déjà au ralenti, il faut noter deux choses :
1) Le gouvernement s’est quasiment muré dans le silence pendant plusieurs jours, laissant les autorités scientifiques (dont le SCPRI et notamment le célèbre Professeur Pierre Pellerin) sur le devant de la scène, justifiant ainsi les reproches de manque de communication ou de transparence à son égard ;
2) Le gouvernement a bien fait de garder le silence car lorsqu’il s’est exprimé, c’était pour le pire :

En témoigne cet extrait d’un communiqué de presse du ministère de l’agriculture émis le 6 mai 1986 (8 jours après l’accident, 6 jours après sa révélation, 2 jours après que les traces du nuage aient disparu des cieux français) :

« Le territoire français ; en raison de son éloignement, a été totalement épargné par les retombées de radio-nucléides consécutives à l’accident de la centrale de Tchernobyl. À aucun moment les hausses observées de radio-activité n’ont posé le moindre problème d’hygiène publique. »

On bondira très justement au mensonge de l’affirmation « totalement épargné », mais il s’agit vraisemblablement plus d’incompétence que de malhonnêteté, puisque la phrase suivante parle de « hausses observées de radioactivité »…
Mais entre silence penaud durant les événements, et communication hasardeuse à l’issue de ceux-ci, le pouvoir politique a apporté sa pierre à l’édifice de la rumeur.

La récupération
C’est très simple à comprendre…
En 1986, le nucléaire français est en plein « boom » : 38 des 58 réacteurs actuels ont déjà divergé, 18 autres sont en chantier.
Auxquels il faut ajouter le parc de réacteurs aujourd’hui arrêtés : 7 réacteurs, dont Superphénix alors fraîchement mis en service ! La bête noire des verts.

Les opposants au nucléaire ont donc une occasion en or de dénoncer les dangers insoutenables de la technologie nucléaire avec les approximations qui leurs sont chères.

On pourra notamment citer la création à cette occasion de la CRIIRAD.
Ou bien illustrer le propos avec cet extrait du journal Libération, le 10 Mai 1986, sur la politique préconisée par les Verts :

« […] arrêter la mise en service des nouveaux réacteurs, abandonner les nouveaux chantiers, arrêter les unités les plus dangereuses (Super Phénix et La Hague), engager un programme d’économie d’énergie et remplacer progressivement les centrales nucléaires par de nouveaux moyens de production. »

La presse « pute à clic »
Naturellement, le terme n’existait pas en 1986, mais le concept était déjà de rigueur. Pourquoi informer objectivement quand on peut inventer des scandales bien plus vendeurs ?

Libération, 2 Mai 1986 (le nuage a été détecté le 1er Mai, mais les journaux n’éditaient pas ce jour férié) :

« À Monaco, on a enregistré des traces de particules peu fréquentables dans l’atmosphère, minimes, ne présentant aucun danger selon les responsables puis, finalement, cela a été le tour de la France. »

Libération, 6 Mai 1986 :

« La France apparaît comme l’un des rares pays d’Europe occidentale miraculeusement épargnés par les retombées de Tchernobyl…
Hier, la Direction de la Qualité au ministère de l’Agriculture a indiqué que le taux de radioactivité des produits agricoles en France est « normal ». La raison ? Le nuage a « tout juste frôlé » la frontière est du pays. »

Libération, 7 Mai 1986 :

« La France miraculée : Le communiqué de presse envoyé hier par le ministère de l’Agriculture indique qu’à aucun moment les hausses observées de radioactivité ont posé le moindre problème d’hygiène publique […]. Des relevés effectués tous les jours dans différents coins de l’hexagone montrent, en fait, que le taux de radioactivité artificielle de l’atmosphère du pays a eu tendance à légèrement augmenter vers le 29-30 avril avant de décliner après le 1er mai et de redevenir normal sur l’ensemble du territoire dans la nuit du 5 au 6 mai. »

On voit que le discours de ce journal peut changer d’un jour à l’autre, affirmer une chose et son contraire au gré des besoins d’informer ou de vendre. Mais l’embrasement survient un peu plus tard.
Libération, 12 Mai 1986, titre en Une :

« LE MENSONGE NUCLÉAIRE
Les pouvoirs publics en France ont menti, le nuage de Tchernobyl a bien survolé une partie de la France, le Pr. Pellerin en a fait l’aveu deux semaines après l’accident nucléaire. »

À ce stade, et j’arrêterai là de balayer les parutions des journaux, on assiste à une construction totalement artificielle et mensongère du mythe.
En mai 86, Libération travestit les faits, réinvente l’historique de la quinzaine passée pour vendre un incroyable scandale.

Errare humanum est, perseverare diabolicum

À ce stade, nous avons donc le terreau fertile offert par la comm’ du gouvernement, la graine que représente l’image choc du STOP à la frontière, et le cultivateur qui a tout intérêt à arroser pour que croisse le rentable mensonge.

Il ne reste plus qu’à perpétuer celui-ci, en ressortant d’année en année les mêmes images et les mêmes extraits sortis de leur contexte pour que s’ancre (et s’encre) peu à peu dans les esprits le récit alternatif des médias.

Il faut qu’à force de le revoir encore et encore, tout le monde soit intimement convaincu de se souvenir de cette Vérité Alternative comme étant le récit exact des événements d’Avril-Mai 1986.

Qui, parmi vous, se souvient clairement, ou connait quelqu’un qui se souvient clairement (en ce qui me concerne, c’est ma maman qui était ado en 1986) de la télé qui affirmait que le nuage ne touchait pas la France ?

D’une certaine manière, vos/leurs souvenirs ont été ré-écrits…

Ce travail sur le récit alternatif, politiques et médias s’y attellent avec grand sérieux. Mais les deux sources citées en introduction y reviennent abondamment pour qui souhaiterait approfondir sur cet effort d’entretien du plant. Je passe mon tour.

Ce paragraphe constitue un ajout par rapport au thread initial, suite à des échanges en retour sur ce dernier. Certaines personnes considèrent que l’image marquante pour elles n’est pas ce panneau stop, mais celle de cette journaliste, à la frontière franco-allemande, une salade en main. La journaliste expliquait alors que cette salade était jugée propre à la consommation en France, alors qu’elle ne le serait pas en Allemagne. D’où l’allusion à « l’arrêt à la frontière ».
Pour ces personnes là, donc, la frontière est une simple métaphore. Néanmoins, pour la majorité, c’est au premier degré qu’il est considéré que le discours officiel était « le nuage s’est arrêté à la frontière ».

En ce qui concerne la différence de traitement et de mise en œuvre de dispositions sanitaires, plusieurs choses sont à noter :
1) Ce n’est pas parce que l’Allemagne et la France font différemment que l’Allemagne a raison
2) Le discours au niveau fédéral en RFA ne se distinguait pas du discours au niveau étatique en France
3) Les Länder allemands étaient en désaccords les uns avec les autres, certains imposant des mesures, d’autres non
4) Que ce soit à l’échelle nationale comme internationale, les désaccords traduisent des motivations politiques plus que sanitaires (voir l’essai de Pierre Schmitt pour les détails)
5) En 86, les mesures effectuées en France ne justifiaient pas la mise en œuvre de dispositions particulières (hormis des contrôles renforcés), ce n’est pas une opposition des politiques aux recommandations des scientifiques qui se cache derrière l’absence de mesures
6) 30 ans de retour d’expérience ne remettent pas en cause les décisions alors prises en France

Concluons.

Aujourd’hui, le souvenir collectif est celui-ci :

« Les politiques et les scientifiques nous ont menti en disant que le nuage s’était arrêté à la frontière, en nous cachant le danger et en nous laissant nous empoisonner. »

La vérité est un poil plus complexe : 

« Les politiques se sont emmêlés les pinceaux, les scientifiques ont suivi le passage du panache en nous assurant que cela ne posait pas de problème sanitaire, et à raison jusqu’à preuve du contraire.
Tandis que les médias ont alterné entre information sérieuse et mensonge total ».

La prochaine fois que vous lirez « Et ils vont nous dire qu’il s’arrête à la frontière, celui-là ? », prenez le temps d’expliquer à la personne qu’elle reprend un mythe.
Contribuez à lutter contre cette réécriture de l’Histoire.

Et si vous avez su lire jusque là, vous pouvez aussi RT/partager pour lutter contre cette légende urbaine 😉


Foisonnement éolien du Portugal à la Pologne

Cet article est issu d’un thread publié sur Twitter que vous pouvez retrouver à cette adresse.

Discutons un peu du foisonnement éolien, souvent mis en avant par ceux qui veulent pourfendre le nucléaire à coup d’ENR et réaliser LEUR transition énergétique.

L’éolien, c’est un moyen de production d’électricité intermittent. Oui, je malmène sans finesse de pauvres portes déjà ouvertes, mais certains n’en sont pas encore conscient.

J’en parlais abondamment dans ce thread-ci et sur ce blog, dans cet autre billet.

On me répondit à plusieurs reprises que je raisonnais sur le système fermé franco-français. Et que la transition énergétique, il ne fallait pas la voir comme ça, mais à l’échelle d’un immense maillage du réseau électrique à travers toute l’Europe.
Ainsi, de par la variété des vents sur le Vieux Continent, il y a toujours un endroit où souffle une brise a même d’alimenter ceux où l’air est statique.
Ainsi, les variations de production – mais aussi de consommation, mais c’est un autre sujet – s’en retrouvent lissées.

Bon, ce concept présente de nombreux écueils – fonctionnement du marché, capacité des interconnexions, pertes, coût de renforcement du réseau, gestion des pics simultanés…
Mais, sans discuter de sa faisabilité technique et économique, je vais simplement regarder l’hypothèse à sa base : est-ce qu’à l’échelle du continent, les alizés sont à peu près uniformes ?

La plateforme « Transparency » d’ENTSO-E, le Réseau européen des gestionnaires de réseau de transport d’électricité, met a disposition les courbes de production électrique de chaque pays, heure par heure, moyen de production par moyen de production.

Au passage, c’est notamment sur les données d’ENTSO-E que se base, pour l’Europe, l’excellentissime site ElectricityMap que je vous implore d’aller consulter maintenant et aussi souvent que possible si vous ne le connaissez pas : on apprend énormément de choses rien qu’en le consultant régulièrement et en cherchant à comprendre ce que l’on y observe.
Il y a aussi une application pour mobile.

Bon, la base de données ENTSO-E n’est pas follement pratique à manipuler. Les données brutes sont à télécharger pays par pays, et même réseau par réseau. Si la plupart des pays n’ont qu’un réseau, deux à tout casser (Danemark), et si l’Allemagne, le Luxembourg et l’Autriche se regroupent sous un seul réseau…
L’Italie a plus d’une dizaine de réseaux différents ! Et autant de fichiers à télécharger.

Et c’est pas optimisé, hein ! Faut sélectionner un pays/réseau, patienter,
« Export Data », « Year.xlsx », enregistrer sous, donner et nom… Pour les dix réseaux italiens et pour chaque autre réseau 😦

Bon, pas question de faire toute l’Europe dans ces conditions.
Et puis, quel intérêt ? J’essaye de sortir d’un point de vue restreint à la France, mais je reste centré sur la France : j’ai donc pris tous les pays interconnectés à la France, et tous les pays interconnectés à ceux-là (la France et ses relations de premier et deuxième rang, en quelques sorte).

Ainsi, sans aller jusqu’en Ukraine, je pousse jusqu’à la Pologne à l’Est, le Danemark au Nord, l’Irlande à l’Ouest et le Portugal au Sud. Dans le détail et l’ordre alphabétique :

  • Allemagne
  • Autriche
  • Belgique
  • Danemark
  • Espagne
  • France
  • Italie
  • Luxembourg
  • Pays-Bas
  • Pologne
  • Portugal
  • Royaume-Uni
  • Slovénie
  • Suisse
  • Tchéquie

Et, ensuite, c’est simple : je récupère les productions éoliennes onshore et offshore de tous ces pays et je somme le tout, point par point (au pas horaire).

Et j’obtiens une charmante courbe de la production éolienne en Europe de l’Ouest du 1er Janvier 2018 au 31 août de la même année (les données s’arrêtent là, le thread initial ayant été rédigé en septembre).

Il manque quelques données sur les derniers jours d’août, c’est approximatif sur cette période-là.

Bon, sans rire, ça fait un paquet de turbines, hein. 150 GW, à une vache près. Si je prends la moyenne française d’environ 2.2 MW/mât, ça fait 70 000 éoliennes.
Cela affiche la même puissance que le parc hydroélectrique de toute l’UE, un peu plus que son parc électronucléaire.  

Affichez l’image en grand à ce lien

C’est sans appel… Ça fluctue toujours énormément, même à cette échelle de 3000*3000 km. On produit entre 7% et 60% de la puissance nominale, ce qui n’est pas sans rappeler le cas français isolé :

La moyenne est d’un peu plus de 38 GW pour une puissance qui s’étale de 9 à 92 GW.

Au final, à cette vaste échelle, que conclure ? Tout simplement que 150 GW peinent à garantir une puissance d’une vingtaine de GW (délivrée 90% du temps sur cette période).
Et dans le cas où l’on est prêt à payer le déploiement de 150 GW pour seulement 20 GW de puissance disponible en à-peu-près-base, il faut prévoir de gérer des pics de 80 à 90 GW.
Ou accepter de laisser se perdre l’essentiel de la (sur)production.

Alors… Certes, on peut concéder un très faible effet de foisonnement, parce qu’on arrive à ne tomber sous les 10 GW que très, très exceptionnellement, et qu’on arrive à soutenir 20 GW une large partie du temps, ce qui est est quand même une performance honorable.
Mais la puissance à-peu-près garantie est de l’ordre du dixième de la puissance installée. L’intermittence est toujours là, considérable, avec des moments de production stratosphérique et d’autres abyssale, et le problème de back-up reste entier.

Soit on se contente de 10 GW garantis par 150 GW installés et payés, pas de back-up requis, mais une production très largement excédentaire l’essentiel du temps et donc une équation économique infernale…

Soit on cherche à utiliser toute la puissance mais il faut prévoir un back-up pilotable d’environ 130-140 GW pour un parc éolien de 150 GW. Là encore, l’équation économique n’est pas simple. Et si le back-up est fossile, ne parlons même pas de l’équation écologique !

À ce lien, le fichier Excel pour qui voudrait jouer avec les données. 

J’ai réalisé à posterori ne pas avoir fait la moindre mise en forme… C’est un travail très sale, d’un auteur qui cherche pas du tout à être compris par autrui 😅 Désolé ! J’en ferai peut-être une version plus propre ultérieurement.
Le descriptif en bref du fichier : j’ai un onglet par pays, un onglet où je fais la somme des précédents, et un onglet « de travail », où je récupère les données qui m’intéressent et je trace la courbe. Et dans mes données brutes, les dates n’apparaissent pas, la faute au format pourri des fichiers d’ENTSO-E (ça a été plus simple de faire sauter les dates). Ça démarre donc au 01/01/2018 et ça incrémente d’un jour toutes les 24h (oui, oui, les portes ouvertes, je sais).

Compléments suite à des discussions et réactions à la publication du thread sur Twitter.

On m’a reproché d’omettre l’énergie solaire.

Comprenez bien : si je ne parle souvent que d’éolien et de nucléaire, c’est pour ne pas tirer sur l’ambulance !
Quasiment tous les reproches que je fais à l’éolien : puissance garantie VS puissance installée, absence de foisonnement, variations importantes, décorrélation avec la consommation, et évidemment impossibilité de piloter la production… Tous ces défauts s’appliquent au centuple au solaire !

La production tombe à zéro, que ce soit à l’échelle française ou ouest-européenne, environ 365 fois par an, plusieurs heures de suite à chaque fois. La puissance garantie est donc rigoureusement nulle.

Les pics sont très variables d’un jour à l’autre, et encore plus d’une saison à l’autre.
Et l’hiver, quand la demande est la plus forte, la production solaire est non seulement très faible, mais en plus elle se répartit sur une durée très limitée.
Qui évite soigneusement les pics de consommation, avec une puissance quasiment nulle à ces moments.
Bien évidemment, pas de foisonnement ni de pilotabilité.

Et un impact environnemental plus important que l’éolien, en termes d’émissions de GES, mais aussi en quantités de matériaux consommés par kWh – et en variété de ces matériaux.

Par contre on peut concéder au solaire que la production est plus aisée à prévoir que celle de l’éolien. Mais c’est léger comme avantage.

Du coup, j’parle en général pas trop du solaire parce que ça n’apporte rien de plus…

Néanmoins, j’ai ajouté à ma courbe précédente la production solaire. Dans les mêmes conditions, même graphe, mêmes échelles (j’ai pas été voir les puissance installées par contre. Cause : flemme).

Ça donne ça. En bleu, solaire et éolien cumulés ; en vert, éolien seul.

Lien direct

On observe bien un décalage vers le haut, surtout à partir de mai ; en vérité insignifiant l’hiver.
Mais outre cet offset, ça ressemble surtout à un ajout de bruit sur un signal déjà pas très lisse.
Et pour cause, quand on regarde le solaire seul, bah… Ça ressemble quand même beaucoup à du bruit :

Lien direct

Notez que cette courbe (et donc la courbe bleue avant) comporte pas mal d’artéfacts. De données erronées. 
Dans le tableur, j’ai vu des nuits avec une production maintenue à quelques centaines de MW 🤔 avec des pics à plusieurs GW 😱 !
Donc l’allure est à prendre en compte, pas les détails 😬

Et parce qu’on me l’a demandé, les courbes pour l’éolien offshore seul.
Il est vrai que l’on lit souvent que les vents marins sont bien plus continus que les vents sur terre. Une solution (au moins partielle) au problème d’intermittence ?

Bof.

Lien direct

Moyenne : 5700 MW
Plage de variation : 200 MW – 10200 MW
Notez le changement d’échelle verticale par rapport aux précédents graphiques toutefois, d’un facteur 10.

Y’a de la place dans le futur pour le stockage si l’on veut rendre tout ceci vraiment pertinent. La question est donc… le stockage sera-t-il en mesure d’occuper cette place ?

Publié dans ENR