Le plus gros accident nucléaire français du XXIè siècle

J’ai souvent eu l’occasion d’ironiser, ou de déplorer, l’emballement médiatique au moindre ventilateur qui chaufferait un peu trop dans une centrale nucléaire. Alors que, naturellement, quand tout se passe bien, le désintérêt des médias est total.

Sur ce dernier point, le journaliste Denis Desbleds du Courrier Picard m’a fait la surprise de me donner tort. Suite à une violente tempête sur la Normandie, il a publié un article au sujet de la centrale de Penly pour dire que… Tout allait bien en dépit de la tempête.

J’ai partagé sur Twitter mon plaisir de me tromper sur ce point. Ce à quoi beaucoup réagirent par de fausses Unes excessivement alarmistes, alors m’est venu l’envie de partager auprès de tous un événement datant de trois ans plus tôt. Celui-ci, somme toute anodin, avait fait l’objet d’un emballement médiatique laissant presque supposer un accident majeur.

9 Février 2017. Milieu de semaine.

Consommation électrique nationale élevée (79 GW à 9h30, presque 82 GW à la pointe de 19h). Peu de vent, entre 1000 et 2500 MW sur la journée. Peu d’eau dans les barrages. La consommation est couverte par le nucléaire (54 GW) et le gaz, le fioul et même les importations.

Et dans ce contexte, soudainement, 1300 MW de nucléaire se sont effacés avec un arrêt d’urgence sur l’un des deux réacteurs de la centrale de Flamanville. Que s’est-il passé ?

Probablement rien de moins que la fin du monde, à en lire la presse.

Je crois qu’il y a eu une explosion dans la centrale nucléaire.

Et peut-être un petit mouvement de panique.

Ou en tout cas un bon travail de préparation pour s’assurer de surfer sur une éventuelle vague de panique.

Y’en a des pages et des pages comme ça… Et dans les faits ? Un ventilateur (pour ventiler une machinerie, hein, pas un ventilo pour se rafraîchir) a clamsé en salle des machines (zone industrielle conventionnelle, non nucléaire).

Équipement sans importance pour la sûreté, mais dégagement de fumée qui a légèrement incommodé 5 employés (oui, voilà les 5 blessés), et conduit à l’arrêt immédiat du réacteur. Et il semblerait qu’aient été rapportés un ou plusieurs témoignages d’une détonation du ventilo.

Alors ça peut tout vouloir dire, mais voilà comment on se retrouve à alarmer toute la France pour un incident industriel complètement quelconque (à part l’impact sur la prod électrique, à la limite). Live-tweets et compagnie, hein ! Grande folie !

Et puis derrière, lorsque la presse locale essaye d’en savoir plus dans le courant de la journée, qu’ils ne trouvent personne dans la centrale qui ait été stressé (par contre j’vous parle pas des familles) ou même qui ait entendu quoi que ce soit… Bah la réaction des journalistes et des employés devant cette explosion médiatique (bien réel, elle), elle est assez unanime.

Mais n’essayez pas de caricaturer les médias quand il s’agit d’en faire des tonnes sur un crayon qui tombe par terre dans une centrale nucléaire. Vous n’serez pas à la hauteur des professionnels.

Bonus.

Pas l’même emballement médiatique heureusement, mais rendez-vous compte quand même : y’a un sèche-main qui a fumé dans les toilettes.

Impact de la canicule 2019 sur le système électrique français

La semaine du 22 au 29 Juillet 2019 a été marquée par une vague caniculaire ayant d’une part sollicité les moyens de climatisation, et d’autre part mis à rude épreuve les moyens de production électrique – dont le très médiatique nucléaire.

Selon le twittos @buchebuche561, douze réacteurs nucléaires en production à cette période ont du réduire leur puissance pendant cette vague de chaleur, et deux autres, les deux réacteurs de la centrale de Golfech, ont été mis à l’arrêt complet.

En plus de cela, seize tranches étaient à l’arrêt complet pour leurs opérations de maintenance, de rechargement du combustible, ou de visites décennales. D’autres réacteurs encore ont subi des réductions de puissance indépendantes de la canicule, pour des travaux de maintenance spécifiques ou suite à des défaillances.

Au-delà du nucléaire, le vent était très peu généreux, les panneaux solaires souffraient de la chaleur (le rendement baisse avec la température), et la résultante fût une production électrique au gaz substantielle pendant la semaine. Plus encore, la France est devenue par moment importatrice nette. Non pas que le réseau était à ses limites, mais les lois du marché faisaient alors qu’il était plus économiquement intéressant d’importer que de brûler davantage de gaz.

L’hydraulique n’était pas aidée non plus : la petite hydraulique (centrales électriques dites « au fil de l’eau ») était limitée par des débits faibles, et la grande hydraulique (barrages) s’économise l’été pour ne pas vider des réserves d’eau qui seront précieuses en hiver.

Bilan.

Pour l’hydraulique, pas de surprise : une base constante et des pics périodiques, le tout très modeste pour les raisons données ci-avant.

Pour l’éolien c’est pareil, sans la base constante. On voit une remontée le week-end (fin de canicule et temps orageux sur une bonne partie du pays) mais un parc dans l’ensemble à l’arrêt.

Pour le solaire pas de surprise non plus. C’est toujours joli, ça produit pas mal mais loin du maximum malgré l’ensoleillement (cette histoire de rendement), et ça se casse la gueule lors des orages, normal.

Et, enfin, le nucléaire. @buchebuche561 a été voir les motifs de chaque indisponibilité (partielle ou totale) de production, pour savoir lesquelles sont imputables à la canicule, et lesquelles n’ont rien à voir. Un énorme merci pour ce gros boulot ♥.

Du coup, j’ai pu tracer la production, le parc installé (comme sur les précédents graphiques, du coup), mais aussi la production qu’on aurait pu attendre sans les limites imposées par la canicule.

Ça permet de visualiser l’impact de la canicule, qui ne joue clairement pas que sur l’épaisseur du trait. Rien que les 2600 MW de Golfech font mal. Mais ça n’est pas non plus un effondrement.

Les indisponibilités du fait de la canicule restent une minorité des indisponibilités habituelles en été (qu’on doit au fait qu’on veut une disponibilité max l’hiver, donc on concentre la maintenance l’été et l’automne).

Et les imports et exports, pour finir. L’effet week-end encore très visible : remontée de la production éolienne et surtout baisse de la consommation -> On se remet à exporter à bloc.

Je profite de ce dernier cas pour signaler une limite des graphiques radar : les faibles valeurs sont, visuellement, minimisées. Ici, les 0 à 2 GW d’imports, par exemple, sont à peine visibles. Alors qu’une variation de 4 à 6 GW par exemple occupent une aire bien plus grande.

C’est pour ça que j’évite de représenter les différents moyens de production sur un même graphe… Les petites valeurs du solaire (car plus petit parc) sont visuellement encore plus minimisées devant le nucléaire.

On m’a proposé une échelle non linéaire pour compenser, mais j’ai peur que ça embrouille. Donc je reste là-dessus… Mais gardez juste en tête que le radar déforme visuellement en minimisant les petits valeurs (et inversement).

Quelques mots, pour finir, sur l’explication de ces arrêts / réductions de puissance.

Non, les réacteurs n’étaient pas empêchés de fonctionner à cause de la chaleur. Les circuits primaires et secondaires des réacteurs tournent à 200-300 °C, donc ce ne sont pas 10°C de plus à l’extérieur qui vont faire la différence.

Non, le problème n’était pas de pouvoir refroidi le réacteur. Pour la même raison ; quand il s’agit de refroidir un circuit à 250 °C, une source froide à 30 °C fait toujours l’affaire.

Non, la sûreté n’a à aucun moment été compromise. Un réacteur à l’arrêt a besoin de cinquante fois moins de refroidissement (pour ses fonctions de sûreté) qu’un réacteur en production (pour son fonctionnement). Donc, schématiquement, lorsque la canicule atteint le seuil où l’on met le réacteur à l’arrêt, le seuil où la sûreté serait remise en question est cinquante fois plus loin.

L’arrêt / la réduction de puissance des réacteurs est une problématique de protection de l’environnement. La réglementation impose des contraintes sur la température de l’eau rejetée en aval des réacteurs : une limite absolue, et une limite relative. C’est à dire que les rejets ne doivent ni dépasser une certaine température, ni dépasser de X degrés la température en amont, et ce afin de limiter le stress sur la biodiversité aquatique.

Et lorsque la température en amont approche la limite absolue en aval… Il faut réduire l’échauffement, voire cesser de réchauffer l’eau.

Plus d’infos dans ce thread :

Des histoires de tritium

L’actualité en France pendant l’été 2019 a été marquée par plusieurs alertes sanitaires relatives à des contaminations au tritium de l’eau douce et de l’eau potable en France, dans la Loire et en Île-de-France.

Sommaire

  • Qu’est-ce que c’est dis-donc que le tritium ?
  • Quels enjeux sanitaires ?
    • Seuils de potabilité et d’alerte
    • Facteurs de dose
  • La polémique
    • Les prémisses : détection d’un pic de tritium en janvier 2019
    • Traitement médiatique chargé
    • Contre-exemple : une article en retard mais soigneusement mauvais
  • Juillet 2019 : l’emballement
  • Octobre : les investigations de l’IRSN

Qu’est-ce que c’est dis-donc que le tritium ?

Le tritium est un isotope radioactif de l’hydrogène que l’on retrouve en général incorporé à une molécule d’eau en lieu et place de l’un des atomes d’hydrogène. Il est produit naturellement dans l’atmosphère, mais en teneurs modestes devant la production de ce dernier par les activités humaines, essais nucléaires et centrales nucléaires.

Il est notamment produit dans les réacteurs nucléaires en tant que produit de fission, ou au sein du circuit primaire par activation neutronique de l’hydrogène, du lithium et du bore.

Très complexe à isoler mais très faiblement radiotoxique (ses radiations sont uniquement des rayonnements beta de faible énergie, 30 fois plus faibles que ceux du Césium 137 par exemple), il est en grande partie piégé dans le combustible et évacué dans l’environnement lors du traitement du combustible usé ; le reste est rejeté dans l’environnement directement par les centrales, en privilégiant dans tous les cas les rejets liquides où la dilution assure un impact notablement plus faible qu’en rejet atmosphérique. Notamment parce que sous forme d’eau liquide, il est vite métabolisé et évacué, et ne séjourne que peu dans l’organisme.

Quels enjeux sanitaires ?

Seuils de potabilité et d’alerte

Les recommandations internationales et retenues en France conduisent à considérer l’eau comme potable jusqu’à 10 000 Bq de tritium par litre d’eau. En revanche, en France est retenu un seuil d’alerte à 100 Bq/L, non pas en raison d’un risque significatif à ce niveau mais en raison de l’anomalie qu’il traduit. En effet, en aval des installations nucléaires, il est attendu de retrouver des concentrations de quelques dizaines de Becquerels par litre, liées aux rejets normaux évoqués plus tôt.

Retrouver une concentration supérieure à 100 Bq/L est donc signe d’une anomalie, qui justifie une investigation afin de s’assurer qu’il n’y ait pas eu d’événement anormal, et notamment de rejets radioactifs multiples dont le tritium serait l’avant-garde, en raison de sa forte mobilité.

Facteurs de dose

Faisons un petit détour technique pour évoquer la notion de facteur de dose. C’est l’occasion pour moi de vous présenter l’arrêté du 1er septembre 2003. Un document de référence en sûreté/radioprotection, qui inscrit dans la loi les facteurs de dose calculés par la Commission International de Protection Radiologique.

Les facteurs de dose, ce sont des coefficients qui permettent de passer, en cas de contamination interne, des activités (en Bq) aux doses (en Sv). Autrement dit, pour une quantité de radioactivité égale, ils donnent la radiotoxicité, le risque.

Pour l’eau tritiée, dans le pire cas (c’est à dire chez l’enfant d’un an) et par ingestion, le facteur de dose s’élève à 64 pSv/Bq. Oui, picosievert. En comparaison, le potassium 40 naturellement présent dans l’organisme ou différents corps vivant, affiche une « dose par unité d’incorporation » de 62 nSv/Bq, car sa désintégration beta est très énergétique. Un Becquerel d’eau tritiée est donc environ mille fois moins nocif qu’un Becquerel de potassium 40.

Ce dernier, on le retrouve par exemple dans les bananes, à hauteur d’en moyenne 20 Bq par banane. Donc le potentiel radiotoxique d’une banane est égal à celui de 20 000 Bq d’eau tritiée. Étant admis qu’une consommation normale de bananes n’a jamais constitué un risque significatif d’irradiation interne, vous comprendrez que des activités en tritium de l’ordre de 100 Bq par litre d’eau bue sont très loin d’être un problème sanitaire.

La polémique

Les prémisses : détection d’un pic de tritium en janvier 2019

L’ACRO, Association pour le Contrôle de la Radioactivité dans l’Ouest, qui réalise des campagnes de mesures « indépendantes » de radioactivité dans l’environnement, a révélé en Juin une détection anormalement élevée de tritium en Janvier.

Étant habitués à relever dans la Loire, à Saumur, des activités jusqu’à 60 Bq/L, cohérentes en aval de plusieurs centrales nucléaire sur la Loire et la Vienne, ils ont indiqué avoir mesuré en Janvier une activité de 310 Bq/L. L’information a été prise au sérieux par l’ASN, l’IRSN et par EDF qui ont cherché jusqu’à l’automne une origine et une explication – on y reviendra à la fin de cet article.

S’agissant d’une seule mesure sur une campagne de 18 mois, et la valeur dans l’eau du fleuve étant très inférieure aux valeurs guides pour l’eau de consommation, il n’y avait pas lieu de parler de conséquences sanitaires. Les investigations qui devaient être lancées l’ont été, et la population n’a pas pour autant été mise en danger.

Traitement médiatique chargé

Cependant, une affaire de « contamination radioactive » révélée en période d’actualité peu fournie était une occasion inespérée pour la presse qui a abondamment relayé l’événement, avec plus ou moins de précision.

Pas de catastrophe et de titre excessivement anxiogène comme on aurait pu le craindre, mais deux ou trois remarques à faire tout de même.

Concernant les choix d’illustration, pas d’image excessivement anxiogène, caricaturale, ou autre. On a bien deux petits hors sujets, avec Europe 1 qui illustre avec la centrale de Cruas (sur le Rhône) et RTL avec une photo de Nantes (alors que Saumur est à 100 km de là), mais on a échappé aux photographies de tours aéroréfrigérantes de centrales à charbon.

Concernant les titres, à présent : j’aurais bien voulu les classer en fonction de leur caractère plus ou moins anxiogène, mais… Ils contiennent tous le mot « contamination », à juste titre, qui est, je pense, déjà anxiogène à lui seul.

D’ailleurs, un mot pour les journalistes qui me lisent : n’ayez pas peur du mot « contamination ». Il est souvent mis entre guillemets dans les titres, comme pour dire « c’est pas nous qui l’avons dit ! » Mais il ne faut pas avoir peur de ce mot. Un marquage d’un radioélément artificiel dans l’environnement, c’est bien une contamination, par définition. Pas de scrupules à avoir pour l’emploi du mot.

Du coup j’ai plutôt regardé les titres en fonction de leur exactitude. Ceux qui ne malmènent pas l’info, et qui ne l’amputent pas. Parce que, pour moi, l’info n’est pas que l’eau soit contaminée au tritium, ça, c’est un état normal, constant. C’est qu’il y ait eu un pic de contamination, en Janvier, une mesure qui excède d’un ordre de grandeur toutes les autres réalisées, et dépasse le loin les mesures réalisées par l’exploitant. C’est cette anomalie qui intrigue et qui constitue l’information.

Et la plupart des titres reprennent assez bien cette information-là. Avec plus ou moins de guillemets, mais sans rater le fait que la particularité, c’est le caractère « anormalement élevé », comme dit l’ACRO, d’une des mesures.

Certains articles, toutefois, passent à côté. Ils présentent la contamination comme étant une actualité (dans le titre, hein, le contenu est évidemment plus développé). Les gens n’ont probablement pas tous conscience que la radioactivité nous entoure ?

Et puis il y a les titres qui vont trop vite, ou en font un peu trop.

Et France Soir compte en « fois la normale », en confondant en plus la normale avec le seuil à 100 Bq/L.

Toutefois, dans l’ensemble, l’information est bien traitée. Mais.

22 articles. Pas moins de 22 articles et probablement quelques journaux télévisés, pour un pic de mesure ponctuel, local, sans enjeu sanitaire : n’est-ce ultra excessif ?

Avec une contamination maximale mesurée qui est d’environ 30 fois inférieure à la recommandation sanitaire OMS (qui elle-même prend de la marge avec les risques prouvés, notamment en supposant une consommation exclusive de cette eau), ponctuelle… C’est d’un petit événement interne à l’industrie dont il s’agit, qui ne mérite rationnellement qu’un traitement type « fait divers local ». Sans implication autre qu’une enquête interne à réaliser pour la centrale de Chinon. Il est frappant de voir l’ampleur médiatique que ça a pris malgré tout… Et ça a contribué à ce qui a suivi en Juillet.

La gravité perçue par le public des événements nucléaires est basée sur leur médiatisation en premier lieu ; la prise en compte des conséquences arrive bien après dans l’ordre d’importance.

Contre-exemple : une article en retard mais soigneusement mauvais

À une semaine d’écart, France 3 a sorti un article pour revenir sur « l’affaire » précédente, mais avec un article d’une qualité notablement inférieure à la quasi-totalité des précédents.

Nucléaire : du tritium dans les eaux de la Vienne, un danger ?

Commentaire de texte en image :

Juillet 2019 : l’emballement

En Juillet, la même ACRO a publié un communiqué, repris par le Canard Enchaîné et l’AFP, révélant la présence de tritium dans l’eau potable en région parisienne. Et là, les réseaux sociaux se sont enflammés.

Des images fake ont notamment été massivement diffusées, dans lesquelles était indiqué que la Préfecture d’Île-de-France avait pris un arrêté pour interdire la consommation d’eau du robinet.

Des messages audios circulaient sur Whatsapp et Messenger d’une prétendue infirmière indiquant que dans son hôpital, on avait détecté du « titanium » (sic) dans l’eau du robinet et qu’elle n’était plus consommée.

De manière général, une forte incitation était donnée à ne pas boire l’eau du robinet, alors même qu’une vague caniculaire s’abattait sur la France, avec des risques sanitaires très importants, et où le message à faire circuler était au contraire : BUVEZ, hydratez-vous. La désinformation galopante sur cette histoire de tritium était susceptible de faire des victimes.

Qu’en était-il réellement ? Et bien l’ACRO, pour l’eau potable, n’avait pas réalisé de mesure comme c’était le cas pour le pic de janvier, mais avait compilé et cartographié les teneurs en tritium dans l’eau potable mesurées les services du Ministère de la Santé. Il s’agissait donc de données connues des autorités, suivies par celles-ci, et publiques, et dont aucune n’atteignait 100 Bq/L ! L’alerte, pour ne dire la panique, a été massive bien que totalement injustifiée.

Les démentis par la Préfecture et les hôpitaux ont été assez rapides (j’ai en revanche noté la discrétion de l’IRSN et l’ASN, sur les réseaux sociaux et dans la presse), mais la peur et les scandales se répandent bien plus vite que l’information vérifiée et rassurante :

La carte mise en ligne par l’ACRO permet d’ailleurs de constater des communes où l’eau potable est dite « contaminée au tritium » pour des activités inférieures à 1 Bq/L (Paris X, XI, XVIII, XIX et XX par exemple), preuve s’il était besoin que la question sanitaire était exclue de leur démarche visant simplement à alarmer.

Ce récit touche à sa fin, mais je vous laisse profiter d’un article de Checknews qui relate plus en détail les événements de juillet.

Octobre : les investigations de l’IRSN

Si les annonces les plus médiatiques furent celles de juillet, elles ne présentaient aucun intérêt du point de vue de la sûreté nucléaire. En revanche, l’alerte de juin sur la contamination de janvier était à même de conduire à des investigations supplémentaires pour expliquer cette contamination atteignant 310 Bq/L.

L’Institut de Radioprotection et de Sûreté Nucléaire a publiés ses résultats en octobre, exposant les hypothèses qu’ils avaient considérées, si elles avaient été retenues ou écartées, et pour quelles raisons.

La première hypothèse envisagée était l’incident nucléaire, un rejet d’effluents radioactifs anormal par EDF. Hypothèse écartée par l’IRSN faute d’événement dans les installations d’EDF justifiant un rejet.

La deuxième hypothèse considérée est un rejet de tritium d’origine industrielle mais n’étant pas issue d’une centrale nucléaire. Mais aucune source potentielle de tritium n’a été identifiée par l’IRSN dans le bassin versant des centrales EDF.

La troisième hypothèse, jugée la plus vraisemblable par l’IRSN, est relative à la méthodologie de prélèvement de l’eau pour en assurer la surveillance et le contrôle. En aval de chaque centrale nucléaire, une « zone de bon mélange » est retenue comme le point à partir duquel l’eau tritiée s’est suffisamment mélangée à l’eau du fleuve pour qu’une mesure soit représentative de la contamination réelle du fleuve, et non pas d’une éventuelle veine particulièrement concentrée. La mesure de l’ACRO aurait pu avoir été réalisée dans des conditions hydrologiques particulières conduisant à déplacer la zone de bon mélange plus loin en aval, conduisant à une mesure non représentative par l’ACRO.

Néanmoins, afin de consolider cette hypothèse, l’IRSN prévoit de réaliser une nouvelle campagne de mesure dans des conditions aussi proches que possible des mesures ACRO.

La note d’information de l’IRSN.

Déchets #3 Greenpeace révèle la carte des déchets radioactifs

Disclaimer :
Ce thread / cet article s’apparente à un débunk d’une publication de Greenpeace France, notamment reprise dans un article du Parisien servant de support à ce décorticage. Retrouvez l’article du Parisien ici. Malgré quelques erreurs dans ce dernier, ce n’est pas l’article que je dénonce, mais le discours tenu par Greenpeace et les pseudo-révélations dont ils se targuent. L’article du Parisien n’est qu’un support, qui a été choisi pour la carte qui y est jointe… Vous allez comprendre dans la suite.

Alors que nous raconte le Parisien ce matin ? Et bien que Greenpeace a établi une carte des sites de stockage et transport des matières et déchets radioactifs, « une carte que nous nous sommes procurée en exclusivité ».

Qu’ils se sont procurés, hein. Elle n’a pas été livrée gentiment avec le communiqué de presse tout prêt-à-diffuser, personne n’irait imaginer ça. #Ghostwriting ? Rhoooo, tout de suite les grands mots…

Bon, cette carte, à quoi ressemble-t-elle ? Celle du Parisien est la même que celle de Greenpeace, à ceci près qu’ils prennent des couleurs différentes pour les axes de transport (on y reviendra) et les sites d’entreposage/stockage.

Carte dans l’article du Parisien
Carte sur le site de Greenpeace France

La version du Parisien a une grande qualité, c’est qu’elle dispose de filtres pour éliminer les points de transport et n’afficher que les entreposages/stockages. Et alléger la carte d’un tas de trucs pas très pertinents.

La carte du Parisien, avec et sans filtre sur les transports

Oui, non, parce que quand même, parlons-en des transports. C’est quoi ce délire de mettre des points pour les transports ? Mettre les routes/voies ferrées en couleur, ou faire des flèches, ça aurait pas été plus pertinent ? Parce que là, les mauvais esprits comme pas-du-tout-moi pourraient très bien aller dire que sur la carte de Greenpeace, les transports servent surtout à remplir des zones qui seraient vides et trop peu anxiogènes sans ça.
Comme ne le laisse pas du tout penser la ligne de points bleus entre Lyon et Dijon, ou les deux lignes qui partent des Pays de la Loire vers Caen. Deux régions bien vides quand on enlève les transports, il est vrai.

Mais bon, s’il n’y avait que ça qui n’allait pas, ça serait la dose quotidienne de peur fournie par Greenpeace, habilement gérée par le Parisien qui fournit ces filtres pour avoir quelque chose d’un peu plus… Factuel. Et ça aurait été bien.
Hélas, y’a d’autres choses qui clochent.
Comme par exemple, les mines. Dans les sites d’entreposage/stockage de déchets/matières (je vais juste dire « sites » dans la suite, sinon c’est chiant), il y a quelques anciennes mines d’uranium.

Alors oui, les mines contiennent leurs propres déchets, donc je conçois qu’on les fasse apparaître sur la carte. Pourquoi pas. Toutefois, sur l’explication de la « méthode » de la carte, Greenpeace nous apprend qu’il y aurait plus de 200 mines. Ils disent aussi n’en faire apparaître quelques unes, j’en compte 15.
Je comprends qu’ils ne mettent pas les 200, mais pourquoi 15, pourquoi celles-là… La méthode ne l’explique pas. De là à dire que c’est pour compléter le remplissage des zones un peu vide…

Au final, sur la carte, déduction faites des points qui représentent des transport (45% du total) et de ceux qui représentent des mines (10%), moins de la moitié représentent de vrais sites. C’est à l’infographie ce que le bourrage des urnes est à la politique, si vous voulez mon avis.

Et si vous le vouliez pas, désolé, c’est fait maintenant.

Bon, la catastrophe médiatique ne s’arrête pas là.
L’inénarrable Yannick Rousselet, chargé de campagne antinucléaire chez Greenpeace France (ce type a pour métier d’être antinucléaire, c’est quand même particulier) nous gratifie dans cet article de quelques habiles tirades à la médiocrité toute Greenpeacesque.

Parce qu’il faut savoir qu’une carte semblable, l’Agence Nationale pour la Gestion des Déchets Radioactifs (ANDRA) en met une à disposition, actualisée tous les 3 ans, très détaillée, sur le site de son Inventaire.

La carte est très détaillée, munie de filtre pour trier les déchets géographiquement mais aussi par catégorie (très faible activité, haute activité…), par origine… Si la transparence avait un portail, ce serait celui-ci !

Du coup,

Quelle est la valeur ajoutée par la carte de Greenpeace ?

me demanderez-vous ?

Et bien c’est une très bonne question ! Je pense que même les journalistes se sont un peu interrogés, parce que tous les articles que j’ai vu mentionnent la carte de l’ANDRA, je crois.

Et bien ce que nous apprend Rousselet, directeur de campagne antinucléaire chez Greenpeace France, c’est que leur plus-value, c’est de retirer de l’information.

C’est à dire que là où l’ANDRA vous donne les types de déchets, leur volume, leur activité…

Et vous donne des filtres pour une recherche assez fine – sans parler de la possibilité de télécharger les tableurs pour pousser la recherche – Greenpeace vous retire toute information potentiellement utile. Après tout, des déchets nucléaires sont des déchets, non ?

Le meilleur étant la petite sortie de Rousselet dans l’article du Parisien.

« L’Andra mélange les torchons et les serviettes. En y incluant par exemple des déchets issus des activités médicales. »

Donc Greenpeace a appliqué un filtre pour retirer les déchets du médical. Sans doute des déchets gentils. Ou de la radioactivité gentille. Par contre, ils ont retiré toute autre nuance. Et ont laissé mélangés le nucléaire électrogène, militaire, et les mines. Oh, et les industries de traitement des terres rares, qui produisent aussi des déchets radioactifs.

Les torchons, les serviettes, tout ça…

Y’a juste rien qui va dans la démarche de Greenpeace… Ils pompent des données publiques, en font une carte allégée de toute la transparence exigée à l’industrie nucléaire, avec des méthodes douteuse d’accroissement du caractère anxiogène, et se posent en héros.

Maintenant, au-delà de Greenpeace, y’a des trucs pas brillants de la part des journalistes… Je reviens sur l’article du Parisien :

Extrait de l’article

Ben ouais mais non… Ce sont 4% du combustible usé, qui sont vitrifiés… Soit 3000 ou 4000 m3 de déchets. Pas 4% des 1,6 millions de mètres cubes de déchets, ce qui ferait 64 000 m3. Une erreur d’un facteur 15 à 20…

En plus les vitrifiés ils sont entreposés sur les sites où on fait de la vitrif’, donc Marcoule (CEA) et l’usine de la Hague (Orano). Aucunement dans les centrales.

Extrait de l’article

Et là, ça ne va pas non plus. Ça a beau être une revendication de Greenpeace France, faire classer l’uranium de retraitement en déchet, actuellement, ce n’est pas le cas, et tu n’as pas le droit de présenter une revendication comme un fait acquis.

En pratique, VTC (vies très courtes) + TFA (très faibles activités) + FMAVC (faibles et moyennes activités à vies courtes), ça représente 91% du volume de déchets, qui a déjà une solution de stockage à long terme mise en oeuvre.

Le reste représente 142 000 m3 sur un total de 1 619 000. Du coup, dire que 95% nous restent sur les bras… C’est encore foireux.

Je pense qu’on ne pourra pas mieux conclure qu’ainsi :

Déchets #2 Pourquoi la France n’essaie-t-elle pas l’autre technique, l’enfouissement en subsurface ?

On les appelle entreposage, stockage, et « séparation-transmutation ». Dans le vocabulaire courant, la différence entre les deux premiers termes n’est pas évidente, alors on va éclaircir cela.

D’après l’article L542-1-1 du Code de l’Environnement, « l’entreposage […] est l’opération consistant à placer ces substances à titre temporaire dans une installation spécialement aménagée en surface ou en faible profondeur à cet effet avec intention de les retirer ultérieurement. »
Notez le « à titre temporaire » qui a toute son importance, car le même article donne aussi la définition du stockage : c’est « l’opération constant à placer ces substances dans une installation spécialement aménagée pour les conserver de façon potentiellement définitive […] sans intention de les retirer ultérieurement ». Connaître et comprendre ces définitions est capital pour débattre de ce sujet.

Je pense qu’il est intéressant aussi de parler de l’article L542-1 qui mentionne que « La recherche et la mise en oeuvre des moyens nécessaires à la mise en sécurité définitive des déchets radioactifs sont entreprises afin de prévenir ou de limiter les charges qui seront supportées par les générations futures ».

Ce passage est intéressant car il explique pourquoi l’entreposage n’a pas été retenu comme solution aux exigences de la loi de 91 : étant par définition temporaire, l’entreposage consiste à léguer aux mêmes générations futures l’essentiel des charges et risques. L’entreposage n’a d’autre but que l’attente, l’attente de la mise en oeuvre de l’une ou l’autre des deux autres solutions évoquées : le stockage et la séparation-transmutation.
Ce dernier consiste théoriquement à séparer les radionucléides aux demi-vies les plus longues des autres éléments contenus dans les déchets et, par irradiation de ceux-ci, les transformer en éléments à vie plus courte.

Compte tenu des difficultés théoriques, et à fortiori pratiques, dès 2005, il a été admis que la séparation-transmutation n’était pas une alternative au stockage géologique, au mieux un complément, une optimisation.

Et ce, notamment en raison de la difficulté à la mettre en oeuvre sur les déchets déjà produits, et, surtout, en raison de l’impossibilité d’envisager une fin du nucléaire si l’on repose sur cette méthode : il faudrait en permanence avoir des réacteurs pour irradier les déchets produits par des réacteurs. En terme d’irréversibilité totale, c’est le summum – ou, plus pragmatiquement, on en viendrait au final toujours au stockage géologique.

Et même dans une optique d’optimisation du stockage géologique, la séparation-transmutation s’est montrée moyennement convaincante. La transmutation du curium est trop dangereuse par rapport aux gains espérés, seul l’americium serait jouable.
L’IRSN s’est néanmoins prononcé sur ce point également en 2012, dans un avis sur une étude du CEA.

Sur le plan de la sûreté du stockage géologique, les gains escomptés seraient limités. En effet, la transmutation des actinides mineurs ne modifierait pas l’impact radiologique calculé du stockage ; elle permettrait toutefois de diminuer la charge thermique des déchets HAVL, ce qui constitue un élément favorable en termes de réduction de l’emprise souterraine et du volume excavé.

Au final, l’IRSN a considéré que les gains espérés de la transmutation des actinides mineurs, en termes de sûreté, de radioprotection et de gestion des déchets, n’apparaissaient pas décisifs au vu notamment des contraintes induites sur les installations du cycle du combustible, incluant les réacteurs et les transports.

Reste donc le stockage géologique comme seul moyen de gestion à long terme des déchets nucléaires qui respecte l’engagement de limiter au possible la charge pour les générations futures. Article L541-2, alinéa II-3°.

Maintenant, penchons nous, Emilie Cariou, sur ce que vous nous exposez dans Le Point.

L’essentiel de l’interview est intéressant… C’est lorsque vous déplorez qu’il faudrait que « de véritables recherches soient menées sur le stockage en subsurface, qui a l’avantage d’être réversible, et sur la séparation-transmutation », que ça devient honteux. Madame Cariou, le stockage ne peut se faire qu’en profondeur (pour raisons de sûreté à long terme) et sans réversibilité, du moins à long terme, puisqu’ayant vocation à être définitif (Cf. définition dans le code de l’environnement).

Ça, c’est un fait scientifique sur lequel vous n’êtes pas légitime pour revenir. En surface ou faible profondeur, il est impossible de réaliser quelque chose de fiable à long terme, il s’agirait donc d’entreposage.

Donc « stockage en subsurface », c’est impossible PAR DÉFINITION. Ce que vous proposez de réaliser en sub-surface, probablement parce que les lobbies antinucléaires militent activement pour en ce moment, c’est de l’entreposage. Temporaire.

Vous déplorez donc que « d’autres techniques n’ont pas été étudiées » en donnant pour exemple quelque chose d’étudié depuis 1991 et dont il est dit dans le Code de l’Environnement qu’il ne s’agit pas d’une alternative au stockage géologique. Votre proposition est en contradiction avec l’objectif de réduire la charge sur les générations futures, parce qu’elle consiste à faire du temporaire à durée indéterminée. Elle consiste tout simplement à ne rien faire et laisser nos descendants décider et agir.

Je ne pense pas que ce soit par malveillance, mais par ignorance. C’est regrettable, car à peu près tout ce que je raconte est très bien expliqué dans la fiche 7 de la note de synthèse de « clarification des controverses techniques », réalisée par la commission particulière en charge du débat public sur le Plan National de Gestion des Matières et Déchets Radioactifs.
Je parle là d’à peine 4 pages intitulées « Alternatives au stockage géologique profond » d’un dossier faisant partie des premiers documents mis à disposition au lancement du Débat Public.

La note de synthèse complète fait 37 pages très rapides à lire et accessibles à n’importe qui, sans connaissances particulières pré-requises, et a été avalisée par les différents acteurs du débat public, des industriels aux ONG antinucléaires.

Je pense qu’avant de donner votre avis dans la presse, vous auriez du commencer par lire ce document. J’espère au moins que ça sera fait avant la fin du débat public, ça me paraît indispensable pour la rapporteure du PNGMDR !

Enfin, le stockage géologique tel qu’actuellement envisagé est prévu pour être réversible pendant environ un siècle. C’est donc, en quelque sorte, de l’entreposage compatible avec une transformation en stockage. Cela veut dire qu’alors que nous créons des déchets nucléaires depuis bientôt un siècle, on se donne encore un siècle pour la recherche, avant d’engager des décisions irréversibles. Néanmoins, en commençant au plus tôt le stockage géologique, on évite de juste attendre, passifs, pendant tout ce temps : on donne le choix aux générations futures de sceller le stockage géologique, ou de revenir dessus.

Si on se contente d’attendre mieux, sans rien faire, on ne leur laisse aucun choix. Et puis, combien de temps faudrait-il attendre ? Deux siècles ? Mille ans ? Il y a un jour où vous envisageriez de trancher, ou l’on érige la procrastination comme maître mot ?

En résumé, après avoir défendu une option irréaliste par définition, vous terminez en proposant d’attendre passivement, sans prévoir de gestion à long terme des déchets nucléaires.
C’est une opinion approximative comme pourrait en avoir n’importe qui n’ayant pas particulièrement creusé le sujet, à commencer par la documentation mise à disposition par la CNDP. Et de la part de la rapporteure du PNGMDR je trouve que ça craint.

Une version TLDR des essentiels à retenir :

  1. Le stockage c’est définitif, l’entreposage c’est temporaire
  2. Pour les déchets de moyenne et haute activité à vie longue (MHAVL), l’entreposage c’est ce qu’on fait depuis toujours
  3. Il n’est pas envisagé de faire de l’entreposage à renouveler éternellement (générations futures, tout ça)
  4. La séparation-transmutation n’est pas une alternative au stockage en l’état actuel des connaissances
  5. On ne peut pas attendre éternellement en espérant un changement positif des connaissances, un jour
  6. Malgré tout, on n’engage aucune action définitive avant 100 ans
  7. Le stockage est donc la seule voie de gestion à long terme des MHAVL qui ne repose pas sur les géné. futures
  8. Le stockage n’est possible qu’en couches géologiques profondes
  9. Il faut lire la note de clarification des controverses du débat public avant de se lancer dans le débat, elle est vraiment excellente.

Le nucléaire c’est caca parce que Tchernobyl et Fukushima

Ouais, non.

Incanter « Tchernobyl ! Fukushima ! » ne constitue pas un argument. Ni un argument contre les technologies électronucléaires en général, ni contre l’emploi de l’énergie nucléaire en France, aujourd’hui et demain.
Ce n’est pas non plus un argument contre l’électronucléaire en général car des accidents isolés, à une échelle mondiale et sur plusieurs décennies, n’ont jamais enterré une quelconque filière industrielle.

Aucune catastrophe aérienne (y compris l’usage militaire de l’aviation) n’a incité à sortir de l’aéronautique, nul accident relatif au gaz, au pétrole, au charbon (notamment dans les mines) n’a jamais ralenti l’exploitation de ces ressources. Sans parler de l’industrie chimique !

Pis encore, à ceux qui s’exclament « Tchernobyl, Fukushima », je vous invite à répondre « Banqiao, Morvi » ! Ces noms que la mémoire collective a oublié sont pourtant ceux de deux catastrophes ayant touché des centrales électriques.
Oubliés, pourtant, ces deux catastrophes sont en mesure de reléguer les conséquences sanitaires des accidents de Tchernobyl et Fukushima au rang d’incidents mineurs!

Banqiao est probablement la pire catastrophe industrielle de l’Histoire. En 1975, sous les assauts d’un typhon, en Chine, le barrage de Banqiao, sur le Ru, a cédé. La vague qui en a résulté à conduit à la destruction, volontaire ou non, de 61 autres ouvrages.

Wikipédia nous indique 26 000 morts directs, et 145 000 autres dans les épidémies et la famine qui suivirent ; ainsi que 11 MILLIONS d’autres personnes touchées d’une manière ou d’une autre.
À côté, Tchernobyl, c’est quelques dizaines de morts directs, jusqu’à quelques milliers (évaluations très majorantes, cf. OMS/AIEA/UNSCEAR) indirectement, et quelques millions de personnes touchées (évacuées, vivant en zone fortement contaminée, etc.).

Quant à Morvi, c’est un autre barrage qui a rompu, en Inde, en 1979 (quatre mois après l’accident nucléaire de Three Mile Island, pourtant la mémoire collective a traité les deux accidents très inégalement…).
Ce coup-ci, on parle de 2000 à 15000 victimes. Comparons cette fois à Fukushima, et ses zéro victimes directes, et une fourchette haute à 2000 pour les victimes indirectes (quasi-exclusivement des victimes de l’évacuation, et non pas de la radioactivité).

Et nul de ces accidents n’a conduit à remettre en cause ni l’hydroélectricité, ni les barrages. On a remis en cause des choix de conception, des règles d’exploitation, des modes de gestion de crise, bref, on a « profité » si j’ose dire du retour d’expérience pour réduire à l’avenir le risque d’occurrence de tels événements et, éventuellement, mieux les gérer. Bref : du bon sens comme on en applique dans tous les domaines ! Y compris, en règle générale, dans le nucléaire.

On n’a jamais parlé de « sortir de l’hydraulique » au nom de Banqiao ou de Morvi. Ni mêmes des Trois Gorges (pas d’accident, mais des millions de déplacés définitifs pour pouvoir le construire). On n’a jamais parlé de sortir de la chimie au nom de Bhopal, ni décidé d’évacuer toutes les régions littorales du monde occidental suite au tsunami de 2004 en Asie du Sud-Est.

Donc, pour les mêmes raisons, « Fukushima et Tchernobyl » n’est pas un argument contre l’électronucléaire, mais pour son amélioration continue.

Ainsi, la prochaine fois que l’on vous avance « Fukushima, Tchernobyl ! » en guise de seul argument… Expliquez à votre interlocuteur qu’en appliquant ce même raisonnement, vous pouvez tout à fait vous exclamer « Banqiao, Morvi ! ».

Et à vous deux, par ce raisonnement simpliste, vous rejetez 75% de l’énergie bas-carbone mondiale (en comptant la biomasse dedans, sinon ça serait probablement plus de 90%). Démonstration par l’absurde d’un raisonnement… Pourri, disons-le clairement.

Maintenant, si l’on se concentre sur le cas français… Et l’analogie avec Tchernobyl, pour commencer. Ou pas, en fait, il n’y a pas d’analogie qui tienne, et qu’on se le dise une bonne fois pour toutes : les RBMK, comme ceux de Tchernobyl, à l’époque, niveau sûreté, c’était des réacteurs de merde.
Alors oui, en termes de performance économique (construction, exploitation) et industrielle (puissance, fiabilité), c’était peut-être la folie. Mais ça reste des réacteurs inflammables, sans enceinte de confinement, dotés de dispositifs de sûreté lents, désactivables…

Et, surtout, offrant une plage de fonctionnement dans laquelle ils étaient instables : une hausse de la température provoque une hausse de la puissance, donc de la température, donc de la puissance… Ce qui n’existe pas dans les réacteurs à eau, par leur conception même !
Dans nos réacteurs, une hausse de la température augmente le nombre de neutrons qui sont capturés par l’uranium 238 (non fissile) et par l’eau, et donc étouffe la réaction en chaîne ce qui fait baisser la puissance, donc la température.

Bref, le réacteur se stabilise tout seul, par physique (pas par des automatismes), en permanence.

Outre la misère dans la conception de Tchernobyl, il était mal exploité par des gens mal formés, et une fois l’accident survenu, la gestion de crise a été catastrophique avec un déni des autorités et une évacuation très tardive.
Rien n’allait, de bout en bout. Et rien n’était similaire au parc nucléaire français.

Dehors, donc, l’invocation de « Tchernobyyyyyl » pour parler du nucléaire en France. Reste peut-être Fukushima ? Et bien… Pas vraiment non plus.

D’une part, parce que ce sont encore des réacteurs de conception assez différente de celle des nôtres, mais certes plus proches de nos centrales que ne l’était Tchernobyl.

D’autre part, parce que les conditions ne sont pas les mêmes : le risque environnemental sur le littoral Pacifique japonais est sans commune mesure avec ce que l’on a en France !
Enfin ? Qui peut décemment établir que parce que des réacteurs ont pris un séisme de magnitude exceptionnelle (même pour le Japon), qu’ils ont fort bien encaissé d’ailleurs, et un tsunami historique, la France est en danger ?

En plus de cela, l’organisation de la sûreté nucléaire nippone avant Fukushima tranche avec l’image de rigueur que l’on a des japonais… L’autorité avait peu de pouvoir sur les industriels, tout en étant rattaché à un ministère dont le rôle était de promouvoir le nuc.

Bravo l’indépendance… C’est un peu comme si on demandait à l’ADEME son avis sur les énergies renouvelables, qu’elle a pour mission officielle de promouvoir. Mais là, on parle de sûreté nuc’, donc des enjeux bien plus grands.

Nonobstant tout cela, en imaginant que le cas Fukushima soit en tout point transposable à la France… Sa gravité est-elle suffisante pour exiger l’abandon total de l’énergie nucléaire, malgré les conséquences que cela aurait ?
Vraisemblablement pas, mais je vous renvoie du coup aux réflexions en première partie de ce thread. D’ailleurs, avec une trentaine ou une quarantaine de réacteurs à redémarrer, le programme nucléaire japonais se retrouve à être un des plus ambitieux au monde.
D’ailleurs, petit retour sur Tchernobyl : l’Ukraine ambitionne aujourd’hui de monter à 60% la part du nucléaire dans son mix électrique. Ce qui la hisserait au deuxième rang mondial, juste derrière nous !
Parce que, même pour les plus concernés, la raison conduit à pondérer la peur de l’accident nucléaire devant les risques d’une pénurie de gaz et d’électricité en plein hiver. Toutefois, ce ne sont plus des réacteurs à graphite qu’ils construisent, à présent.

Finalement, même si Tchernobyl et surtout Fukushima ont apporté énormément de retour d’expérience applicable à notre parc actuel et futur, l’accident de référence pour nous serait celui de Three Mile Island, qui aurait tout à fait pu se produire sur nos réacteurs à l’époque.

Mais bon, c’est bien moins vendeur. Comme Banqiao et Morvi, d’ailleurs, quasiment oubliés malgré l’ampleur des drames. J’ai coutume de dire que la gravité d’une catastrophe est jugée selon le nombre de caméras, pas de victimes…

Les centrales nucléaires peuvent-elles fonctionner plus de 40 ans ?

Sur Twitter, mes abonnés connaissent trop bien le sujet…

Mais ça mérite néanmoins une explication !

L’un des principaux aspects à considérer, pour tout outil industriel, est économique. Le réacteur rapporte de la thune, et le maintenir en service en coûte. Donc il arrive un moment où les deux flux peuvent se croiser. Autrement dit,

La durée de vie dans un projet de construction est la durée au bout de laquelle il faut réinjecter un coût similaire au coût de construction pour garder un niveau de service équivalent. Les ponts, par ex., ont une durée de vie de 100ans. (50 ans pour les bâtiment).

@roscoe867JN

Mais voilà. Dans un réacteur nucléaire, la maintenance a ses limites. On peut remplacer la plupart des composants, chaque pompe, chaque vanne, même les immenses générateurs de vapeur, mais…

Il faut que je précise un truc : on peut quasiment tout remplacer dans une centrale, (GV, tuyauterie, couvercle de la cuve…) mais pas la cuve. C’est donc la cuve qui limite la durée de vie de la centrale ^^.

@ferney_paul

La cuve, ce n’est pas un composant très complexe. Ça n’est pas un organe mobile comme une pompe ou une vanne, donc c’est très robuste. Mais une cuve, c’est au plus près du cœur, où a lieu la réaction en chaîne !

Ce n’est pas une histoire d’usure de la cuve, élément irremplaçable ?

@SyvlainBouquet

Et sous l’effet du flux de neutron qui s’échappe du cœur, les propriétés de l’acier de la cuve se dégradent, au fil du temps – ou plutôt, au fil du nombre de neutrons reçus. Donc c’est le nombre d’heures de fonctionnement du cœur qui va jouer, et la puissance de celui-ci, au premier ordre, plus que l’âge.

Et combien de temps, du coup, avant que la cuve ne soit trop endommagée ? 10 ans ? 40 ans ? 60 ans ?
Pourquoi les antinucléaires, les politiciens, les journalistes, disent toujours 40 ans ?
Et bien… La réponse est toute simple :

On connait le vieillissement de la cuve jusqu’à 40 ans et pas au delà ?

@JeffAtomique

en oui. En France, nos plus vieilles cuves ont environ 40 ans. Donc on sait, par une expérience échelle 1, comment évoluent les cuves jusqu’à 40 ans. Au-delà, on ne peut qu’estimer. Donc les antis considèrent que 40 ans c’est le max.

Et il y a quelques années, ils disaient 30. Et dans quelques années, ils diront 50. C’est simple, hein ! Mais il y a une autre raison pour laquelle le nombre de 40 ans revient plus souvent : l’âge de l’émancipation.

Parce qu’à cause des radiations la centrale devient vivante, évolue et s’en va achever sa mutation en éolienne dans un champ.

@DrimTim7

(C’est ma réponse préférée ^^)

Plus sérieusement : 40 ans, c’est une limite légale… Aux USA. Pays concepteur de nos réacteurs.

Parce que les licences américaines sont fixées à 40 ans pour des raisons « économiques antitrust » et non pour cause de vétusté. Ces licences sont renouvelables. 89 des 98 réacteurs américains le sont déjà, 2 étudient une 2ème prolongation (à 80 ans).

@rioujeanpierre

Pas en France, hein ! En France, on n’a pas délivré de « licence d’exploitation » pour une durée donnée. Les installations nucléaires n’ont pas de durée de vie légale au nom de la sûreté. Mais y’a une contrepartie :

Je crois qu’il n’y a pas de durée de vie des centrales définie par la loi, mais plutôt des inspections obligatoires durant le cycle de vie.

@Laurent_Grassin

Tous les 10 ans, les installations nucléaires sont soumises à l’obligation de procéder à un réexamen de sûreté, ou visite décennale. Une inspection exploitant+ASN ultra poussée de chaque composant de l’installation nucléaire, pour vérifier que le référentiel de sûreté initial de l’installation soit toujours respecté, et, mieux encore, qu’il est au niveau des dernières exigences réglementaires en vigueur. Le standard de sûreté d’une installation nuc aux USA, c’est celui de sa mise en service, lorsqu’est délivrée sa licence.

En France, le standard de sûreté, c’est celui de la décennie en cours. C’est particulièrement positif en termes de sûreté ! Et du coup, la raison pour laquelle on dit que la durée de vie est limitée à 40 ans :

C’est juste que le réexamen périodique a lieu tous les 10 ans et que les plus vieux 900 MW atteignent cet âge, non ?

@Jastrow75

Et oui. Les réacteurs sont autorisés à fonctionner 10 ans de plus, tous les 10 ans. Donc quand les plus vieux approchent 40 ans, leur limite, à ce moment, est de 40 ans. Logique.

Mais y’a aucune raison de considérer à priori qu’on ne peut pas renouveler une quatrième fois, comme les 3 d’avant. C’est juste un jalon, pas un plafond.

Impact des rejets radioactifs

Et le pire, c’est qu’elle y est AUTORISÉE ! Même par l’ASN ! Et le tritium, ce n’est que la partie émergée de l’iceberg qui fond ! Carbone 14, iode et gaz rares radioactifs, produits de fission et d’activation…

En tout, ce sont CENT QUARANTE MILLE MILLIARDS DE BECQUERELS que la centrale est autorisée à rejeter dans l’environnement. 140 000 000 000 000 de désintégrations PAR SECONDE, juste pour un an !

Bref, cet article, vous l’aurez compris, porte sur les rejets radioactifs des centrales nucléaires (ou autres installations), et la manière dont on en calcule l’impact sur la santé.

Cet article est un complément à un article précédent :

Rejets radioactifs de l’usine Orano la Hague

Il a pour but d’expliciter la méthode conduisant aux chiffres présentés dans cet ancien article.

Et pour ceux qui n’auraient pas les idées claires sur les notions de dose, d’exposition externe et de contamination interne ou externe, sur les différences entre alpha et gamma… Quelques rappels préliminaires ici.

Chiffres des rejets

On va commencer par une cascade de chiffres, pour avoir quelques ordres de grandeur en tête. C’est pas forcément intéressant à lire en détail, notez juste les écarts entre liquide/gazeux et entre les différents radionucléides 🙂.

Il s’agit des rejets radioactifs de la centrale de Nogent sur Seine, en 2017. Pourquoi celle-ci ? Parce qu’elle est en amont de Paris et donc est susceptible d’intéresser le plus grand nombre, tout simplement 😊 !

Tritium : 54 795 GBq par voie liquide, 1 154 par voie atmosphérique. 
Les limites légales sont respectivement de 83 886 et 8 000, donc atteintes à 65% et 14%.

Carbone 14
39 GBq par voie liquide, 318 GBq à l’atmosphère.
Limites : 190 et 1400. Atteintes à 21 et 23%.

Iodes radioactifs :
0,010 GBq dans l’eau, 0,090 GBq à l’atmosphère. 
Les limites sont à 0,10 et 0,80, atteintes à 10% et 11%.

Gaz rares (argon, krypton, xénon) radioactifs :
Uniquement par voie gazeuse, 4 366 GBq sur une limite à 45 000 atteinte à 10%.

Autres radionucléides
0,25 GBq par voie liquide, 0,0030 par voie atmosphérique.
Les limites respectives sont à 25 et 0,80, donc atteintes à max 1%.

Du coup, une centrale nucléaire, oui, ça rejette de la radioactivité dans l’environnement. Ça serait mentir de le nier.
Une centrale à charbon aussi, au passage. Ou une usine d’engrais phosphatés, ou de traitement de minerais quelconques.
Mais la bonne nouvelle, c’est qu’il y a des limites, et respectées avec des marges solides comme on l’a vu dans les chiffres précédents : au maximum, les rejets atteignent 65% de la limite (pour le tritium par voie liquide).

Relation dose-santé

Et ces limites, elles se basent sur quoi ?

Et bien entre autres sur la manière de respecter une exposition annuelle totale inférieure à 1 mSv pour les populations avoisinantes.
Il y a aussi des considérations liées à la biodiversité, par exemple, mais je vais me focaliser ici sur la santé humaine.

Rappels :
1 mSv (millisievert), c’est la dose maximale d’exposition autorisée, en France, à la radioactivité liée aux activités industrielles. Ça ne prend ni en compte la radioactivité naturelle (2,4 mSv/an en moyenne), ni l’exposition médicale.
Une dose efficace en mSv, ça prend en compte aussi bien le type de rayonnement que son énergie, le mode d’exposition (interne, externe…), la durée, et la cible (adulte, enfant…).
Une dose de 1000 mSv ou plus, on sait que ça a des effets directs (déterministes) sur la santé.
Une dose de 100 à 1000 mSv, ça a des effets probabilistes, ou stochastiques : va augmente les risques de contracter un cancer, notamment (en gros, de 0,5 points par centaine de mSv).
En dessous de 100 mSv, c’est flou. Y’a deux principaux modèles : le modèle à seuil (aucun effet jusqu’à 100 mSv), le modèle linéaire sans seuil (le risque croît linéairement avec la dose entre 0 et 100 mSv). La réalité est vraisemblablement quelque part entre les deux.

Tout ça pour dire qu’avec 1 mSv pour le public comme limite légale, on prend quand même une grosse marge.
Pour les personnes soumises à une exposition professionnelle, la limite est de 6 ou de 20 mSv/an selon la catégorie de personnel.

Bon, du coup, si les centrales faisaient tous leurs rejets aux limites légales, on aurait au maximum 1 mSv/an pour la population voisine.
C’est déjà rassurant, mais : 🙋 quelle est la véritable exposition, compte tenu des rejets réels ? ☝Comment elle se mesure ?

Établissement des relations entre limites de rejets et doses

Et bien on ne peut pas la mesurer directement en faisant porter des dosimètres aux riverains, par exemple.
Parce qu’à part quelques radionucléides, on serait sous le seuil de détection, donc la mesure serait assez pourrie.
Du coup, l’on construit des modèles physiques, qui représentent les transferts entre la cheminée ou la conduite de rejets, jusqu’aux organes des riverains. Et l’on consolide ces modèles a l’aide de mesures et simulations, évidemment, c’pas fait au doigt mouillé.
Et c’est ce type de modélisation que je vais tenter de vous décrire.

Primo, il faut lister les rejets, par radioélément et par mode de rejet. Ça, on l’a fait. Il faut aussi prendre en compte la forme physico-chimique de chacun. Ensuite, il faut construire une représentation de l’environnement : on le modélise alors comme un ensemble de boîtes, reliées par des systèmes de transfert au sein desquels circulent les radioéléments.

Illustrons avec un cas simple, les rejets liquides. Cette modélisation ressemblerait à ça :

Les radionucléides peuvent sédimenter ou rester en suspension/solution dans l’eau, où ils sont susceptibles d’être absorbés par la faune aquatique, qui est elle-même susceptible d’être absorbée par les consommateurs de poisson ou fruits de mer (bon, pas pour Nogent 😇).

Maintenant, un cas plus complexe, les rejets gazeux. On va y aller pas à pas. Pour commencer, on va juste reprendre le schéma précédent et en changer la configuration – pas le contenu. 
Et lui donner une sombre teinte bleutée, parce que… Je trouve ça joli.

Tout y est, on est d’accord ? On se le met de côté, on reviendra le chercher plus tard. Maintenant, on ne va plus regarder que les rejets atmosphériques. 

Au début, c’est simple : de la radioactivité dans l’air, ça fait des rayonnements qui nous frappent.

Cet air radioactif, on ne fait pas que s’y mouvoir. On le respire aussi, un peu.
Et donc on inhale des atomes radioactifs qui, selon leur forme chimique, pourraient bien être retenus par nos poumons, voire être transférés dans le sang. 
Exposition interne, donc.

Maintenant ça devient rigolo.
Depuis le début, je fais de gros efforts pour parler de rejets à l’atmosphère, ou atmosphériques, et éviter de dire « gazeux ».
Parce qu’on n’a pas que des gaz, qui s’échappent des cheminées.

On a aussi des aérosols, autrement dit, des particules en suspension qui sont susceptibles de venir se déposer sur les sols, sur la végétation, et notamment s’il pleut. En effet, la pluie entraîne les aérosols avec elle.

D’ailleurs on peut faire pleuvoir dans l’enceinte de confinement, au titre de la mitigation d’un accident grave, pour piéger les aérosols et évite leur libération dans l’atmosphère si l’accident empire.

Mais revenons à nos rejets non accidentels : on a donc des dépôts radioactifs qui se forment sur la végétation (les feuilles surtout) et les sols. 
Et les dépôts au sol nous rayonnent dessus, sur la durée.

Quant aux dépôts sur les végétaux, ils vont circuler dans la plante et donc intégrer nos cultures, et, in fine, notre alimentation. 

Eeeet… Pas que la nôtre. Celle de nos élevages, aussi. 
(Vais-je attirer la hire de végétariens en mentionnant ce point ?)Et du coup, via la viande et le lait, les radionucléides vont se frayer un autre chemin vers nos assiettes et donc notre organisme. 

J’ajoute ça à mon diagramme, j’incorpore mes rejets liquides que j’avais mis de côté…

Et j’ai mon diagramme avec toutes mes boîtes et mes transferts !

D’ailleurs, depuis le début je parle de radionucléides, mais la méthode doit être assez semblable pour n’importe quels rejets chimiques également, quelle que soit l’industrie.

Par ailleurs, dans cet exposé, je zappe tout un pan du modèle… Tous les rejets dans les cours d’eau, qui alimentent les Hommes, la faune, et servent à irriguer les cultures qui alimentent les Hommes et la faune, tout en drainant éventuellement des sédiments et lavant les dépôts… Bref ça part dans tous les sens avec des interactions supplémentaires de partout, donc sachez que ça existe et c’est intégré dans les études, même si je ne développe pas !

Bref : modèles et mesures permettent d’établir des facteurs de transfert entres les différentes cases. Par exemple, la dispersion dans l’air, en fonction des vents et de l’altitude des points de rejets. Car plus on rejette haut, mieux ça se disperse avant de toucher le sol ! Du coup, la hauteur des cheminées des usines est souvent corrélée à la nocivité des rejets – ou en tout cas à la volonté de les diluer au mieux.

Sachant ceci, je trouve assez rassurant de voir que les cheminées des centrales nucléaires (attention ! je parle des cheminées, pas des tours de refroidissement !) n’atteignent pas 100 m… Alors que pour les centrales à biomasse (EnR !) ou charbon, on peut dépasser 300 m !

On a aussi des facteurs de dilution dans les eaux, de concentration dans la faune ou les sédiments, des facteurs de transfert à l’Homme en fonction des régimes alimentaires, de transfert des feuilles des végétaux vers les fruits ou les racines… Et, évidemment, des facteurs de conversion de l’exposition (externe ou interne) en dose.

Tout ceci, à chaque fois que c’est nécessaire, est nuancé pour chaque radionucléide : les gaz ne se déposent pas sur le sol, l’iode ne se concentre pas de la même façon dans les fruits de mer et dans les sédiments…

Et aussi nuancé par groupe de population : un agriculteur n’aura pas la même exposition qu’un citadin, un enfant sera plus vulnérable qu’un adulte, n’aura pas la même alimentation, le même débit respiratoire, etc.

Résultats

Tout ça c’est bien beau, mais pour quel résultat ? Il est de combien, l’impact réel de ces rejets de Nogent sur les Parisiens partent dans la campagne fuir la pollution le week-end ?

Voilà ce que ça donne pour 2017, en nSv.
Un nanosievert, c’est un milliardième de Sievert, c’est un millionième de la dose légale de 1 mSv/an dont on discutait au début.

On calcule les doses pour l’adulte, l’enfant de 10 ans, l’enfant d’1 an. Et ce, bien sûr, pour le groupe de population le plus impacté que l’ont ait identifié.

  • Rejets atmosphériques :
    • 8 nSv pour l’adulte
    • 8 nSv pour l’enfant de 10 ans
    • 13 nSv pour le bambin
  • Rejets liquides :
    • 340 nSv pour l’adulte
    • 390 nSv pour l’enfant
    • 480 nSv pour le bambin
  • Total :
    • Adulte : 348 nSv
    • Enfant : 398 nSv
    • Bambin : 493 nSv

Banana For Scale

L’ingestion d’une banane équivaut à l’engagement d’une dose efficace d’environ 120 nSv (source).

Donc pour la population la plus exposée aux rejets radioactifs de la centrale nucléaire de Nogent… 3 à 4 bananes par an.

Plus précisément, 2,9 bananes par an pour l’adulte, 4,1 bananes pour l’enfant d’un an : voilà l’ordre de grandeur du maximum de radioactivité auquel on s’expose en vivant un an à proximité d’une centrale nucléaire comme celle là.

Les drama s’effondrent !

La CRIIRAD préférera parler en « fois la normale ». Privilégiez plutôt la banane comme échelle de référence !

Source : XKCD

ADEM…ystifier

Introduction

En décembre 2018, sans se cacher d’une certaine politisation du calendrier en raison du débat public sur la Programmation Pluriannuelle de l’Énergie qui battait son plein, l’ADEME nous a gratifié d’une nouvelle étude sur le futur du système électrique français.

Ou, plus exactement, la synthèse de l’étude, promettant la diffusion ultérieure de l’étude complète. Néanmoins, à ce jour, la synthèse attend toujours d’être appuyée de l’étude complète.

Dans cette étude, l’ADEME « prévoit […] un fort développement de la part des énergies renouvelables, estimée à 85% en moyenne en 2050 et à plus de 95% en 2060. » Tout en taclant la production nucléaire : le parc actuel pourrait être en partie mis à profit du développement des énergies renouvelables, tandis que la création d’une nouvelle filière (EPR) serait écartée car non compétitive.

Une lecture attentive mais non experte permet néanmoins de nuancer en profondeur les affirmations trop catégoriques du communiqué de presse, repris abondamment dans les médias le jour de la parution de la synthèse, avec un manque d’esprit critique peu surprenant. Les critiques vinrent ultérieurement, mais comme toujours… La première idée était diffusée, et bien plus que ne peuvent espérer l’être les critiques.

Il s’agira ici de présenter mes propres relevés de lecture de cette synthèse, mais bien d’autres peuvent être trouvées sur le web, parfois concordantes, parfois dissonantes, parfois plus complètes, parfois plus approfondies sur certains points… Un certain nombre de ces réflexions sont référencées sur Twitter sous le mot-dièse #ADEMystifier.

Ma lecture de ce document ne sera pas un « debunk ». Je pense que l’on à affaire à des personnes compétentes et honnêtes, parmi les rédacteurs, capables de poser des hypothèses, dérouler un raisonnement et des méthodes sérieux, et aboutir à une conclusion. Le but ne sera donc pas de s’attaquer aux méthodes, mais plutôt de balayer du regard les hypothèses à la base.

En effet, lorsque des scientifiques établissent un raisonnement type « si A est vrai, alors B est possible », la retranscription dans les médias et l’opinion publique est, bien souvent, « B est possible », quand ce n’est carrément « B est vrai ». La notion d’hypothèse, de condition, est omise.

Ce sont donc ces hypothèses sur lesquelles nous allons nous pencher, et discuter des plus amusantes et fantaisistes, s’il y en a (spoiler : il y en a).

Pour commencer, je vous invite à lire cet excellent et court thread. Des remarques intelligentes sur lesquelles il n’est donc pas intéressant de revenir.

Édito

C’est avec l’éditorial du document que nous commençons cette lecture. Lequel appelle, d’emblée, à une réflexion sur l’étude ADEME de 2015, valorisant la possibilité et l’intérêt d’un mix électrique 100% EnR et très largement diffusée à l’époque.
Voilà ce qu’on peut en lire :

« Cette étude à caractère technique ne prétendait en rien définir une trajectoire souhaitable du mix électrique. »

Cette affirmation ne tranche en rien avec ce que l’ADEME prétendait alors. En revanche, on pourra trouver un paquet d’articles dans la presse, de discours de politiciens, ou de communiqués d’ONG environnementalistes, disant ouvertement l’inverse.

L’édito contient également un avertissement relatif à cette nouvelle étude, et cela mérite d’être rappelé dans les articles de presse relayant l’étude – il faudrait vérifier s’ils l’ont fait :

Cette étude ne dit rien, bien sûr, des autres considérations d’ordre social, industriel ou environnemental.

L’ADEME est franche et le dit ouvertement dès la page 1 de sa synthèse. C’est une étude dont le périmètre est limité et les limites très clairement identifiées et énoncées. On jugera si la presse et les ONG ont repris cette précaution, où l’ont écartées… Si « Si A est vrai, alors B est possible » a bel et bien perdu son « Si A est vrai ».

Résultats clés

Page 2 de la synthèse. On nous présente des résultats, donc il n’y a pas vraiment d’hypothèse à relever, mais des éléments intéressants toutefois.

Le surcoût de développement d’une filière industrielle EPR (24 GW en 2060) serait au minimum de 39 milliards d’euros pour la nation.

Mais du coup, que l’on m’explique ce tweet ?

En vérité, page 2, une note de bas de page nous indique que ce calcul aboutit à 39 G€ avec un taux d’actualisation de 2,5%. Sans actualisation, le surcoût est alors de 85 G€, comme indiqué dans le tweet.
Le jour même de la parution de la synthèse, donc, l’ADEME elle-même, sur les réseaux sociaux, communiquait des résultats en faisant déjà l’impasse sur les hypothèses derrière…

Méthodologie et principales hypothèses

À cette page, l’ADEME nous re-confirme retenir un taux d’actualisation de 2,5%. Je n’ai pas les compétences pour le juger, je le prends volontiers tel quel. Sans faire d’exception en retenant 0% quand ça m’arrange ! Ce procédé est pour le moins… Litigieux.

On voit également à cette page que sur la consommation nationale d’électricité, on a un scénario « demande basse, où l’électricité passe de 25 à 40% de la consommation française d’énergie finale (pompes à chaleur, voitures électriques…) mais baisse nettement en valeur absolue (d’environ 450 TWh à environ 400).
Bon, consommer moins d’électricité en recourant plus souvent à l’électricité me paraît assez fantaisiste, mais il y a aussi un scénario « demande haute » pour lequel la consommation est en augmentation, et les deux sont pris en compte, donc c’est réglo.

Concernant le taux d’actualisation, on y revient aux pages 6 et 7, où l’on parle de 5,25% pour les EnR et 7,5% pour le nucléaire, dans les calculs de LCOE (levelized cost of electricity). Si la différence entre les deux se discute, elle est toutefois expliquée : c’est la rémunération des risques financiers, jugée plus élevée pour les investissements dans le nucléaire, qui l’expliquerait. En revanche, la raison pour laquelle on a perdu les 2,5% dont il était auparavant question m’échappe.

L’on m’a suggéré que le 2,5% pourrait être un taux d’actualisation, tandis que les 5,25 et 7,5% n’en sont pas (il s’agirait d’une coquille), mais des taux de rendement des financiers – qui exigent des rémunérations plus élevées pour les investissements plus risqués, ce qui serait cohérent avec l’explication avancée ci-avant. Je me permets de rester sur cette explication.

Coût de production de l’électricité renouvelable

Nous sommes toujours pages 6 et 7, où l’on peut constater les ambitions importantes quant à la baisse des prix des énergies renouvelables. En particulier, une décroissance exponentielle pour l’éolien offshore : de 140-180 €/MWh en 2020, elle baisse à 100-120 en 2025, 70-90 en 2030 et 60-80 €/MWh en 2040. L’éolien onshore arrive également à beaucoup baisser, de 70 à 40 €/MWh, et 70 à 30 €/MWh pour le solaire photovoltaïque au sol.

Bref : ce qui est cher baissera beaucoup, et ce qui a déjà beaucoup baissé continuera à baisser. Chacun appréciera !

Pays voisins

Concernant les pays voisins, l’ADEME reprend les hypothèses d’autres études, dont une réalisée par l’ENTSO-E.
Mais pas pour l’Allemagne, où ils se basent sur la promesse, purement politique, d’un mix électrique à 65% renouvelable en 2030. À démystifier, hein ? 😉

On se retrouve donc avec l’hypothèse d’une sortie totale du charbon en Europe de l’Ouest (jusqu’à la Slovaquie et la Slovénie, mais Pologne exclus) entre 2035 et 2040. Au moins une hypothèse que je souhaite très fort être vraie.

Lien entre nucléaire et gaz

L’étude réalise plusieurs scénarios qu’elle compare. Il en existe un où l’on sort du nucléaire au plus vite, en arrêtant un tiers des réacteurs actuels à 40 ans (ça, c’est dans tous les scénarios) et les deux tiers restants à 50 ans. Un scénario à la Greenpeace, EELV, LFI, etc., quoi. Encore que pour certains, si on leur laissait le choix, ils arrêteraient tout le parc à 40 ans.

Et bien ce scénario est le seul qui aboutit à la construction de nouvelles centrales à gaz. 15 GW, pour 12% du mix électrique en 2040.

Donc l’ADEME elle-même confirme qu’une fermeture prématurée du parc nucléaire est une connerie pour nos émissions de gaz à effet de serre. Si les organismes politiques ou non gouvernementaux cités plus tôt savaient lire aussi ce qui ne conforte pas leurs croyances…

Intermittence

Voilà un sujet intéressant !

En 2050, l’ADEME considère que 80% de la capacité de stockage que constituent les véhicules électriques est pilotable, et mise à contribution pour assurer la stabilité du réseau. Vous sentez venir cet âge où l’on chargera sa voiture sur autorisation, si les vents sont favorables, et où l’on sera obligés de décharger la voiture pour se chauffer en vague de froid ?

Ensuite, on arrive sur un des meilleurs moments de la lecture de ce rapport. Les exemples de courbes de production et de consommation électrique en 2050.

Cette courbe a été très moquée, mais je ne vais pas me priver d’en rajouter une couche !

Ce qui saute aux yeux en premier lieu, c’est le coup de la « semaine d’hiver ». Un début septembre bien ensoleillé (jusqu’à 40 GW de solaire sur un parc de 80 GW). Une semaine d’hiver en début septembre. Voilà qui est annonciateur d’un dimensionnement solide pour passer les pics de consommation de l’été, en février !

On saluera aussi la quasi-disparition du pic de consommation du soir, y compris dans la « demande non pilotable ». Le profil de consommation des français a donc changé pour permettre aux énergies renouvelables de gagner en pertinence…

On voit aussi la part importante de l’industrie que l’on peut effacer si besoin, les 7-8 GW de batteries en plus des voitures électriques… Lesquelles sont d’ailleurs largement mises à profit, parfois le soir, parfois en journée. Selon les besoins du réseau – pas vos besoins à vous, non. Bref, les usagers sont largement asservis au vent et à l’ensoleillement. Tu m’étonnes qu’un mix 80% renouvelable soit intéressant dans ces conditions…

Les importations sont conséquentes, notamment la nuit.

La biomasse et la méthanisation sont à peu près aussi présentes que l’hydraulique. Je rappelle que l’impact environnemental n’est pas étudié, point à garder en tête lorsque l’on parle biomasse.

On a également une jolie base de 5 GW de « Autres EnR » : houlomoteur, hydroliennes, géothermie, incinération des déchets… Encore un élément à garder en tête, parce que non évident.

Mais ce qui m’intéresse le plus, c’est que l’on voit que l’on s’en sort avec 3 jours pauvres en production éolienne (mais riches en production solaire), et qu’on en appelle déjà, dans ces conditions, au gaz et aux importations. Mais qu’est-ce que ça va donner lors du vrai hiver, quand le solaire est insignifiant, et si l’éolien vient à manquer !

Prix consommateur du kilowattheure

Encore un grand moment. Une des plus belles perles.

Page 13, on nous présente que le scénario dit « de référence » aboutit à un MWh entre 90 et 95€ à partir de 2040, après un pic à 105 €/MWh en 2030. En comptant une large part de coûts de réseau, d’EnR, d’imports…
On pourrait tiquer sur le fait que le coût des batteries et de la flexibilité soient jugés dérisoire, mais on n’est pas là pour ça.

Les coûts semblent bel et bien tout inclure. Ou presque : il est précisé qu’ils n’incluent pas…
Suspense…

Ils n’incluent pas les coûts relatifs à l’efficacité énergétique. Ah. Bon, Ok, d’un autre côté, c’est normal de ne pas les compter dans le coût de l’électricité. Mais on les comptera dans le coût total du scénario, hein ?

Et bien, c’est à dire que… Je vous ai déjà montré ma collection de timbres ? *diversion*

Coût des scénarios de transition

Non, ils ne le sont pas. Il y a même un scénario nommé « efficacité énergétique », qui ne prend pas en compte les coûts liés aux efforts d’efficacité énergétique.

C’est même, des sept scénarios étudiés, le moins cher ! Forcément, puisqu’il repose sur un effort important dont on ne chiffre pas le coût…

Quand on regarde tout ça, en écartant le premier scénario, absurde, il reste 6 scénarios dont le coût avoisine 1300 milliards d’euros, avec une plage de variation de 40 milliards (3%) entre le moins cher (« prolongement nucléaire facile ») et le plus cher (« EPR en série »). Du coup, je m’interroge : l’ADEME établit un classement entre six scénarios pour déterminer un cas optimal, alors que l’écart entre chacun de ceux-ci est très faible.

Quel impact sur le classement si l’éolien coût 5% plus cher que prévu ? Si les taux d’actualisation sont à décaler de 0,5 points ? Comment s’en tirent les différentes trajectoires si les pays voisins ne suivent pas les trajectoires qu’on leur prête ? Si le public n’accepte pas de fournir gratuitement ce qu’on attend de lui en flexibilité ? Les coûts projetés de la filière batterie (en véhicule électrique ou en parcs de batteries) et ceux de la filière power-to-hydrogen, hautement hypothétiques, peuvent-ils bousculer les comparaisons ?

Il me paraît fort présomptueux, au vu de l’incertitude sur les hypothèses et les faibles écarts sur les résultats, d’avancer de manière ferme que telle ou telle trajectoire est moins chère qu’une autre. Pas vous ?

Les scénarios sont tellement proches qu’un simple petit ajustement, très léger, de quelques hypothèses peut changer le classement, à mon avis. Et ce constat fait, je rappelle l’un des rôles de l’ADEME, telle que fixés par l’article L131-3 du Code de l’Environnement :

[…] Cet établissement public exerce des actions, notamment d’orientation et d’animation de la recherche, de prestation de services, d’information et d’incitations dans chacun des domaines suivants : […] 4° La réalisation d’économies d’énergie et de matières premières et le développement des énergies renouvelables, notamment d’origine végétale ; […]

En étant un poil médisant, je pourrais aller jusqu’à envisager que si l’ADEME se retrouve à choisir entre deux hypothèses allant en faveur du nucléaire ou des énergies renouvelables, la loi lui impose de choisir la seconde.

Bref, continuons un peu…

Le parc nucléaire historique

Globalement, sur ce sujet, leurs hypothèses me paraissent raisonnables. Ils supposent systématiquement la fermeture d’un tiers des réacteurs à 50 ans, quel que soit le scénario, mais c’est présenté comme une hypothèse conservative, dans le cas où EDF ne parviendrait pas à obtenir la prolongation de la totalité des réacteurs, ce qui est discutable, mais pas insensé.

Il est dit, toutefois, que prolonger tout le parc à 60 ans nous coûterait de l’argent à partir de 2040, à cause des « pertes d’opportunité ». C’est à dire que le nucléaire français serait la cause d’une surcapacité à l’échelle européenne, faisant baisser les prix de marché et donc faisant baisser sa propre rentabilité, ainsi que celle des EnR qui nous coûteraient donc plus cher en compléments de rémunération.

Ok, le raisonnement semble se tenir. MAIS.

Est-ce que l’on est en train de parler de construire 80 GW de solaire, 90 GW d’éolien, 20 GW de stockage… Et de mettre sur le compte du parc nucléaire historique le problème de surcapacités ? Et bien oui, ma p’tite dame !

Ceci étant dit, entre 2050 et 2060, selon les scénarios, on devient importateurs nets d’électricité, donc j’ai bien envie de dire qu’on aurait intérêt à avoir des surcapacités pour faire baisser les prix de marché, hmm ? Toutefois, ils admettent sur ce point que leur modèle n’est pas apte à réaliser des projections solides au-delà de 2050.

Fin et conclusion

S’ensuit tout un passage sur le marché, je ne vais pas trop m’y immerger. Puis un autre sur la stabilité en fréquence du réseau, mais le thread de Nicolas Goldberg cité au début de cet article dit tout ce qu’il y a à dire dessus. Mais il y a quand même un gros trou dans cette étude à ce sujet. Ses auteurs, toutefois, le reconnaissent et proposent des pistes pour améliorer la stabilité en fréquence. À ne pas oublier lorsque des politiciens viendront présenter cette étude comme une trajectoire « prête à adopter » !

Enfin, la synthèse se termine par une pleine page « Limites et perspectives ». Un beau geste de transparence (« limites identifiées et énoncées », disais-je plus tôt). Et parfois des aveux folkloriques.

La compétitivité des EnR françaises face aux EnR à l’étranger n’a pas été étudiée.

Donc toutes les hypothèses sur la rentabilité des importations et exportations sont plus ou moins infondées, si je comprends bien ? Celles qui servaient à disqualifier la rentabilité d’un prolongement maximal du parc nucléaire ?

L’optimisation économique n’intègre pas de considérations ni d’indicateurs d’ordre social, environnemental ou industriel, comme les impacts sur l’emploi, sur l’environnement (sol, paysages, biodiversité, consommation de matériaux, etc.) ou sur le positionnement des industriels français sur les nouvelles technologies qui pourraient être susceptibles de conduire à un optimum différent, dans le sens du développement durable.

C’était dit, c’est répété, et il est vraiment important de garder en tête ces limites.

Je vais conclure en parlant de la forme : il y a pas mal de coquilles. Je ne vais pas m’amuser à les énumérer, ça serait lourd et mesquin, mais il y a clairement un côté « pas fini ». Ce n’est pas grave, hein, mais ça tend à confirmer qu’il y a eu une accélération du process pour sortir le document en plein débat public. Un calendrier politique, donc.

Allez, le mot de la fin : l’ADEME a produit un travail, à priori, sérieux et intéressant.

Mais s’est livré à un jeu de communication beaucoup moins intègre, et qui ne peut qu’être amplifié dans la presse et les politiques. Alors… Soyez vigilants. Tout simplement !