Suivi de charge exotique du parc nucléaire

Un thread sur les actualités du système électrique, en Mars : fin d’hiver, consommation encore élevée au moindre frimas, en chute libre au moindre rayon de soleil ; parc nucléaire qui baisse en charge, réservoirs des barrages bien épuisés, bref : des conditions contraignantes favorables à des comportements exotiques du système électrique français.

Retrouvez également ce billet sur l’Energeek !

Là, y’avait un truc qui n’allait pas. De 50 réacteurs environ depuis plusieurs semaines, on était à 40 dimanche. Et après vérification des données à la recherche d’un artefact… Nan, pas de doute. Il s’était manifestement passé quelque chose sur le réseau.

Vérification de la consommation : elle était très basse ce dimanche, même pour un dimanche (ci-dessous, la consommation depuis le 1er Février).

Juste pour « rire », la comparaison des fin février/début mars 2018 et 2019. Les deux graphes sont à la même échelle. 15 GW d’écart, vague de froid VS vague de chaleur :

Bon, du coup, consommation faible, et, le parc nucléaire…

😱

Cette chute de production ! 10 GW qui se sont perdus dans la nuit de samedi à dimanche – ça colle aux 10 réacteurs que j’ai perdus sur mon premier graphique.

Ce qui a conduit à cette situation assez extrême, c’est qu’en plus d’une consommation basse, mais pas exceptionnelle non plus… On a le vent qui s’est déchaîné. Et la production éolienne avec. Un dimanche.

Production éolienne énorme, consommation minimale.
Or, on rappelle, en France, les éoliennes, les panneaux solaires et les centrales hydroélectriques en écluses et au fil de l’eau ont la priorité sur le réseau.

Conséquence : les stations de pompage pompent tout ce qu’elles peuvent, et une fois l’hydraulique et le gaz au plus bas, il ne reste que le nucléaire à étouffer. Et l’hydraulique et le gaz étaient effectivement au plus bas.

Pour l’hydraulique, STEP à 0 (forcément, on pompe !), lacs à quasiment rien (sans doute le minimum pour les étiages des avals), et même l’hydraulique au fil de l’eau était minimisée.

Pour le gaz, on a juste gardé les centrales à cogénération, parce qu’il faut bien chauffer ceux qui en dépendent (ça, et des obligations contractuelles).

Et évidemment, en telle situation de surcapacité, les prix de marché ont une drôle d’allure. Alors que la moyenne est autour de 40 €/MWh, la France, la Suisse et la Belgique ont du se contenter de prix autour de 10-20 €/MWh. Quant à l’Allemagne, l’Autriche et le Luxembourg, ils sont tombés autour de 0, avec des moments de prix négatifs (ils payent pour qu’on les soulage de leur surproduction).

D’ailleurs, EDF ne s’est pas privé d’importer l’électricité au travers de ses frontières Nord-Est, à prix nuls ou négatifs, pour les réexporter à des prix plus significatifs à ses autres frontières ^^.

Si on fait un détour par l’Allemagne, ça n’est pas la joie. Le système électrique s’est fait écraser par la production éolienne, au point de devoir diminuer même la production de leurs centrales nucléaires, pourtant pas faites pour faire du suivi de charge.

Revenons en France. Le dimanche a (hélas) fini par s’achever et l’activité a repris lundi, et la consommation électrique avec. Pas à un niveau très élevé, mais vu que l’on partait de très bas, ça faisait une belle rampe, comme tous les lundi matin.

L’éolien a eu la décence de ne pas s’effacer à ce moment là, et l’hydraulique a fait son habituel retour, en réouvrant les vannes des barrages et ses STEP. Mais alors le nucléaire… Cette remontée en puissance !

😵

J’ai déjà parlé du suivi de charge que permettait le nucléaire français. Mais là, à ceux qui disent que le nucléaire n’est pas flexible, on peut à présent répondre sans explication, rien qu’avec cette image. 10 GW d’amplitude, avec des variations franchement rapides !

Là je pars un peu loin : j’ai tracé les dérivées de quelques courbes. Autrement dit, la variation de la puissance délivrée (ou consommée), une évaluation de la raideur des pentes de production. L’éolien, plutôt sage, n’a pas dépassé les 30 MW/min de variation à la hausse ou à la baisse. Et c’était largement à la portée du nucléaire, qui a affiché de nombreuses variations de 50 à plus de 100 MW/min à la hausse !

Par contre, la consommation ne s’est pas privée d’aller chercher + de 150 MW/min. Donc la flexibilité du nucléaire est un peu limite pour suivre la consommation ; on le savait et c’est tout l’intérêt de l’hydraulique et, dans une moindre mesure, du gaz.
Le nucléaire a vraiment montré ici sa capacité à s’adapter aux variations de l’éolien. Je n’en vois toujours pas l’intérêt, rien n’a changé de ce côté là. Mais le nucléaire est compatible, techniquement (économiquement c’est une autre affaire), avec l’éolien.

Donc qu’on n’aille plus vous dire que le nucléaire n’est pas flexible, ou qu’il bloque le développement des EnR… C’est mensonger 😉

Pour terminer, le détail, tranche nucléaire par tranche, du suivi de charge réalisé par le nucléaire. Je compte 8 tranches qui se sont totalement arrêtées, et au moins 5 qui ont fait d’importantes variations assez longues. Pour terminer, le détail, tranche nucléaire par tranche, du suivi de charge réalisé par le nucléaire.

Lien direct vers l’image (plus haute résolution)

Publicités

Déchets #1 Principes du stockage géologique

Le prétexte de ce thread était la réponse à un article de presse :

Face à de telles échelles de temps, aucune solution de confinement ne peut garantir une absence de contamination à long terme. C’est le principal argument des opposants au projet Cigéo.

Rah, je suis désolé, mais là, va falloir jouer sur les mots…
Ça veut dire quoi, garantir ? Aucune définition ne m’éclaire : est-ce que « garantir » sous-entend une certitude à 100% ?
Si oui, l’argument est fallacieux.
Si non, le propos est mensonger.

Si oui, on est dans un biais de recherche de solution parfaite et donc un rejet systématique de toute solution qui ne garantirait pas un risque rigoureusement nul. Or, il est impossible, peu importe ce dont on parle, de démontrer l’inexistence d’un risque. D’où le fallacieux.
Peu importe de quoi l’on parle d’ailleurs, même hors nucléaire. Attendrez-vous que les hôpitaux vous « garantissent » un risque nul de contracter une maladie nosocomiale pour y faire soigner un proche ?

Et si l’on suppose que la rédac’ en est consciente ?
Si l’on suppose qu’on parle en fait de garantir « avec un risque raisonnable », il est juste faux de prétendre qu’aucune solution ne le propose. C’est le principe du confinement en couche géologique profonde.

Autrement dit, dans cette introduction, on nie l’existence de solutions, pour pouvoir clamer qu’aucune solution n’existe… L’astuce classique sur le sujet des déchets nucléaires. Et ça explique l’opposition radicale des antinucléaires contre le stockage. Plus que le risque du stockage, ce qu’ils craignent, c’est que leur discours perde encore en crédibilité. Difficile de clamer « aucune solution, c’est un danger permanent ! » une fois qu’on aura commencer à descendre des colis dans leur dernière demeure… Continuons.

Plutôt que de se presser d’enterrer ces déchets avec le risque de voir de la radioactivité ressurgir un jour

Deux fautes.

1) « Se presser »… Sérieusement ? On prévoit de descendre quelques colis, les plus anciens, dans la décennie 2030, dans une zone dédiée à ceux-là, un peu à titre d’essai en conditions réelles. Et le vrai remplissage sera pour la deuxième moitié du siècle ! Et le site ne serait scellé que dans les décennies 2120-2130. Donc en fait, on prévoit de prendre une décision irréversible dans 100 ans, pas avant, et on se presse ? Faudrait attendre combien de temps ? 200 ans ? 500 ans ?
Et ce sont souvent les mêmes qui vont dire « il ne faut pas léguer aux générations futures la charge de NOS déchets » puis « attendons deux ou trois siècles au moins en gérant les déchets à la surface avant de chercher à les isoler définitivement ». WHAT ?

2) Le risque de voir la radioactivité ressortir… Ça ne veut rien dire. La radioactivité, c’est un phénomène, c’est le terme qui décrit la transformation d’un noyau d’atome en un autre par le biais d’une émission de particule. Et souvent, ça s’accompagne de la désexcitation d’un noyau haut en énergie par le biais de l’émission d’un photon de haute énergie (X ou γ). C’est un phénomène, pas une particule ni de la matière. Ce dont ils croient parler, c’est d’une remontée en surface des atomes radioactifs, ou radionucléides, ou radioéléments. C’est bien de la propagation d’atomes dont on parle.

Et leur remontée en surface, ce n’est pas un risque : c’est leur destin.

Même dans les roches les plus étanches, on sait que le béton, l’acier et le verre vont très, très très lentement se dégrader, se corroder. Et que peu à peu, des radioéléments vont être absorbés dans la roche et les eaux qui l’imprègnent et diffuser dans toutes les directions. Ils vont essentiellement diffuser horizontalement, très peu verticalement, et donc très peu vers la surface. Mais inéluctablement, si on se projette sur des durées extrêmement longues, ils finiront par atteindre la biosphère. Nappes phréatiques, terres cultivées, surface, peu importe. Ils vont finit par atteindre le vivant. Après des durées EXTRÊMEMENT longues. Si longues que les « radioéléments » auront perdu leur « radio » !

En effet, vous savez que la radioactivité décroît avec le temps. Concernant les déchets de haute activité à vie longue, comptez 100 000 ans pour qu’une tonne de déchets redevienne aussi peu radioactive qu’une tonne de minerai d’uranium tout ce qu’il y a de plus naturellement répandu dans le monde.

Donc à long terme, la radioactivité de ces déchets sera noyée dans le bruit de fond de la radioactivité naturelle. Sans impact possible sur le vivant, donc. Ajoutez à cela qu’ils vont énormément se diluer dans la roche. C’est à dire qu’en 100 000 ans, une tonne de déchets sera aussi radioactive qu’une tonne de minerai, mais cette radioactivité sera répartie sur 10 000 tonnes (nombre au pif) de roche.

Et c’est là le principe de Cigéo ! Non, on ne prétend pas à un confinement parfait sur une durée éternelle. Mais un confinement tellement poussé que le temps que les radioéléments quittent ce confinement, ils soient devenus inoffensifs.

Je vous parle du point de vue de la sûreté, qui considère qu’on a besoin de 100 000 ans. Mais quand j’ai visité le laboratoire souterrain (encore merci à l’ANDRA pour ça, et à nos guides sur place), ils parlaient en millions d’années, là-bas ^^.

Au passage, les photos de la visite…

Ça vous paraît invraisemblable, une durée pareille ? Réfléchissez au temps qu’il faut déjà pour infiltrer le béton, corroder un décimètre d’acier et l’infiltrer aussi, corroder quelques centimètres d’inox… Puis corroder du VERRE. Du verre dont la formule est spécialement élaborée pour durer, d’ailleurs. Un petit bijou de chimie. Au nez, comme ça, je pense qu’on a déjà écoulé 10 000 ans avant de réussir à charger l’eau souterraine en radionucléides… Et à ce stade, on n’a pas encore vraiment commencé à mettre à profit le caractère géologique, et les 60 m d’argilite presque imperméable qu’on a au-dessus des déchets, où la vitesse de propagation de l’eau se mesure en cm/millénaire. Et les 300 mètres de roches diverses au-dessus. Bon, ben du coup, avec l’émotion, j’ai énormément dérivé sur Cigéo… On en revient à Altereco ?

Pourquoi ne pas donner davantage de temps […] à la recherche afin de trouver des solutions qui pourraient neutraliser leur dangerosité ?

On lui donne au moins 100 ans supplémentaires, pour le moment. C’est plutôt pas mal, non ? Il faudrait combien ? Faut quand même prendre une décision un jour, non ?

Ensuite, ce bon vieux Bernard Laponche nous rappelle qu’initialement, trois axes étaient à l’étude : stockage géologique, entreposage en (sub)surface, et séparation-transmutation. Sans lire la suite, je le connais, il va dire qu’on a tout écarté arbitrairement au profit du seul stockage géologique en arrêtant toutes les recherches. Évidemment que non.

Il a été décidé, en 2016 je crois, de retenir le stockage géologique comme solution de référence, c’est vrai. Qu’en est-il des deux autres axes ?

La séparation-transmutation, qui consiste à trier les différents radionucléides et leur faire subir des transformations nucléaires pour réduire leur activité et leur demi-vie, le CEA s’est longuement penché dessus. C’est plein d’avantages, ça fait des déchets moins volumineux, moins chauds, qui nécessitent des stockages moins longs… Mais qui en nécessitent toujours. Le CEA a démontré que la séparation-transmutation n’était PAS une alternative au stockage géologique. Un complément indéniablement intéressant, oui, et, d’ailleurs, les études continuent. Mais c’est un procédé coûteux, complexe, et qui, évidemment, présente ses risques intrinsèques. Donc on prévoit de faire sans, et s’il est mature à temps… Tant mieux ! On a un siècle.

Ensuite, l’entreposage en surface ou subsurface (à faible profondeur) : bah… C’est de l’entreposage. C’est tout simplement pas fait pour durer. Ça nécessite soit de la maintenance régulière, soit de reprendre les déchets, tous les 100 ans peut-être pour les entreposer dans un nouveau site. Donc ça lègue la charge de la gestion, des risques, des coûts aux générations futures, pour une durée indéterminée. Ce n’est pas une réponse au cahier des charges communément admis, que je sache.

Et c’est là l’astuce de Laponche, en général : laisser oublier que le but est de ne pas léguer la gestion des déchets aux générations futures. Forcément, si on modifie l’un des points clés du cahier des charges de Cigéo, Cigéo, perd aussitôt en intérêt.

En résumé : aujourd’hui, il n’existe aucune alternative au stockage géologique qui réponde aux mêmes exigences d’éthique (responsabilité vis-à-vis des générations futures) et de sûreté (confinement passif à très long terme).

Nota : viendront un jour un thread et un billet de blog ayant pour but de synthétiser le panorama des alternatives au stockage géologique. Suivez-moi sur Twitter 😉
Spoiler : il n’y en a que deux vraiment sérieuses. L’une est une sorte de variante de stockage géologique, la seconde consiste à entreposer et donc attendre indéfiniment.

Et aucune en perspective.
Néanmoins, on s’est lancés sur environ 100 ans avant de prendre une décision irréversible. Considérant que c’était un bon compromis entre « louper toute chance de trouver une alternative » et « attendre une solution inédite éternellement ».
Personnellement, ça me choque pas comme choix… Et je connais personne qui le conteste directement. En général, les opposants se contentent de ne pas l’expliquer, et de dénoncer soit l’absence de toute solution durable, soit la précipitation vers la première solution durable qu’on trouve. Parfois ils reprochent les deux. À la fois. Meh.

Du coup, dans le cadre des débats actuels et futurs sur le sujet, si je devais donner un seul conseil… Commencez toujours par exposer les faits, l’état initial, l’objectif. Pour être sûrs de parler de la même chose, et parler en connaissance de cause.

Et éviter de débattre sur la pertinence d’un projet que personne ne porte, d’un propos que personne ne tient, d’une idée que personne ne défend.

D’expérience, en général, concernant Cigéo… Suffit d’expliquer le sujet pour que le débat se termine.

Comme ici. En expliquant les principes de Cigéo, je ne peux plus vraiment contester les propos tenus dans ce début de l’article d’Alter Eco… Puisque ces propos n’ont tout simplement plus lieu d’être ! T_T

Impact des rejets radioactifs

Et le pire, c’est qu’elle y est AUTORISÉE ! Même par l’ASN ! Et le tritium, ce n’est que la partie émergée de l’iceberg qui fond ! Carbone 14, iode et gaz rares radioactifs, produits de fission et d’activation…

En tout, ce sont CENT QUARANTE MILLE MILLIARDS DE BECQUERELS que la centrale est autorisée à rejeter dans l’environnement. 140 000 000 000 000 de désintégrations PAR SECONDE, juste pour un an !

Bref, cet article, vous l’aurez compris, porte sur les rejets radioactifs des centrales nucléaires (ou autres installations), et la manière dont on en calcule l’impact sur la santé.

Cet article est un complément à un article précédent :

Rejets radioactifs de l’usine Orano la Hague

Il a pour but d’expliciter la méthode conduisant aux chiffres présentés dans cet ancien article.

Et pour ceux qui n’auraient pas les idées claires sur les notions de dose, d’exposition externe et de contamination interne ou externe, sur les différences entre alpha et gamma… Quelques rappels préliminaires ici.

Chiffres des rejets

On va commencer par une cascade de chiffres, pour avoir quelques ordres de grandeur en tête. C’est pas forcément intéressant à lire en détail, notez juste les écarts entre liquide/gazeux et entre les différents radionucléides 🙂.

Il s’agit des rejets radioactifs de la centrale de Nogent sur Seine, en 2017. Pourquoi celle-ci ? Parce qu’elle est en amont de Paris et donc est susceptible d’intéresser le plus grand nombre, tout simplement 😊 !

Tritium : 54 795 GBq par voie liquide, 1 154 par voie atmosphérique. 
Les limites légales sont respectivement de 83 886 et 8 000, donc atteintes à 65% et 14%.

Carbone 14
39 GBq par voie liquide, 318 GBq à l’atmosphère.
Limites : 190 et 1400. Atteintes à 21 et 23%.

Iodes radioactifs :
0,010 GBq dans l’eau, 0,090 GBq à l’atmosphère. 
Les limites sont à 0,10 et 0,80, atteintes à 10% et 11%.

Gaz rares (argon, krypton, xénon) radioactifs :
Uniquement par voie gazeuse, 4 366 GBq sur une limite à 45 000 atteinte à 10%.

Autres radionucléides
0,25 GBq par voie liquide, 0,0030 par voie atmosphérique.
Les limites respectives sont à 25 et 0,80, donc atteintes à max 1%.

Du coup, une centrale nucléaire, oui, ça rejette de la radioactivité dans l’environnement. Ça serait mentir de le nier.
Une centrale à charbon aussi, au passage. Ou une usine d’engrais phosphatés, ou de traitement de minerais quelconques.
Mais la bonne nouvelle, c’est qu’il y a des limites, et respectées avec des marges solides comme on l’a vu dans les chiffres précédents : au maximum, les rejets atteignent 65% de la limite (pour le tritium par voie liquide).

Relation dose-santé

Et ces limites, elles se basent sur quoi ?

Et bien entre autres sur la manière de respecter une exposition annuelle totale inférieure à 1 mSv pour les populations avoisinantes.
Il y a aussi des considérations liées à la biodiversité, par exemple, mais je vais me focaliser ici sur la santé humaine.

Rappels :
1 mSv (millisievert), c’est la dose maximale d’exposition autorisée, en France, à la radioactivité liée aux activités industrielles. Ça ne prend ni en compte la radioactivité naturelle (2,4 mSv/an en moyenne), ni l’exposition médicale.
Une dose efficace en mSv, ça prend en compte aussi bien le type de rayonnement que son énergie, le mode d’exposition (interne, externe…), la durée, et la cible (adulte, enfant…).
Une dose de 1000 mSv ou plus, on sait que ça a des effets directs (déterministes) sur la santé.
Une dose de 100 à 1000 mSv, ça a des effets probabilistes, ou stochastiques : va augmente les risques de contracter un cancer, notamment (en gros, de 0,5 points par centaine de mSv).
En dessous de 100 mSv, c’est flou. Y’a deux principaux modèles : le modèle à seuil (aucun effet jusqu’à 100 mSv), le modèle linéaire sans seuil (le risque croît linéairement avec la dose entre 0 et 100 mSv). La réalité est vraisemblablement quelque part entre les deux.

Tout ça pour dire qu’avec 1 mSv pour le public comme limite légale, on prend quand même une grosse marge.
Pour les personnes soumises à une exposition professionnelle, la limite est de 6 ou de 20 mSv/an selon la catégorie de personnel.

Bon, du coup, si les centrales faisaient tous leurs rejets aux limites légales, on aurait au maximum 1 mSv/an pour la population voisine.
C’est déjà rassurant, mais : 🙋 quelle est la véritable exposition, compte tenu des rejets réels ? ☝Comment elle se mesure ?

Établissement des relations entre limites de rejets et doses

Et bien on ne peut pas la mesurer directement en faisant porter des dosimètres aux riverains, par exemple.
Parce qu’à part quelques radionucléides, on serait sous le seuil de détection, donc la mesure serait assez pourrie.
Du coup, l’on construit des modèles physiques, qui représentent les transferts entre la cheminée ou la conduite de rejets, jusqu’aux organes des riverains. Et l’on consolide ces modèles a l’aide de mesures et simulations, évidemment, c’pas fait au doigt mouillé.
Et c’est ce type de modélisation que je vais tenter de vous décrire.

Primo, il faut lister les rejets, par radioélément et par mode de rejet. Ça, on l’a fait. Il faut aussi prendre en compte la forme physico-chimique de chacun. Ensuite, il faut construire une représentation de l’environnement : on le modélise alors comme un ensemble de boîtes, reliées par des systèmes de transfert au sein desquels circulent les radioéléments.

Illustrons avec un cas simple, les rejets liquides. Cette modélisation ressemblerait à ça :

Les radionucléides peuvent sédimenter ou rester en suspension/solution dans l’eau, où ils sont susceptibles d’être absorbés par la faune aquatique, qui est elle-même susceptible d’être absorbée par les consommateurs de poisson ou fruits de mer (bon, pas pour Nogent 😇).

Maintenant, un cas plus complexe, les rejets gazeux. On va y aller pas à pas. Pour commencer, on va juste reprendre le schéma précédent et en changer la configuration – pas le contenu. 
Et lui donner une sombre teinte bleutée, parce que… Je trouve ça joli.

Tout y est, on est d’accord ? On se le met de côté, on reviendra le chercher plus tard. Maintenant, on ne va plus regarder que les rejets atmosphériques. 

Au début, c’est simple : de la radioactivité dans l’air, ça fait des rayonnements qui nous frappent.

Cet air radioactif, on ne fait pas que s’y mouvoir. On le respire aussi, un peu.
Et donc on inhale des atomes radioactifs qui, selon leur forme chimique, pourraient bien être retenus par nos poumons, voire être transférés dans le sang. 
Exposition interne, donc.

Maintenant ça devient rigolo.
Depuis le début, je fais de gros efforts pour parler de rejets à l’atmosphère, ou atmosphériques, et éviter de dire « gazeux ».
Parce qu’on n’a pas que des gaz, qui s’échappent des cheminées.

On a aussi des aérosols, autrement dit, des particules en suspension qui sont susceptibles de venir se déposer sur les sols, sur la végétation, et notamment s’il pleut. En effet, la pluie entraîne les aérosols avec elle.

D’ailleurs on peut faire pleuvoir dans l’enceinte de confinement, au titre de la mitigation d’un accident grave, pour piéger les aérosols et évite leur libération dans l’atmosphère si l’accident empire.

Mais revenons à nos rejets non accidentels : on a donc des dépôts radioactifs qui se forment sur la végétation (les feuilles surtout) et les sols. 
Et les dépôts au sol nous rayonnent dessus, sur la durée.

Quant aux dépôts sur les végétaux, ils vont circuler dans la plante et donc intégrer nos cultures, et, in fine, notre alimentation. 

Eeeet… Pas que la nôtre. Celle de nos élevages, aussi. 
(Vais-je attirer la hire de végétariens en mentionnant ce point ?)Et du coup, via la viande et le lait, les radionucléides vont se frayer un autre chemin vers nos assiettes et donc notre organisme. 

J’ajoute ça à mon diagramme, j’incorpore mes rejets liquides que j’avais mis de côté…

Et j’ai mon diagramme avec toutes mes boîtes et mes transferts !

D’ailleurs, depuis le début je parle de radionucléides, mais la méthode doit être assez semblable pour n’importe quels rejets chimiques également, quelle que soit l’industrie.

Par ailleurs, dans cet exposé, je zappe tout un pan du modèle… Tous les rejets dans les cours d’eau, qui alimentent les Hommes, la faune, et servent à irriguer les cultures qui alimentent les Hommes et la faune, tout en drainant éventuellement des sédiments et lavant les dépôts… Bref ça part dans tous les sens avec des interactions supplémentaires de partout, donc sachez que ça existe et c’est intégré dans les études, même si je ne développe pas !

Bref : modèles et mesures permettent d’établir des facteurs de transfert entres les différentes cases. Par exemple, la dispersion dans l’air, en fonction des vents et de l’altitude des points de rejets. Car plus on rejette haut, mieux ça se disperse avant de toucher le sol ! Du coup, la hauteur des cheminées des usines est souvent corrélée à la nocivité des rejets – ou en tout cas à la volonté de les diluer au mieux.

Sachant ceci, je trouve assez rassurant de voir que les cheminées des centrales nucléaires (attention ! je parle des cheminées, pas des tours de refroidissement !) n’atteignent pas 100 m… Alors que pour les centrales à biomasse (EnR !) ou charbon, on peut dépasser 300 m !

On a aussi des facteurs de dilution dans les eaux, de concentration dans la faune ou les sédiments, des facteurs de transfert à l’Homme en fonction des régimes alimentaires, de transfert des feuilles des végétaux vers les fruits ou les racines… Et, évidemment, des facteurs de conversion de l’exposition (externe ou interne) en dose.

Tout ceci, à chaque fois que c’est nécessaire, est nuancé pour chaque radionucléide : les gaz ne se déposent pas sur le sol, l’iode ne se concentre pas de la même façon dans les fruits de mer et dans les sédiments…

Et aussi nuancé par groupe de population : un agriculteur n’aura pas la même exposition qu’un citadin, un enfant sera plus vulnérable qu’un adulte, n’aura pas la même alimentation, le même débit respiratoire, etc.

Résultats

Tout ça c’est bien beau, mais pour quel résultat ? Il est de combien, l’impact réel de ces rejets de Nogent sur les Parisiens partent dans la campagne fuir la pollution le week-end ?

Voilà ce que ça donne pour 2017, en nSv.
Un nanosievert, c’est un milliardième de Sievert, c’est un millionième de la dose légale de 1 mSv/an dont on discutait au début.

On calcule les doses pour l’adulte, l’enfant de 10 ans, l’enfant d’1 an. Et ce, bien sûr, pour le groupe de population le plus impacté que l’ont ait identifié.

  • Rejets atmosphériques :
    • 8 nSv pour l’adulte
    • 8 nSv pour l’enfant de 10 ans
    • 13 nSv pour le bambin
  • Rejets liquides :
    • 340 nSv pour l’adulte
    • 390 nSv pour l’enfant
    • 480 nSv pour le bambin
  • Total :
    • Adulte : 348 nSv
    • Enfant : 398 nSv
    • Bambin : 493 nSv

Banana For Scale

L’ingestion d’une banane équivaut à l’engagement d’une dose efficace d’environ 120 nSv (source).

Donc pour la population la plus exposée aux rejets radioactifs de la centrale nucléaire de Nogent… 3 à 4 bananes par an.

Plus précisément, 2,9 bananes par an pour l’adulte, 4,1 bananes pour l’enfant d’un an : voilà l’ordre de grandeur du maximum de radioactivité auquel on s’expose en vivant un an à proximité d’une centrale nucléaire comme celle là.

Les drama s’effondrent !

La CRIIRAD préférera parler en « fois la normale ». Privilégiez plutôt la banane comme échelle de référence !

Source : XKCD

Le barrage de Vouglans et la centrale de Bugey

Le barrage de Vouglans a été en fin 2018 un nouveau levier pour entretenir la peur du nucléaire, suite à un reportage Envoyé Spécial racoleur et sensationnaliste laissant entendre un risque élevé de rupture du barrage, situé sur l’Ain, en amont de la centrale nucléaire du Bugey et de la ville de Lyon.

Retrouvez-le ici (mais c’est vraiment pas une perte de le zapper) :

Le principal message du reportage n’était pas le risque d’inondation de Lyon sous quelques mètres d’eau, mais le risque d’inondation de cette centrale nucléaire et ses 4 réacteurs de 900 MW (et un réacteur graphite en démantèlement).

Citons notamment cet article de France 3 qui parle d’un « scénario catastrophe » en citant un technicien selon lequel le barrage « peut péter à tout moment ».

France Info, à peine moins dramatique, reprend le terme de « scénario catastrophe » mais avec un peu plus de pincettes, en expliquant que des protections sont prévues, et ce, même dans l’éventualité d’une crue historique cumulée à la rupture.
Idem dans cet autre article. Avec l’affirmation complètement gratuite, dépourvue de source ou d’analyse, selon laquelle plusieurs autres centrales seraient menacées par le même barrage.

Bon, et du coup, le HCTISN, il dit quoi ?

Risque inondation : la Côte Majorée de Sécurité (CMS) définie pour le site de Bugey a été calculée selon la méthodologie actuellement en vigueur pour les centrales nucléaires françaises, découlant de la Règle Fondamentale de Sûreté (RFS). Les dispositions ont été prises pour que le site ne soit pas inondé en cas de rupture brutale du barrage de Vouglans cumulée à une crue centennale de l’Ain et une crue historique du Rhône.

Ceci étant dit, qu’a-t-on à tirer du reportage d’Envoyé Spécial ? La rupture brutale du barrage, même dans des conditions environnementales exceptionnelles, n’est pas une menace pour la centrale. Pourquoi on nous emmerde en essayant de faire croire le contraire ?

Si le reportage nous apprend éventuellement une chose, c’est que le barrage de Vouglans pourrait être faiblard. Ce n’est pas une menace pour la centrale nucléaire, mais peut l’être pour certains villages, et la ville de Lyon qui passerait sous potentiellement six mètres d’eau.

Mais ça, ça n’a l’air d’intéresser personne. Et pourtant, je crains que cette onde de submersion ne prenne même pas en compte des crues historiques, mais le niveau moyen de l’Ain. Le risque nucléaire est donc un non-sujet ici, tandis que le risque de dévastation… N’intéresse personne.

Risque, perception du risque.

Pour un même évènement initiateur, on a :

  • d’un côté, la quasi-certitude de faire des morts par milliers (dizaines, centaines de milliers ?) et des blessés, délogés, privés de tous ce qu’ils possèdent… en nombre astronomique ;
  • de l’autre, l’infime probabilité d’un accident nucléaire causé par des défaillances face à un évènement qui a été prévu dans la conception et les règles d’exploitation de la centrale.

Et seul le second excite les caméras, et, par conséquent, le public.

Ça me dépasse.

Le pseudo-reportage d’Envoyé Spécial n’a inquiété que pour le risque nucléaire, tout le monde a regardé la centrale… Pas le barrage.

Pour aller plus loin, je vous recommande mille fois cet excellent thread de @HumainCurieux, qui décortique en détail le reportage :

Les effets sanitaires des radiations

Non, les activités nucléaires ne rendent pas malade tout le monde dans un rayon de 50 km ; non les accidents nucléaires ne stérilisent pas une région sur des milliers de kilomètres carrés, pour des milliers d’années.

Mais il n’y a aucune chance pour que je puisse l’expliquer mieux que ça :

Et si votre temps et précieux et que vous ne savez pas si le sujet mérite une heure de votre temps, prenez au-moins quelques minutes pour le résumé ci-après, pour vous mettre en appétit :

Rejets radioactifs de l’usine Orano la Hague

Ce thread :

Était une réaction à tweet de Reporterre relayant un article relativement médiocre, mais l’énoncé du tweet était particulièrement accrocheur :

L’usine de La Hague est autorisée à rejeter 20 000 fois plus de gaz rares radioactifs et plus de 500 fois la quantité de tritium liquide qu’un seul des réacteurs de Flamanville situés à 15 km de là.

Terrifiant, n’est-il pas ? Les antinucléaires (en particulier la CRIIRAD) sont de grands utilisateurs du « fois la normale » comme unité de mesure de la radioactivité, ou comme prétendue unité de mesure du risque. Ici, c’est le « fois plus qu’un réacteur de Flamanville ». Toujours plus d’exotisme, à quand le système impérial ?

Plus sérieusement, nonobstant l’à-peu-près-science de Reporterre, est-il vrai que l’usine rejette des gaz et du tritium radioactifs en quantités énormes ?

Et bien… Oui et non. Oui, en termes de quantité de radioactivité, ce sont des grands nombres ; non, en termes d’impact sanitaire. C’est parti.

L’étude d’impact

Toute installation nucléaire de base (INB), et probablement aussi d’autres installations industrielles, se doit de produire une étude de son impact (sanitaire, environnemental…) avant sa création, et de la mettre à jour lors de ses grandes évolutions.

Les études d’impact sont publiques, mais délicates à trouver sur le net (c’est en préfecture, il me semble, qu’elles sont accessibles). Toutefois, j’ai mis la main sur une étude d’impact de l’usine Orano la Hague datée de 2017 ou 2018, toute fraîche donc.

Il faut savoir que pour les études d’impact, concernant l’impact sanitaire, on considère une « population de référence » qui est considérée comme la plus à risque. Dans le cas de l’usine, on a deux populations de référence, parce que les rejets sont par deux voies différentes.
En gros, pour les rejets gazeux, la pop de référence est une famille d’agriculteurs qui vivrait sous les vents dominants depuis l’usine, et consommerait énormément de vivres cultivées sur ses propres terres.
Pour les rejets liquides, la pop de référence est la famille de marins qui vivrait en aval des courants dominants depuis la conduite de rejets en mer, et consommerait beaucoup de produits de la pêche.

Impact des rejets

Je rédigerai un autre article expliquant la façon dont l’impact est calculé. Ici, j’en viens directement au résultat.

Pour chacune de nos populations de référence, on étudie l’ensemble des radionucléides rejetés par voie gazeuse et liquide par l’usine en fonctionnement normal (on ne parle pas d’accident ici), leur mode de propagation et d’exposition des populations, la dose qui en résulte (que ce soit par irradiation externe ou interne), et l’on peut ensuite en tirer une dose annuelle reçue par la population.

Concernant les gaz rares radioactifs, qui sont quasi-exclusivement constitués de Krypton 85, c’est très logiquement par voie gazeuse, et presque exclusivement celle-ci, qu’ils sont rejetés. Aux cheminées de l’usine, qui culminent à 100 m au-dessus du sol. Quant au tritium (ou hydrogène 3), si une petite fraction est rejetée sous forme gazeuse, la très large majorité l’est sous forme liquide, par la conduite de rejets en mer de l’usine.

La population la plus concernée par les gaz rares est donc celle d’agriculteurs, et la plus concernée par le tritium est celle de pêcheurs.

L’ensemble des rejets gazeux, c’est sur le nourrisson de la famille d’agriculteurs qu’ils sont les plus impactants.
Ils exercent une dose moyenne de 19 000 nSv/an (nanosievert par an), dont environ les deux tiers à cause des gaz rares radioactifs.

L’ensemble des rejets liquides, c’est sur l’enfant de la famille de pêcheurs (on ne considère pas le nourrisson dans ce cas là, qui ne se nourrira guère de produits de la pêche et notamment de fruits de mer). Ici, on parle de 7000 nSv/an, dont moins de 0,5% à cause du tritium.

Ces valeurs sont établies avec des marges importantes. Non seulement à chaque étape du calcul, mais également à la source : les doses que je présente ici sont les doses en supposant que l’usine rejette tous ses radionucléides au maximum de ce qui lui est permis. Ce ne sont pas les rejets réels, mais les rejets maximaux autorisés.

Comparaison à des valeurs de référence

Dans le même temps, la dose reçue par un habitant de Cherbourg, à 20 km de là, simplement par exposition externe, au moment où j’écris ces lignes, elle est de 70 nSv/h. 600 000 nSv/an.

Dans les autres grandes villes du nord-ouest, les valeurs sont du même ordre de grandeur : 65 nSv/h à Rouen, 70 nSv/h à Rennes. À Brest, on est 40% plus haut, à 850 000 nSv/an. Sous la Tour Eiffel, on serait plus bas, à seulement 400 000 nSv/an.

Ces valeurs, et celles dans des tas d’autres villes de France, à proximité ou non d’INB, vous pouvez les retrouver sur le site du réseau Téléray de l’IRSN, ou même sur l’application mobile Téléray.

Bref : l’impact radiologique que dénonce Reporterre est, avec de la marge, minime devant la radioactivité naturelle (davantage encore pour le tritium que les gaz rares radioactifs).

Pis : il est négligeable devant les variations de radioactivité naturelle d’une région à l’autre !


ADEM…ystifier

Introduction

En décembre 2018, sans se cacher d’une certaine politisation du calendrier en raison du débat public sur la Programmation Pluriannuelle de l’Énergie qui battait son plein, l’ADEME nous a gratifié d’une nouvelle étude sur le futur du système électrique français.

Ou, plus exactement, la synthèse de l’étude, promettant la diffusion ultérieure de l’étude complète. Néanmoins, à ce jour, la synthèse attend toujours d’être appuyée de l’étude complète.

Dans cette étude, l’ADEME « prévoit […] un fort développement de la part des énergies renouvelables, estimée à 85% en moyenne en 2050 et à plus de 95% en 2060. » Tout en taclant la production nucléaire : le parc actuel pourrait être en partie mis à profit du développement des énergies renouvelables, tandis que la création d’une nouvelle filière (EPR) serait écartée car non compétitive.

Une lecture attentive mais non experte permet néanmoins de nuancer en profondeur les affirmations trop catégoriques du communiqué de presse, repris abondamment dans les médias le jour de la parution de la synthèse, avec un manque d’esprit critique peu surprenant. Les critiques vinrent ultérieurement, mais comme toujours… La première idée était diffusée, et bien plus que ne peuvent espérer l’être les critiques.

Il s’agira ici de présenter mes propres relevés de lecture de cette synthèse, mais bien d’autres peuvent être trouvées sur le web, parfois concordantes, parfois dissonantes, parfois plus complètes, parfois plus approfondies sur certains points… Un certain nombre de ces réflexions sont référencées sur Twitter sous le mot-dièse #ADEMystifier.

Ma lecture de ce document ne sera pas un « debunk ». Je pense que l’on à affaire à des personnes compétentes et honnêtes, parmi les rédacteurs, capables de poser des hypothèses, dérouler un raisonnement et des méthodes sérieux, et aboutir à une conclusion. Le but ne sera donc pas de s’attaquer aux méthodes, mais plutôt de balayer du regard les hypothèses à la base.

En effet, lorsque des scientifiques établissent un raisonnement type « si A est vrai, alors B est possible », la retranscription dans les médias et l’opinion publique est, bien souvent, « B est possible », quand ce n’est carrément « B est vrai ». La notion d’hypothèse, de condition, est omise.

Ce sont donc ces hypothèses sur lesquelles nous allons nous pencher, et discuter des plus amusantes et fantaisistes, s’il y en a (spoiler : il y en a).

Pour commencer, je vous invite à lire cet excellent et court thread. Des remarques intelligentes sur lesquelles il n’est donc pas intéressant de revenir.

Édito

C’est avec l’éditorial du document que nous commençons cette lecture. Lequel appelle, d’emblée, à une réflexion sur l’étude ADEME de 2015, valorisant la possibilité et l’intérêt d’un mix électrique 100% EnR et très largement diffusée à l’époque.
Voilà ce qu’on peut en lire :

« Cette étude à caractère technique ne prétendait en rien définir une trajectoire souhaitable du mix électrique. »

Cette affirmation ne tranche en rien avec ce que l’ADEME prétendait alors. En revanche, on pourra trouver un paquet d’articles dans la presse, de discours de politiciens, ou de communiqués d’ONG environnementalistes, disant ouvertement l’inverse.

L’édito contient également un avertissement relatif à cette nouvelle étude, et cela mérite d’être rappelé dans les articles de presse relayant l’étude – il faudrait vérifier s’ils l’ont fait :

Cette étude ne dit rien, bien sûr, des autres considérations d’ordre social, industriel ou environnemental.

L’ADEME est franche et le dit ouvertement dès la page 1 de sa synthèse. C’est une étude dont le périmètre est limité et les limites très clairement identifiées et énoncées. On jugera si la presse et les ONG ont repris cette précaution, où l’ont écartées… Si « Si A est vrai, alors B est possible » a bel et bien perdu son « Si A est vrai ».

Résultats clés

Page 2 de la synthèse. On nous présente des résultats, donc il n’y a pas vraiment d’hypothèse à relever, mais des éléments intéressants toutefois.

Le surcoût de développement d’une filière industrielle EPR (24 GW en 2060) serait au minimum de 39 milliards d’euros pour la nation.

Mais du coup, que l’on m’explique ce tweet ?

En vérité, page 2, une note de bas de page nous indique que ce calcul aboutit à 39 G€ avec un taux d’actualisation de 2,5%. Sans actualisation, le surcoût est alors de 85 G€, comme indiqué dans le tweet.
Le jour même de la parution de la synthèse, donc, l’ADEME elle-même, sur les réseaux sociaux, communiquait des résultats en faisant déjà l’impasse sur les hypothèses derrière…

Méthodologie et principales hypothèses

À cette page, l’ADEME nous re-confirme retenir un taux d’actualisation de 2,5%. Je n’ai pas les compétences pour le juger, je le prends volontiers tel quel. Sans faire d’exception en retenant 0% quand ça m’arrange ! Ce procédé est pour le moins… Litigieux.

On voit également à cette page que sur la consommation nationale d’électricité, on a un scénario « demande basse, où l’électricité passe de 25 à 40% de la consommation française d’énergie finale (pompes à chaleur, voitures électriques…) mais baisse nettement en valeur absolue (d’environ 450 TWh à environ 400).
Bon, consommer moins d’électricité en recourant plus souvent à l’électricité me paraît assez fantaisiste, mais il y a aussi un scénario « demande haute » pour lequel la consommation est en augmentation, et les deux sont pris en compte, donc c’est réglo.

Concernant le taux d’actualisation, on y revient aux pages 6 et 7, où l’on parle de 5,25% pour les EnR et 7,5% pour le nucléaire, dans les calculs de LCOE (levelized cost of electricity). Si la différence entre les deux se discute, elle est toutefois expliquée : c’est la rémunération des risques financiers, jugée plus élevée pour les investissements dans le nucléaire, qui l’expliquerait. En revanche, la raison pour laquelle on a perdu les 2,5% dont il était auparavant question m’échappe.

L’on m’a suggéré que le 2,5% pourrait être un taux d’actualisation, tandis que les 5,25 et 7,5% n’en sont pas (il s’agirait d’une coquille), mais des taux de rendement des financiers – qui exigent des rémunérations plus élevées pour les investissements plus risqués, ce qui serait cohérent avec l’explication avancée ci-avant. Je me permets de rester sur cette explication.

Coût de production de l’électricité renouvelable

Nous sommes toujours pages 6 et 7, où l’on peut constater les ambitions importantes quant à la baisse des prix des énergies renouvelables. En particulier, une décroissance exponentielle pour l’éolien offshore : de 140-180 €/MWh en 2020, elle baisse à 100-120 en 2025, 70-90 en 2030 et 60-80 €/MWh en 2040. L’éolien onshore arrive également à beaucoup baisser, de 70 à 40 €/MWh, et 70 à 30 €/MWh pour le solaire photovoltaïque au sol.

Bref : ce qui est cher baissera beaucoup, et ce qui a déjà beaucoup baissé continuera à baisser. Chacun appréciera !

Pays voisins

Concernant les pays voisins, l’ADEME reprend les hypothèses d’autres études, dont une réalisée par l’ENTSO-E.
Mais pas pour l’Allemagne, où ils se basent sur la promesse, purement politique, d’un mix électrique à 65% renouvelable en 2030. À démystifier, hein ? 😉

On se retrouve donc avec l’hypothèse d’une sortie totale du charbon en Europe de l’Ouest (jusqu’à la Slovaquie et la Slovénie, mais Pologne exclus) entre 2035 et 2040. Au moins une hypothèse que je souhaite très fort être vraie.

Lien entre nucléaire et gaz

L’étude réalise plusieurs scénarios qu’elle compare. Il en existe un où l’on sort du nucléaire au plus vite, en arrêtant un tiers des réacteurs actuels à 40 ans (ça, c’est dans tous les scénarios) et les deux tiers restants à 50 ans. Un scénario à la Greenpeace, EELV, LFI, etc., quoi. Encore que pour certains, si on leur laissait le choix, ils arrêteraient tout le parc à 40 ans.

Et bien ce scénario est le seul qui aboutit à la construction de nouvelles centrales à gaz. 15 GW, pour 12% du mix électrique en 2040.

Donc l’ADEME elle-même confirme qu’une fermeture prématurée du parc nucléaire est une connerie pour nos émissions de gaz à effet de serre. Si les organismes politiques ou non gouvernementaux cités plus tôt savaient lire aussi ce qui ne conforte pas leurs croyances…

Intermittence

Voilà un sujet intéressant !

En 2050, l’ADEME considère que 80% de la capacité de stockage que constituent les véhicules électriques est pilotable, et mise à contribution pour assurer la stabilité du réseau. Vous sentez venir cet âge où l’on chargera sa voiture sur autorisation, si les vents sont favorables, et où l’on sera obligés de décharger la voiture pour se chauffer en vague de froid ?

Ensuite, on arrive sur un des meilleurs moments de la lecture de ce rapport. Les exemples de courbes de production et de consommation électrique en 2050.

Cette courbe a été très moquée, mais je ne vais pas me priver d’en rajouter une couche !

Ce qui saute aux yeux en premier lieu, c’est le coup de la « semaine d’hiver ». Un début septembre bien ensoleillé (jusqu’à 40 GW de solaire sur un parc de 80 GW). Une semaine d’hiver en début septembre. Voilà qui est annonciateur d’un dimensionnement solide pour passer les pics de consommation de l’été, en février !

On saluera aussi la quasi-disparition du pic de consommation du soir, y compris dans la « demande non pilotable ». Le profil de consommation des français a donc changé pour permettre aux énergies renouvelables de gagner en pertinence…

On voit aussi la part importante de l’industrie que l’on peut effacer si besoin, les 7-8 GW de batteries en plus des voitures électriques… Lesquelles sont d’ailleurs largement mises à profit, parfois le soir, parfois en journée. Selon les besoins du réseau – pas vos besoins à vous, non. Bref, les usagers sont largement asservis au vent et à l’ensoleillement. Tu m’étonnes qu’un mix 80% renouvelable soit intéressant dans ces conditions…

Les importations sont conséquentes, notamment la nuit.

La biomasse et la méthanisation sont à peu près aussi présentes que l’hydraulique. Je rappelle que l’impact environnemental n’est pas étudié, point à garder en tête lorsque l’on parle biomasse.

On a également une jolie base de 5 GW de « Autres EnR » : houlomoteur, hydroliennes, géothermie, incinération des déchets… Encore un élément à garder en tête, parce que non évident.

Mais ce qui m’intéresse le plus, c’est que l’on voit que l’on s’en sort avec 3 jours pauvres en production éolienne (mais riches en production solaire), et qu’on en appelle déjà, dans ces conditions, au gaz et aux importations. Mais qu’est-ce que ça va donner lors du vrai hiver, quand le solaire est insignifiant, et si l’éolien vient à manquer !

Prix consommateur du kilowattheure

Encore un grand moment. Une des plus belles perles.

Page 13, on nous présente que le scénario dit « de référence » aboutit à un MWh entre 90 et 95€ à partir de 2040, après un pic à 105 €/MWh en 2030. En comptant une large part de coûts de réseau, d’EnR, d’imports…
On pourrait tiquer sur le fait que le coût des batteries et de la flexibilité soient jugés dérisoire, mais on n’est pas là pour ça.

Les coûts semblent bel et bien tout inclure. Ou presque : il est précisé qu’ils n’incluent pas…
Suspense…

Ils n’incluent pas les coûts relatifs à l’efficacité énergétique. Ah. Bon, Ok, d’un autre côté, c’est normal de ne pas les compter dans le coût de l’électricité. Mais on les comptera dans le coût total du scénario, hein ?

Et bien, c’est à dire que… Je vous ai déjà montré ma collection de timbres ? *diversion*

Coût des scénarios de transition

Non, ils ne le sont pas. Il y a même un scénario nommé « efficacité énergétique », qui ne prend pas en compte les coûts liés aux efforts d’efficacité énergétique.

C’est même, des sept scénarios étudiés, le moins cher ! Forcément, puisqu’il repose sur un effort important dont on ne chiffre pas le coût…

Quand on regarde tout ça, en écartant le premier scénario, absurde, il reste 6 scénarios dont le coût avoisine 1300 milliards d’euros, avec une plage de variation de 40 milliards (3%) entre le moins cher (« prolongement nucléaire facile ») et le plus cher (« EPR en série »). Du coup, je m’interroge : l’ADEME établit un classement entre six scénarios pour déterminer un cas optimal, alors que l’écart entre chacun de ceux-ci est très faible.

Quel impact sur le classement si l’éolien coût 5% plus cher que prévu ? Si les taux d’actualisation sont à décaler de 0,5 points ? Comment s’en tirent les différentes trajectoires si les pays voisins ne suivent pas les trajectoires qu’on leur prête ? Si le public n’accepte pas de fournir gratuitement ce qu’on attend de lui en flexibilité ? Les coûts projetés de la filière batterie (en véhicule électrique ou en parcs de batteries) et ceux de la filière power-to-hydrogen, hautement hypothétiques, peuvent-ils bousculer les comparaisons ?

Il me paraît fort présomptueux, au vu de l’incertitude sur les hypothèses et les faibles écarts sur les résultats, d’avancer de manière ferme que telle ou telle trajectoire est moins chère qu’une autre. Pas vous ?

Les scénarios sont tellement proches qu’un simple petit ajustement, très léger, de quelques hypothèses peut changer le classement, à mon avis. Et ce constat fait, je rappelle l’un des rôles de l’ADEME, telle que fixés par l’article L131-3 du Code de l’Environnement :

[…] Cet établissement public exerce des actions, notamment d’orientation et d’animation de la recherche, de prestation de services, d’information et d’incitations dans chacun des domaines suivants : […] 4° La réalisation d’économies d’énergie et de matières premières et le développement des énergies renouvelables, notamment d’origine végétale ; […]

En étant un poil médisant, je pourrais aller jusqu’à envisager que si l’ADEME se retrouve à choisir entre deux hypothèses allant en faveur du nucléaire ou des énergies renouvelables, la loi lui impose de choisir la seconde.

Bref, continuons un peu…

Le parc nucléaire historique

Globalement, sur ce sujet, leurs hypothèses me paraissent raisonnables. Ils supposent systématiquement la fermeture d’un tiers des réacteurs à 50 ans, quel que soit le scénario, mais c’est présenté comme une hypothèse conservative, dans le cas où EDF ne parviendrait pas à obtenir la prolongation de la totalité des réacteurs, ce qui est discutable, mais pas insensé.

Il est dit, toutefois, que prolonger tout le parc à 60 ans nous coûterait de l’argent à partir de 2040, à cause des « pertes d’opportunité ». C’est à dire que le nucléaire français serait la cause d’une surcapacité à l’échelle européenne, faisant baisser les prix de marché et donc faisant baisser sa propre rentabilité, ainsi que celle des EnR qui nous coûteraient donc plus cher en compléments de rémunération.

Ok, le raisonnement semble se tenir. MAIS.

Est-ce que l’on est en train de parler de construire 80 GW de solaire, 90 GW d’éolien, 20 GW de stockage… Et de mettre sur le compte du parc nucléaire historique le problème de surcapacités ? Et bien oui, ma p’tite dame !

Ceci étant dit, entre 2050 et 2060, selon les scénarios, on devient importateurs nets d’électricité, donc j’ai bien envie de dire qu’on aurait intérêt à avoir des surcapacités pour faire baisser les prix de marché, hmm ? Toutefois, ils admettent sur ce point que leur modèle n’est pas apte à réaliser des projections solides au-delà de 2050.

Fin et conclusion

S’ensuit tout un passage sur le marché, je ne vais pas trop m’y immerger. Puis un autre sur la stabilité en fréquence du réseau, mais le thread de Nicolas Goldberg cité au début de cet article dit tout ce qu’il y a à dire dessus. Mais il y a quand même un gros trou dans cette étude à ce sujet. Ses auteurs, toutefois, le reconnaissent et proposent des pistes pour améliorer la stabilité en fréquence. À ne pas oublier lorsque des politiciens viendront présenter cette étude comme une trajectoire « prête à adopter » !

Enfin, la synthèse se termine par une pleine page « Limites et perspectives ». Un beau geste de transparence (« limites identifiées et énoncées », disais-je plus tôt). Et parfois des aveux folkloriques.

La compétitivité des EnR françaises face aux EnR à l’étranger n’a pas été étudiée.

Donc toutes les hypothèses sur la rentabilité des importations et exportations sont plus ou moins infondées, si je comprends bien ? Celles qui servaient à disqualifier la rentabilité d’un prolongement maximal du parc nucléaire ?

L’optimisation économique n’intègre pas de considérations ni d’indicateurs d’ordre social, environnemental ou industriel, comme les impacts sur l’emploi, sur l’environnement (sol, paysages, biodiversité, consommation de matériaux, etc.) ou sur le positionnement des industriels français sur les nouvelles technologies qui pourraient être susceptibles de conduire à un optimum différent, dans le sens du développement durable.

C’était dit, c’est répété, et il est vraiment important de garder en tête ces limites.

Je vais conclure en parlant de la forme : il y a pas mal de coquilles. Je ne vais pas m’amuser à les énumérer, ça serait lourd et mesquin, mais il y a clairement un côté « pas fini ». Ce n’est pas grave, hein, mais ça tend à confirmer qu’il y a eu une accélération du process pour sortir le document en plein débat public. Un calendrier politique, donc.

Allez, le mot de la fin : l’ADEME a produit un travail, à priori, sérieux et intéressant.

Mais s’est livré à un jeu de communication beaucoup moins intègre, et qui ne peut qu’être amplifié dans la presse et les politiques. Alors… Soyez vigilants. Tout simplement !