« Papa, c’est quoi cette histoire de fin du monde ? »
Entre effondrement du vivant et effondrement possible de notre société… le mot plane comme une ombre au-dessus de notre époque.
Mais de quels effondrements s’agit-il ? Peut-on en parler aux enfants sans les angoisser ? Avec quels mots ? Et aussi, pourquoi certains boomers ont-ils tant de mal à comprendre ?
Mêlant arguments, expérience et affects, Pablo Servigne et Gauthier Chapelle tissent une discussion à bâtons rompus entre générations avec pour horizon la préservation des liens.
Pablo Servigne et Gauthier Chapelle ont déjà coécrit L’Entraide, l’autre loi de la jungle (LLL, 2017 ; Babel 2019) et, avec Raphaël Stevens, Une autre fin du monde est possible (Seuil, 2018 ; Points, 2022). Pablo Servigne et Raphaël Stevens ont coécrit le best-seller Comment tout peut s’effondrer (Seuil, 2015 ; Points, 2021).
À l’heure où les constats scientifiques s’accumulent depuis un demi-siècle (!) pour attester de ce que d’aucuns nomment un écocide en cours, l’échec du développement durable est patent : il ne produit qu’un aménagement marginal du système. Cet ouvrage aborde la décroissance, un des courants les plus avancés sur la question de la mutation sociétale. Lire la suite
À l’heure où les constats scientifiques s’accumulent depuis un demi-siècle (!) pour attester de ce que d’aucuns nomment un écocide en cours, l’échec du développement durable est patent : ontologiquement arrimé au maintien de l’illimitisme et de la croissance économique, pétri d’une foi technoscientifique et néolibérale, il ne produit qu’un aménagement marginal du système, n’en déplaise aux pratiques foisonnantes de greenwashing. Cet ouvrage aborde la décroissance, l’un des courants de pensée, d’action et d’expérimentation les plus avancés sur les questions de la mutation sociétale. Théorisée dès les années 1970 dans le sillage d’une pensée écologiste naissante et d’une critique fondamentale du modèle économique dominant, cette approche réaffirme depuis les années 2000 l’urgence de sortir du modèle de développement ccidental. Cheminant notamment avec la pensée d’Edgar Morin et de l’École de Palo Alto, l’ouvrage questionne d’abord le sens et la portée de la décroissance initiale pour analyser ensuite les singularités du courant contemporain. Loin de ne signifier qu’une croissance négative, la néodécroissance est une matrice de projets de sociétés articulant les dimensions écologistes, sociétalistes et subjectivistes. Sa radicalité salutaire sur le plan de la pensée nous aide à décoloniser les imaginaires et à déjouer les fausses pistes secrétées par un système sociétal en bout de course. L’immersion au sein de milieux militants vient également nourrir le propos par le vécu et l’analyse des raisons de s’engager : lutter avec force contre la destruction du vivant, agir sur le monde, se réaliser comme sujet… et créer d’autres possibles, soutenables et souhaitables, poétiques et pragmatiques.
Chaque jour, nous transgressons les limites planétaires et détruisons nos conditions d’existence sur Terre. La pandémie, comme les catastrophes climatiques, sont autant de coups de semonce de la menace qui plane sur notre espèce. Pourtant, face au désespoir ambiant, nous avons le droit de rêver à un futur joyeux, et surtout les moyens de le concrétiser. Avec un nouveau plafond écologique et un vrai plancher social, nous pourrons apprendre à vivre sans tout détruire.
De nombreuses propositions sont déjà sur la table comme le Green New Deal, les Nouveaux Jours Heureux, le Pacte pour la Vie, etc. Mais toutes se heurtent aux limites actuelles de la politique, rarement convaincue par leur faisabilité. Ce plaidoyer défend une autre alternative, le Pacte social-écologique, qui place l’autonomie au centre, tout en réintégrant les limites de la Biosphère. Rassemblant Citoyens, État et Nature, il décrit comment mettre en place concrètement ce nouvel horizon, à tous les niveaux, afin de faire face aux multiples bouleversements de nos sociétés modernes. Mobilisons-nous, Citoyen, Citoyenne, pour participer à cette grande aventure, le plus important défi à relever pour l’humanité!
Cédric Chevalier est ingénieur de gestion et fonctionnaire de l’environnement détaché comme conseiller de gouvernement. Essayiste, il est l’auteur de nombreuses cartes blanches, analyses et d’un premier essai intitulé Déclarons l’État d’Urgence écologique, coécrit avec Thibault de La Motte, sorti début 2020 aux Éditions Luc Pire. Il a également contribué à l’ouvrage collectif À l’origine de la catastrophe, paru chez Les Liens qui Libèrent en 2020, sous la direction de Pablo Servigne et Raphaël Stevens.
Avant-Propos de Sarah Zamoun, activiste au sein de Rise for Climate
Préface d’Esmeralda de Belgique, journaliste, auteure et activiste pour l’environnement et les droits humains
Postface de Charlotte Luyck, philosophe, spécialiste de l’écophilosophie
Loin d’être le remède miracle aux crises auxquelles nous faisons face, la croissance économique en est la cause première. Derrière ce phénomène mystérieux qui déchaine les passions, il y a tout un système économique qu’il est urgent de transformer.Dans cet essai d’économie accessible à tous, Timothée Parrique vient déconstruire l’une des plus grandes mythologies contemporaines : la poursuite de la croissance. Nous n’avons pas besoin de produire plus pour atténuer le changement climatique, éradiquer la pauvreté, réduire les…
En 1982, dans le cadre d’immenses mobilisations citoyennes pour la préventions des conflits nucléaires, une association de médecins (https://ampgn-belgium.be/) publie une brochure compilant les connaissances physiques et surtout médicales des impacts potentiels de l’explosion d’une charge nucléaire sur Bruxelles. Pour retrouver l’intégralité digitalisée de la brochure « Armes nucléaires : les médecins désarmés » : https://obsant.eu/entrees/Brochure_Ampgn_1982_alg.pdf
A l’heure où Antonio Guterres, Secrétaire des Nations-Unies, rappelle les dangers de l’utilisation potentielle d’armes nucléaires pour l’Humanité, retrouvez ci-dessous, la partie « armes et conséquences médicales » de cette brochure éditée en 1982. Les connaissances ont évolué, mais les informations reprises sont toujours d’actualité.
Le texte a été rédigé par les Docteurs Anne Résibois et Alfred Joffroy à partir de la brochure « The Medical Consequences of Nuclear Weapons » éditée en Grande-Bretagne par « Medical Campaign against Nuclear Weapons » et « Medical Association for the Prevention of War »en octobre 1981. Il doit aussi beaucoup aux travaux du 2ème Congrès de l’ IPPNW (https://www.ippnw.eu/) tenu à Cambridge du 3 au 6 avril 1982.
LES ARMES NUCLÉAIRES ET LEURS CONSÉQUENCES MÉDICALES
La puissance explosive d’une bombe est généralement exprimée en quantités équivalentes de trinitrotoluène ou TNT. Une tonne de TNT qui explose libère 1 milliard de calories. Les explosions des armes nucléaires sont si puissantes qu’elles sont exprimées en milliers (kilo-) ou en millions (méga-) de tonnes de TNT. A la fin de la seconde guerre mondiale, la bombe la plus puissante était une bombe de 10 tonnes (0,01 kilotonne) de TNT. La quantité totale des explosifs utilisés pendant toute cette guerre est évaluée à environ 5 mégatonnes de TNT. La bombe atomique qui ravagea Hiroshima avait une puissance de 13 kilotonnes et celle de Nagasaki de 22 kilotonnes.
LA BOMBE ATOMIQUE
Elle est la bombe nucléaire-type, la première qui ait été inventée. On l’appelle aussi bombe A ou bombe à fission. Une quantité énorme d’énergie est libérée en une fraction de seconde par une fission en chaîne d’Uranium-235 ou de Plutonium-239. Quand de tels atomes sont bombardés par des neutrons, ils éclatent (fission) en libérant d’autres neutrons, des isotopes radioactifs instables et beaucoup d’énergie. Les neutrons libérés attaquent les atomes voisins et si au moins un des neutrons provenant d’un événement de fission produit l’éclatement d’un autre atome,. la réaction en chaîne s’installe. Pour que ceci se produise il faut une masse critique de produit fissile ce qui limite les possibilités de ce type de bombes. Elles sont capables de donner naissance à des explosions de plusieurs dizaines de kilotonnes mais pas plus.
LA BOMBE A HYDROGÈNE
Dans la bombe H la libération d’énergie est assurée par un double processus de fission et de fusion nucléaires. Une bombe à fission y sert d' »allumette » pour fournir les quelques millions de degrés nécessaires à l’amorce de la réaction. A cette température, des isotopes lourds de l’hydrogène, le tritium et le deutérium, fusionnent pour former un noyau d’hélium. La réaction dégage de grandes quantités d’énergie et des neutrons. Elle est équivalente à ce qui se produit à l’intérieur du soleil et la quantité d’énergie qu’elle est capable de fournir est quasi illimitée. La puissance explosive de la bombe est encore augmentée si on entoure les atomes qui fusionnent par une gangue d’uranium-238. Les atomes de l’enveloppe sont séparés les uns des autres par les neutrons provenant de la réaction de fusion. Ces neutrons provoquent la fission de la couche externe d’uranium libérant une quantité considérable d’énergie et de radioactivité supplémentaire. On les appelle aussi, pour cette raison, des bombes à Fission-Fusion-Fission. Les bombes dont la puissance dépasse 100 kilotonnes sont des bombes à hydrogène.
LA BOMBE A NEUTRONS
La bombe à neutrons est une petite bombe à hydrogène dépourvue de l’enveloppe supplémentaire d’uranium-238. C’est donc un engin à Fission-Fusion. Dans ces conditions, les neutrons nés de la fusion des isotopes de l’hydrogène sont libérés et le pouvoir ionisant est fortement augmenté par rapport aux autres formes d’énergie libérées. On peut en faire des obus de faible puissance (!) qui seraient utilisés dans les opérations militaires sur le terrain. Leur but est de tuer l’ennemi par irradiation tout en faisant peu de dégâts aux constructions. Un obus à neutrons d’une kilotonne émet autant de radiations qu’une bombe à fission-fusion-fission de 10 kilotonnes.
Depuis 35 ans les armes nucléaires n’ont cessé de se répandre et de se perfectionner. Cinq nations en possèdent officiellement et plusieurs autres sont sans doute en train d’en acquérir. De toute façon, l’arsenal des deux superpuissances l’emporte de loin sur tout le reste. Il totalise plus de 40.000 têtes nucléaires. Les plus puissantes des armes nucléaires existantes ont une puissance de 60 mégatonnes.
Outre les deux explosions ayant eu lieu en 1945 dans des régions fortement peuplées, plus d’un millier d’explosions expérimentales ont été réalisées. Nous possédons par conséquent une bonne connaissance tant des effets immédiats des explosions que de leurs conséquences à plus long terme.
Le texte qui suit décrit surtout les effets d’une bombe d’une mégatonne. Dans les tableaux sont comparés ceux des divers types d’armes nucléaires actuellement « sur le marché » : les armes dites « tactiques » (1 kilotonne), celles de puissance moyenne (75 kilotonnes) et celles dites « stratégiques » (1 et 10 mégatonnes).
EFFETS DES ARMES
Tout corps suffisamment chaud émet des rayonnements lumineux visibles ou non. Au contact de l’explosion nucléaire l’air ambiant est porté à si haute température qu’il devient lumineux, formant la boule de feu visible pendant les secondes qui suivent la réaction en chaîne (figure 2). Immédiatement après sa formation, la boule de feu grandit en même temps qu’elle se refroidit et cesse d’émettre de la lumière. En son sein, la température atteint plusieurs milliers de degrés. Son diamètre dépend de la puissance de la bombe : la boule de feu d’une bombe d’l mégatonne a un rayon de 1.200 mètres au moment où elle est la plus brillante. Si elle ne touche pas le sol, l’explosion est dite aérienne ou en altitude. Si elle l’atteint, comme c’est le cas après les explosions au sol ou à basse altitude, elle vaporise littéralement tout ce qu’elle touche. Les vents violents de succion qui la suivent aspirent les débris vaporisés dans le champignon en formation (figure 2). Ceci creuse un cratère qui peut avoir plusieurs centaines de mètres de diamètre.
FIGURE 2 : Explosion en altitude d’une bombe d’une mégatonne au-dessus de Bruxelles. Après 15 secondes, la surpression au niveau de l’onde de choc, véritable mur d’air comprimé en déplacement, (flèche), est de 1 atmosphère. Elle vaut 0,3 atmosphère après 30 secondes et 0,1 atmosphère après 75 secondes. A ce moment, le front de l’onde est situé à 21 km. du centre de la ville.
Une explosion nucléaire libère brutalement l’énergie sous trois formes différentes :
1. une onde de choc ou souffle qui représente 50 % de l’énergie totale,
2. un rayonnement de chaleur intense (35 % de l’énergie totale),
3. des radiations ionisantes (15 % de l’énergie totale).
Ces chiffres, vrais pour les bombes à fission et à fission-fusion-fission, sont différents dans le cas des bombes à neutrons : l’énergie libérée sous forme de radiations ionisantes atteint 35 % du total.
C’est en cas d’explosion aérienne de la bombe que l’onde de choc et la chaleur sont propagées le plus loin. En cas d’explosion au sol ou à très basse altitude, par contre, les destructions et les retombées radioactives locales seront plus importantes. Les débris vaporisés du cratère montent dans le champignon, s’ionisent, et comme ils sont lourds, retombent très vite sur le sol alors qu’ils sont encore très radioactifs. Enfin, les explosions sous-marines créent des raz-de-marée et des nuages de gouttelettes radioactives.
L’ONDE DE CHOC
L’expansion rapide des gaz à partir du point de détonation crée une onde de choc qui se propage tout d’abord à vitesse supersonique (figure 2). Son pouvoir destructeur est dû à la surpression, à sa vitesse de propagation et aux vents violents qui la suivent. La surpression est la différence entre la pression de l’air dans l’onde de choc et la pression atmosphérique.
Au point de déflagration (hypocentre ou point zéro), la surpression est énorme : l’explosion au sol d’une bombe d’l mégatonne crée, dans un rayon de 660 mètres, une surpression de 40 atmosphères, soit 40 kg. au cm2. Au fur et à mesure de la propagation de l’onde de choc sa surpression diminue (tableau 1). Ainsi, après l’explosion aérienne d’une bombe d’l mégatonne, la surpression de l’onde de choc est supérieure à l’atmosphère dans un rayon de 4 km. Elle est comprise entre 1 et 0,5 atmosphère entre 4 et 7 km. et sera encore de 0,2 atmosphère à 11 km. de distance et de 0,1 atmosphère à 21 km. du point d’impact.
FIGURE 3 : Effet de l’onde de choc résultant de l’explosion en altitude d’une bombe d’une mégatonne au dessus de Bruxelles.
Zone 1 : Surpression supérieure à une atmosphère. 98% de morts, 2% de blessés.
Zone 2 : Surpression comprise entre 0,4 et 1 atmosphère. 50% de morts, 40% de blessés, 10% indemnes.
Zone 3 : Surpression comprise entre 0,2 et 0,4 atmosphère. 5% de morts, 45% de blessés, 50% indemnes.
Zone 4 : Surpression comprise entre 0,1 et 0,2 atmosphère. 25% de blessés.
Ces chiffres ne tiennent compte que des victimes de l’onde de choc. Le report sur cette carte des données du tableau 4 permet de constater que la limite de la zone 3 correspond à la distance jusqu’à laquelle l’onde thermique brûle au 3e degré les surfaces de la peau qui y sont exposées.
En combinant les tableaux 1, 2 et 3 et une carte géographique il devient possible de prévoir les dégâts attendus après une explosion atomique sur une ville donnée ; la figure 3 montre les dégâts que causerait à Bruxelles l’onde de choc d’une bombe d’l mégatonne.
Les bâtiments
Les bâtiments ne résistent pas à de telles surpressions et le tableau 2 donne une idée de l’importance des dégâts en fonction du niveau de la surpression. A une atmosphère, quasi rien ne résiste. A 0,1 atmosphère, les dégâts restent considérables et par exemple toutes les vitres sont soufflées. De plus, le déplacement à grande vitesse de l’onde de choc crée des vents violents: 520 km./heure pour une surpression de 1 atmosphère, 250 km./heure pour 0,5 atmosphère. Un vent de 108 km./heure correspond à la définition météorologique de la tempête et chacun sait les dégâts que peut causer celle-ci.
Et les hommes ?
Le corps humain résiste bien aux surpressions sauf si elles sont très élevées. Brutalement exposés à 2,5 atmosphères, 50 % des gens meurent d’éclatement pulmonaire, d’embolie gazeuse ou de perforation des viscères. Mais ceci ne se produira que très près du point zéro et par conséquent la majorité des décès et des traumatismes ne sera pas due à l’action directe de la surpression. Le drame provient en fait de l’interaction des hommes qui sont projetés au hasard et des bâtiments qui s’écroulent autour d’eux. Dans les zones quasi entièrement détruites il n’y aura guère de survivants. Dans les zones moins endommagées, morts et blessés seront nombreux, victimes de la projection de débris divers et de l’effondrement des maisons. Le tableau 3 résume les pertes prévisibles dans les différentes zones de surpression.
Les blessures sont les mêmes que celles causées en temps de paix par les accidents : fractures du crâne, de la colonne, des membres, écrasements thoraciques, ruptures d’organes abdominaux. Un grand nombre de victimes seraient sans doute porteuses de plusieurs de ces lésions.
L’ONDE DE CHALEUR
La boule de feu d’une explosion nucléaire ressemble à un soleil de petite taille qui irradierait pendant un temps bref de l’énergie sous forme de rayons X, d’ultra-violets, de lumière visible et d’infra-rouges. Elle apparaît à un observateur situé à 80 km. comme plus aveuglante que le soleil de midi. Son intensité est telle qu’une bombe d’l mégatonne cause un aveuglement passager, parfois plus durable, dans un rayon de 21 km. en plein jour et de 85 km. la nuit. Des brûlures rétiniennes produisant une cécité permanente peuvent se voir dans les 50 km. qui entourent le point zéro, mais elles sont moins probables parce qu’elles nécessitent que le regard soit dirigé par hasard dans la direction de la déflagration.
Des brûlures par flash
L’intense chaleur irradiée provoque des brûlures par rayonnement sur les régions de la peau qu’elle frappe (figure 4). Le degré de brûlure dépend de la pigmentation de la peau, de la longueur d’onde du rayonnement, de la durée de son émission. La distance de propagation de la chaleur est affectée par les conditions météorologiques et diminue en cas de mauvaise visibilité. Le tableau 4 résume les degrés de brûlures observables par temps clair à la suite d’explosions aériennes de bombes de diverses puissances. Le nombre de gens brûlés par rayonnement dépendra bien sûr du nombre de personnes se trouvant à l’extérieur au moment de l’explosion puisque seules sont atteintes les parties du corps directement exposées.
Les brûlures du second degré détruisent partiellement la peau. Il se forme des cloques et les probabilités de surinfection sont grandes. Le troisième degré correspond à une destruction complète de la peau. Dans les deux cas la perte importante de liquides et de protéines au niveau des brûlures peut entraîner la mort si la surface touchée dépasse 40 % de celle du corps. Le traitement des brûlés est basé sur la restitution correcte des liquides perdus et la prévention des infections. Non infectées, les brûlures du second degré guérissent en général spontanément ; la cicatrisation d’une brûlure du troisième degré est difficile, très lente et nécessite des greffes cutanées.
Des incendies
Circonstance aggravante, la chaleur intense de l’onde thermique enflamme instantanément les matériaux combustibles comme les papiers, les’tissus, les plastiques, etc Joint à la destruction par l’onde de choc d’installations de chauffage, de conduites de gaz, de circuits électriques, ceci provoquera des incendies qui augmenteront considérablement le nombre des brûlés.
Les brûlures causées par les incendies sont souvent associées à des lésions pulmonaires et à des intoxications par les fumées toxiques. Ces troubles surajoutés sont la cause majeure des décès immédiats dans les incendies au cours desquels les gens se retrouvent piégés dans les immeubles en flamme.
L’explosion aérienne d’une bombe d’l mégatonne provoque des incendies dans un rayon de 13 km. par temps clair et de 8 km. par mauvais temps: le rayon de l’agglomération bruxelloise est de 9 km., tandis que ceux de Liège (y compris Seraing et Herstal), Charleroi, Namur et Mons sont respectivement de 6 km., 7 km., 2 km. et 4 km.
En fait, chaleur intense et vents violents risquent de déclencher une tempête de feu semblable à celles observées à Hiroshima ou même à Hambourg et Dresde après les bombardements « conventionnels » de ces villes : l’asphyxie et l’élévation de température y tuent tous les habitants, même ceux réfugiés dans les abris. Ce risque est considéré comme faible dans les villes occidentales vu la densité des habitants et le type de matériaux utilisé dans les constructions. Toutefois, la quantité de carburants (essence des voitures, mazout de chauffage, gaz de ville) ne permet pas d’écarter le risque.
LES RADIATIONS IONISANTES
Les réactions de fission produisent une grande quantité de radioactivité pendant la minute qui suit la détonation. C’est la radioactivité initiale. Elle représente environ un tiers de la radioactivité totale produite et est due surtout à une libération de neutrons
rapides et de rayons gamma (voir appendice 1). Après l’explosion d’une bombe très puissante, l’effet mortel du souffle et de la chaleur est tel qu’il l’emporte largement sur celui des radiations ; c’est l’inverse dans le cas des petites bombes, surtout si elles sont du type « bombes à neutrons ».
Les retombées, plus tardives, sont affectées par quantité de facteurs et plus difficiles à quantifier vraiment. Toutes les bombes nucléaires donnent lieu à des retombées radioactives mais leur nocivité dépend de l’altitude à laquelle l’explosion se produit.
Lors des explosions en altitude, les produits de fission gazéifiés montent avec la boule de feu, prennent part à la formation du nuage radioactif et gagnent de très hautes altitudes. Ces particules se condensent en se refroidissant mais restent très légères. Elles sont donc dispersées par le vent, redescendent très lentement et peuvent mettre plusieurs mois à rejoindre le sol. A ce moment, leur taux de radioactivité est en général devenu très faible.
Par contre, si l’explosion a eu lieu suffisamment bas pour que la boule de feu touche le sol, de grandes quantités de terre et de débris vaporisés sont attirés dans le champignon et entrent en contact avec les quelque 300 isotopes instables nés de la fission (appendice 2). Ils deviennent radioactifs et comme ils sont lourds, retombent en quelques jours sur terre, alors qu’ils sont encore en pleine activité. Ils contamineront ainsi une zone de plusieurs centaines de km2 avoisinant le lieu de l’explosion.
Les particules radioactives qui touchent le sol pendant les premières 24 heures sont les plus nocives; elles constituent les retombées précoces et sont responsables de 60 % de la radioactivité totale des retombées.
Calcul du risque lié aux retombées
Pour calculer les risques auxquels est soumise une population, il faut connaître la surface qui sera couverte par les retombées précoces, l’intensité de la radioactivité en chaque point de cette surface et la vitesse avec laquelle la radioactivité initiale diminuera. Ainsi, l’on pourra avoir une estimation grossière de la dose totale accumulée pendant un laps de temps donné. C’est cette dose cumulée qui est médicalement importante. On l’exprime en rads (voir annexe 1). Quant à l’intensité de la radioactivité elle-même, elle est exprimée en dose par unité de temps ou rads/heure.
L’intensité de la radioactivité initiale décroît vite. La règle est connue : elle diminue d’un facteur 10 chaque fois que le temps augmente d’un facteur 7. Cela veut dire qu’au bout d’une semaine elle vaut un dixième de ce qu’elle valait le premier jour, au bout de 7 semaines un centième et ainsi de suite. Si l’on connaît la radioactivité présente localement au début du processus, on pourra aisément calculer le taux total de rayonnement auquel sera soumise la population locale.
La surface atteinte est plus difficile à déterminer parce qu’elle dépend de pas mal de données changeantes: la vitesse des vents, leurs changements de direction, le relief, etc … Théoriquement, la surface est très allongée à partir du point d’impact. Elle a la forme d’un cigare dont le grand axe est dirigé dans le sens des vents dominants. La figure 5 montre d’une part le diagramme théorique des retombées précoces d’une bombe de 10 mégatonnes et d’autre part les doses de radioactivité cumulées qu’on a relevées pendant les 96 heures qui ont suivi l’explosion au sol d’une bombe de 15 mégatonnes dans l’Archipel des Iles Marshall (Essai « Bravo » de l’armée américaine en 1954). Ces doses étaient nettement supérieures à tout ce qu’on avait prévu.
Le tableau 5 montre quelles seraient les surfaces soumises à différentes doses de radiation cumulées au cours des deux semaines suivant l’explosion d’une bombe d’l mégatonne au sol. Dans la figure 6 ces chiffres ont été reportés sur une carte de Belgique.
Ajoutons que la Commission Internationale de Radioprotection estime à 5 rads par an (25 fois le taux de la radioactivité naturelle) la limite maximale d’irradiation tolérable pour les travailleurs en contact avec les produits radioactifs.
Les risques liés à des attaques nucléaires multiples et relativement proches deviennent vraiment très difficiles à calculer. Les zones contaminées se recouvrent, leurs taux de contamination s’additionnent et des conditions insupportables pour les habitants de territoires extrêmement étendus s’en suivraient sans aucun doute.
Enfin, la destruction d’une centrale nucléaire ou d’un dépôt de déchets radioactifs par une arme nucléaire aggrave infiniment l’impact des retombées de l’arme. Les isotopes de la cible détruite sont aspirés dans le nuage et viennent s’ajouter aux produits de fission.
Or leur durée de vie est beaucoup plus longue que celle des isotopes de la bombe et les régions touchées par .les retombées resteront contaminées beaucoup plus longtemps. La quantité totale d’isotopes étant plus grande, la zone touchée sera beaucoup plus étendue.
Il peut sembler exagérément dramatique d’envisager une telle possibilité mais elle n’est nullement exclue vu l’importance stratégique des sources d’énergie et le rôle des réacteurs nucléaires dans la fabrication des ogives des missiles (ils sont la principale source de plutonium-239). De plus, dans l’Europe surpeuplée, les centrales nucléaires peuvent être voisines d’installations militaires. Le risque est donc certain.
PATHOLOGIE DES RADIATIONS
Les effets sur l’organisme
Les radiations provoquent de nombreuses lésions dans notre organisme ; elles touchent principalement le système nerveux et les cellules qui se reproduisent vite : par exemple, celles qui renouvellent la surface de l’intestin et celles qui fabriquent de nouveaux globules blancs et rouges au sein de la moelle osseuse. Une irradiation totale, brutale ou étalée sur un certain nombre de jours, provoque la maladie des rayons qui sera bénigne, sévère ou mortelle selon la dose de rayons reçue. Une dose de 450 rads entraîne la mort de la moitié des jeunes adultes qui y sont exposés : on l’appelle dose létale 50 % ou DL 50.
La maladie des rayons
Il existe trois formes de la maladie des rayons: une forme neurologique toujours mortelle, une forme gastro-intestinale très grave et une forme médullaire (touchant la moelle osseuse) curable dans de bonnes conditions hospitalières (voir figure 7).
Forme neurologique. Une irradiation vraiment massive (5000 rads et plus) entraîne des convulsions, un coma et la mort en quelques heures. A dose plus basse (1.500 à 4.500 rads) une léthargie s’installe et évolue en quelques jours vers le coma et la mort. Il n’y a aucune thérapeutique connue.
Forme intestinale. Elle s’observe pour une irradiation comprise entre 400 et 1.500 rads et s’installe en une semaine. Liée à la destruction de l’épithélium qui recouvre le tube digestif, elle se caractérise par une déshydratation intense due à une diarrhée profuse. Les risques de septicémie sont élevés puisqu’il n’existe plus de barrière valable entre le contenu de l’intestin et le reste de l’individu. La mort survient en général à moins qu’une thérapeutique d’urgence soit instaurée très vite.
Ces soins d’urgence sont basés sur la restitution des liquides perdus et l’emploi massif d’antibiotiques pour lutter contre l’infection. Il va sans dire que la désorganisation du système sanitaire en cas de conflit nucléaire et le nombre de cas à traiter rendrait problématique l’instauration de telles mesures.
Ceux des patients qui survivraient à leurs lésions intestinales présenteraient une semaine plus tard la 3e forme de la maladie des rayons, liée à la destruction de la moelle osseuse.
Forme médullaire. La moelle osseuse est partiellement détruite par un taux de rayonnement supérieur à 150 rads (1). Une courte période de nausées et de vomissements est suivie d’une dizaine de jours asymptomatiques. Vers la fin de la deuxième semaine, les cellules sanguines sont suffisamment réduites en nombre pour être incapables d’assumer leur rôle physiologique : des infections généralisées surviennent par manque de globules blancs et des hémorragies apparaissent un peu partout par insuffisance de plaquettes. Ou la mort survient au bout d’un mois environ ou le sujet atteint guérit lentement au fur et à mesure que les cellules mères restées vivantes repeuplent la moelle et le sang.
(1) Rappelons qu’après l’explosion au sol d’une bombe de 1 mégatonne
une dose de 150 rads est accumulée par tous ceux qui séjournent sans protection pendant 2 semaines dans un territoire voisin d’environ 5.000 km2.
A nouveau une thérapeutique existe mise en chambre stérile, transfusions, et utilisation massive des antibiotiques pour lutter contre les infections et, dans les cas les plus graves, greffe de moelle osseuse. Ceci bien sûr ne sera pas réalisable en situation de guerre.
Les conséquences tardives
L’irradiation du fœtus in utero. Irradiation immédiate et retombées affectent le développement du fœtus in utero. La plupart des mères japonaises enceintes depuis moins de 15 semaines au moment de l’explosion des bombes et ayant reçu une dose de rayonnement supérieure à 200 rads ont mis au monde des enfants malformés. Les troubles du développement du cerveau ont été le plus souvent observés. Parmi ceux qui ont survécu, 44 % présentaient une microcéphalie parfois accompagnée de débilité mentale et 16 % furent de profonds arriérés mentaux. Les mères dont la grossesse était plus avancée mirent au monde un nombre anormalement élevé d’enfants mort-nés ou qui moururent avant l’âge d’un an.
A plus long terme, les effets résultent des conséquences tardives de l’irradiation primaire ou d’un séjour plus ou moins long dans une zone contaminée par les retombées. Les isotopes entrent dans le corps par la bouche, les poumons ou éventuellement la peau. Les aliments dans lesquels des produits radioactifs ont été incorporés – le lait par exemple – sont une source importante de contamination. Les données que nous possédons à ce sujet dérivent des études faites sur les survivants des bombardements japonais, sur les malades ayant reçu des doses importantes de rayons X à des fins diagnostiques ou thérapeutiques et sur les travailleurs exposés aux radiations.
Les cancers. Il est prouvé que les radiations augmentent le taux des cancers et des leucémies. L’incidence de toutes les leucémies augmente, sauf celle de la leucémie lymphoïde chronique. Au Japon, c’est 6 ans plus tard qu’il en apparut le plus.
La période de latence des cancers est plus longue, 20 à 25 ans. L’excès par rapport à la population normale est net pour les cancers du sein, du poumon, de la thyroïde et des os.
Il n’est pas facile de chiffrer exactement les risques d’apparition d’une tumeur radio-induite et les avis des experts divergent. La conclusion de la Commission Internationale de Radioprotection est résumée dans le tableau 6. Le risque global de décès par tumeur induite est d’environ 1/10.000 par rad reçu. Le risque d’apparition d’une tumeur maligne est deux à trois fois plus élevé. Pour calculer le nombre de rads reçus, il faut évidemment faire le total de l’irradiation subie pendant toute la durée de l’exposition.
Les anomalies génétiques. En général, une anomalie génétique ou mutation, ne se manifeste que chez les enfants dont les deux parents sont des porteurs sains de la même altération. Ceci n’apparaîtra que rarement, au hasard des rencontres. Pour que les conséquences néfastes des mutations se manifestent au Japon, il faudra sans doute attendre plusieurs générations. Le fait que rien n’ait été observé à ce jour est normal, et non pas rassurant. Tout ce que nous savons de l’action des rayons X sur l’animal ou les cellules humaines en culture prouve qu’ils augmentent le taux de mutation proportionnellement à la dose reçue. Or tout ce qui augmente les mutations est considéré comme néfaste à la survie de l’espèce, ces mutations étant pour la plupart neutres ou défavorables.
Zaporijjia est la plus grande centrale nucléaire d’Europe (*). Elle est au centre des combats entre Russes et Ukrainiens dans la région (*). Comme le fut la centrale de Tchernobyl au printemps passé (*)
Les risques que des activités militaires dans le périmètre proche de centrales nucléaires font peser sur la région sont énormes. Ce qui a amené le Secrétaire des Nations-Unies, Antonio Guterres, à tirer une nouvelle fois la sonnette d’alarme : « Toute attaque contre des centrales nucléaires est une chose suicidaire » (*).
En 1986, l’ensemble de l’Europe a été polluée à des degrés divers par les émanations radioactives issues de l’accident de la centrale de Tchernobyl (*).
A Zaporijjia, aujourd’hui, qui serait impacté par un « accident » ? Quelles seraient les conséquences sanitaires pour le continent ? Quelle ampleur pourrait prendre un tel scénario ?
Lors d’incidents industriels majeurs, et certainement nucléaires, vitesse et précision des interventions sont primordiales.
En 1986, ce sont les responsables de ce qui était l’URSS (*) qui étaient à la manœuvre pour gérer cette catastrophe civile.
Aujourd’hui à Zaporijjia, qui organiserait les secours en pleine zone de guerre ? Qui seraient les « liquidateurs » ? (*)
Cet été 2022 est vraiment très « chaud ». Dans tous les sens du terme.
Sa liste de coauteurs ne laissera pas indifférents ceux qui suivent l’actualité climatique : Luke Kemp, Joanna Depledge, Kristie L. Ebi, Goodwin Gibbins, Timothy A. Kohler, Johan Rockström, Marten Scheffer, Hans Joachim Schellnhuber, Will Steffen, Timothy M. Lenton.
Présentation de l’article :
Une gestion prudente des risques exige la prise en compte de scénarios allant du moins bon au pire. Or, dans le cas du changement climatique, ces futurs potentiels sont mal connus. Le changement climatique anthropique pourrait-il entraîner l’effondrement de la société mondiale, voire l’extinction de l’humanité ? À l’heure actuelle, il s’agit d’un sujet dangereusement sous-exploré.
Pourtant, il existe de nombreuses raisons de penser que le changement climatique pourrait entraîner une catastrophe mondiale. L’analyse des mécanismes à l’origine de ces conséquences extrêmes pourrait contribuer à galvaniser l’action, à améliorer la résilience et à informer les politiques, y compris les réponses d’urgence.
Nous exposons les connaissances actuelles sur la probabilité d’un changement climatique extrême, expliquons pourquoi il est vital de comprendre les cas les plus défavorables, exposons les raisons de s’inquiéter des résultats catastrophiques, définissons les termes clés et proposons un programme de recherche.
Le programme proposé couvre quatre questions principales :
1) Quel est le potentiel du changement climatique à provoquer des événements d’extinction massive ? 2) Quels sont les mécanismes qui pourraient entraîner une mortalité et une morbidité massives chez l’homme ? 3) Quelles sont les vulnérabilités des sociétés humaines aux cascades de risques déclenchées par le climat, comme les conflits, l’instabilité politique et les risques financiers systémiques ? 4) Comment ces multiples éléments de preuve – ainsi que d’autres dangers mondiaux – peuvent-ils être utilement synthétisés dans une « évaluation intégrée des catastrophes » ?
Il est temps pour la communauté scientifique de relever le défi d’une meilleure compréhension du changement climatique catastrophique.
Commentaires Cédric Chevalier
Il semble impératif de prendre conscience de la situation d’urgence écologique absolue, de la reconnaître publiquement et surtout de gouverner la société en conséquence. Cela nécessite d’inclure les risques existentiels parmi les scénarios pris en compte. Nous le martelons depuis notre carte blanche collective du 6 septembre 2018 et la pétition de 40.000 signatures qui a suivi, remise à la Chambre de la Belgique. Les scénarios « catastrophes » ne sont pas des « excentricités douteuses » auxquelles les décideurs et scientifiques sérieux ne devraient pas attacher d’importance mais, au contraire, le point de départ, la pierre de touche, à partir duquel on peut seulement paramétrer ses efforts politiques et scientifiques. Dans l’histoire de la Terre, il y a déjà eu des changements d’ampleur « catastrophique », et il peut encore s’en produire, au détriment de certaines espèces, dont la nôtre. Et il ne peut y avoir de politique que lorsque l’existence de la communauté humaine est préservée.
L’éventuelle faible probabilité (sous-estimée peut-être à tort) de certains de ces scénarios (probabilité qui augmente à mesure que dure l’inertie, étant donnée l’existence des effets de seuil), n’est jamais une excuse pour ne pas les traiter. A partir du moment où ces scénarios impliquent la perte d’un grand nombre de vies et d’autres éléments d’importance existentielle, même pour une probabilité infime, ils doivent être pris en compte. Quand le risque sur l’espèce humaine toute entière ne peut être écarté, on fait face à la catégorie la plus élevée des risques existentiels.
Cet article invite donc à se demander si une partie de la communauté scientifique, avec sa culture de prudence et de modération adoptée par crainte de perdre sa crédibilité, n’a pas produit une pensée, un langage, des travaux et une priorisation de la recherche qui nous ont rendu collectivement aveugles sur la réalité effective des risques existentiels.
« Pourquoi se concentrer sur un réchauffement inférieur et des analyses de risque simples ? L’une des raisons est le point de référence des objectifs internationaux : l’objectif de l’accord de Paris de limiter le réchauffement bien en dessous de 2 °C, avec une aspiration à 1,5 °C. Une autre raison est la culture de la science climatique qui consiste à « pécher par excès de prudence », à ne pas être alarmiste, ce qui peut être aggravé par les processus de consensus du GIEC. Les évaluations complexes des risques, bien que plus réalistes, sont également plus difficiles à réaliser. Cette prudence est compréhensible, mais elle n’est pas adaptée aux risques et aux dommages potentiels posés par le changement climatique. Nous savons que l’augmentation de la température a des « queues de distribution de probabilités épaisses » : des résultats extrêmes à faible probabilité et à fort impact. Les dommages causés par le changement climatique seront probablement non linéaires et entraîneront une queue de distribution de probabilité encore plus épaisse. Les enjeux sont trop importants pour s’abstenir d’examiner des scénarios à fort impact et à faible probabilité. »
Préférant se situer, par ethos scientifique, en deçà du risque probable, alors que l’éthique intellectuelle préconisait de se situer au-delà du risque probable, au niveau du risque maximal. La modération est au cœur de l’ethos scientifique, mais l’éthique des risques existentiels exige une forme d’exagération vertueuse, comme méthode de gouvernement. Le scientifique doit rester modéré, mais l’intellectuel qui sommeille en lui doit sans aucun doute hurler l’urgence, sans attendre d’en avoir toutes les preuves. Et surtout, le politique doit gouverner en ayant le scénario du pire à l’esprit, en permanence.
C’était le message, malheureusement mal compris, du philosophe Hans Jonas dans son ouvrage majeur, « Le Principe Responsabilité », de considérer que la femme ou l’homme d’État devait gouverner selon une « heuristique de la peur », en considérant les plus grands risques existentiels. Avec pour maxime « d’agir de telle façon que nos actions soient compatibles avec la permanence d’une vie authentique sur la Terre ». Le philosophe Jean-Pierre Dupuy a complété cette réflexion par le « catastrophisme éclairé », nous invitant à considérer que « le pire est certain », à un iota près, ce qui justement permet d’agir collectivement pour l’éviter.
Ce Principe Responsabilité, contrairement aux critiques, n’a jamais été un principe irréaliste et paralysant, mais au contraire, un principe raisonnable et d’action. On peut même penser qu’il est le fondement de la relation de responsabilité qui existe entre un parent et un enfant, et entre un politicien et les citoyens.
On comprend que s’il avait été mis effectivement en œuvre, jamais l’humanité n’aurait libéré dans la biosphère autant de substances polluantes, en ce compris les gaz à effet de serre, à partir du moment où l’impact catastrophique potentiel fut jugé plausible. C’était il y a environ 50 ans déjà selon certaines archives déclassifiées de la présidence américaine de Jimmy Carter, notamment, où les mots « the Possibility of Catastrophic Climate Change » figurent.
C’est en partie ce qui autorise le philosophe Stephen Gardiner de parler d’une « perfect moral storm », et de corruption morale, lorsqu’on ne tire pas les conséquences de ce que l’on sait, car on ne veut pas le croire, en s’abritant derrière la « complexité du problème » :
« En conclusion, la présence du problème de la corruption morale révèle un autre sens dans lequel le changement climatique peut être une tempête morale parfaite. C’est que sa complexité peut s’avérer parfaitement commode pour nous, la génération actuelle, et en fait pour chaque génération qui nous succède. D’une part, elle fournit à chaque génération la justification qui lui permet de donner l’impression de prendre le problème au sérieux – en négociant des accords mondiaux timides et sans substance, par exemple, puis en les présentant comme de grandes réalisations – alors qu’en réalité, elle ne fait qu’exploiter sa position temporelle. Par ailleurs, tout cela peut se produire sans que la génération qui exploite n’ait à reconnaître que c’est elle qui le fait. En évitant un comportement trop ouvertement égoïste, une génération antérieure peut profiter de l’avenir en évitant de devoir l’admettre – que ce soit aux autres ou, ce qui est peut-être plus important, à elle-même. »
La critique adressée aux scientifiques du climat s’étend donc à l’entièreté des forces qui œuvrent pour défendre l’habitabilité de notre biosphère pour tous les êtres vivants. La modération et le refus d’évoquer publiquement les scénarios du pire dans le chef des activistes, des associations, des syndicats, des entreprises, des pouvoirs publics, des partis et des mandataires politiques est contraire au respect du Principe Responsabilité. A force de ne pas vouloir évoquer le pire, de ne pas vouloir « faire peur », il est impossible pour la population de comprendre l’enjeu existentiel, et on ne peut pas s’étonner ensuite que l’inertie demeure.
N’y a-t-il pas une forme de faillite morale, pour certains, à refuser de parler ouvertement, publiquement, de manière concrète, de la possibilité de ces scénarios catastrophiques ?
L’article fait cette analogie historique :
« Connaître les pires cas peut inciter à l’action, comme l’idée de « l’hiver nucléaire » en 1983 a galvanisé l’inquiétude du public et les efforts de désarmement nucléaire. L’exploration des risques graves et des scénarios de températures plus élevées pourrait cimenter un réengagement en faveur de la barrière de sécurité de 1,5 °C à 2 °C comme l’option « la moins rébarbative » ».
Tout a changé depuis hier Et la rue a des yeux qui regardent aux fenêtres Y a du lilas et y a des mains tendues Sur la mer le soleil va paraître Charles Trenet – 1938 (*)
Les drones
On se souvient des reportages sur ces militaires américains qui les pilotent dans le monde entier depuis leurs postes de commande aux États-Unis. Des « gamers » tueurs. Travail psychologiquement dur, paraît-il.
Il y des drones de toutes les tailles. Avec caméra, électronique et/ou armement embarqué.
La genèse de ces véhicules sans pilote est plus longue que l’on ne pourrait le penser. Mais, c’est une autre histoire.
Celle qui nous intéresse, c’est celle d’engins actuels, de plus en plus perfectionnés, fabriqués et vendus de tous les côtés.
En Ukraine
L’une des stars de la défense militaire ukrainienne est d’origine turque. Nommé Bayraktar (voir références), il est craint des Russes pour ses performances anti-chars.
Turquie qui, considérée comme très liée à Moscou, laisse vendre ces engins à l’Ukraine, en pleine guerre…
Mais, la miniaturisation permet l’émergence d’autres formes d’engins pilotés à distance.
Au départ, cela ressemble à des jouets pour grands.
Semblables à ceux utilisés dans l’agriculture pour l’analyse des sols, le cinéma, la sécurité, le transport de transplants, … ou le pilotage sportif.
Les plus petits sont livrés en kit et sont relativement bon marché.
Munis de caméras, ces engins permettent d’espionner le voisinage … ou les positions précises d’objectifs ennemis dans le cadre d’un conflit armé.
Ce qui n’a pas échappé à un collectif nommé Nebesna Kara (« Châtiment céleste »), « des amateurs enthousiastes [qui] fabriquent discrètement des drones létaux destinés à être utilisés sur le front de la guerre contre la Russie » (voir références).
Lestés de grenades ou autre armes létales ad hoc, voilà nos « dronichoux » devenus de véritables petites machines de guerre, sophistiquées, maniables, précises et relativement bon marché.
D’autant plus que la communauté ukrainienne des pilotes sportifs de drones apporte la connaissance, assure le montage, et que des financements participatifs allègent la facture.
Il ne fait vraiment pas bon être chauffeur de char en Ukraine ces temps-ci.
Quant aux conséquences globales …
Nous en sommes donc là !
Un peu de bricolage, un financement relativement faible et une communauté – quels que soient ses objectifs – est susceptible d’aller larguer de la peinture ou une grenade, en passant par des confettis ou des cailloux, sur quelle que cible que ce soit.
Il semble urgent de revoir les conditions des assurances familiales …
Surtout, les enfants, ne tentez rien sans en parler à des adultes ! Ne tentez rien, en fait !
Côté organisation de la protection de nos centrales nucléaires ou au gaz, de nos zones industrielles « Seveso » ou non, ne pas oublier que dorénavant :
Déléguée ONU du Forum des jeunes pour la Belgique francophone à la COP 26 de Glasgow
Propos recueillis par Michel Torrekens
Bruxelloise de 25 ans, Nadège Carlier est doctorante en sciences politiques à l’UCLouvain. Elle a également été désignée comme déléguée ONU francophone du Forum des jeunes, organe officiel de représentation de la jeunesse en Fédération Wallonie-Bruxelles, à la COP 26 qui s’est tenue à Glasgow. Nous l’avons rencontrée pour qu’elle nous fasse part de son expérience.
En quoi consiste ce mandat de déléguée ONU francophone du Forum des jeunes ?
Nadège Carlier : « Ce mandat a commencé en mars 2020, alors que débutait la pandémie, et dure deux ans, une première année en tant que junior et une deuxième en tant que senior pour apprendre progressivement les rouages du mandat et pour que l’on soit bien préparée au final pour une représentation à l’international, car la COP est très compliquée, même après avoir discuté pendant un an avec des acteurs et actrices de la société civile. Dans ce cadre, je représentais la jeunesse francophone sur les questions climatiques. Mais la COP 26 a été la pointe la plus visible d’un iceberg, d’un engagement pour le climat qui s’est concrétisé principalement en Belgique depuis deux ans. Initialement, je devais participer à la COP en 2020, mais celle-ci a été reportée d’un an à cause de la pandémie. »
Êtes-vous nombreux à exercer ce mandat ?
Nadège Carlier : « J’ai une collègue flamande désignée par le Vlaams Jeugd Raad, l’équivalent flamand du Forum des jeunes. Nous étions donc deux à représenter les jeunes dans la délégation officielle. Nous étions les seules avec cette casquette officielle, à avoir des impératifs de mandats, mais il est évident qu’il y avait aussi des représentants et des représentantes de Youth for climate et d’autres organisations avec un rôle plus activiste, tout à fait nécessaire à mon humble avis. Il s’agit de porter notre cause sur plusieurs fronts, tant de façon institutionnelle que de façon militante. En outre, il y a plusieurs jeunesses et il n’y a pas nécessairement unanimité sur tous les sujets. La diversité des voix est importante, et ce sont parfois des équilibres délicats pour que chacun trouve sa place. »
En quoi consiste le Forum des jeunes ?
Nadège Carlier : « Le Forum des jeunes est l’organe d’avis officiel des jeunes en Fédération Wallonie-Bruxelles, anciennement nommé Conseil de la jeunesse. Celui-ci a été refondé complètement et est moins politisé qu’avant. Sa mission est d’informer, former et éduquer les jeunes sur une série de sujets, mais pas dans une dynamique top/down. Il s’agit en effet de projets pour les jeunes et par les jeunes, de créer une dynamique où les jeunes s’engagent, prennent position et s’organisent par eux-mêmes. Ils sont invités à amener leurs propres sujets et le Forum s’engage alors dans une mission de soutien. Le Forum est actif sur toute une série de sujets. Moi, je me suis engagée pour le climat, mais on y aborde aussi des thèmes comme le développement durable, l’environnement, le droit de vote, l’éducation, le confinement, l’égalité de genres, etc. Précisons que le public du Forum, ce sont les jeunes de 16 à 30 ans. »
Deviez-vous avoir une expertise particulière en climatologie, par exemple une formation de biologiste en sciences environnementales, pour être mandatée par le Forum des jeunes à la COP 26 ?
Nadège Carlier : « Je suis entrée au Forum des jeunes en postulant à ce mandat de déléguée ONU pour le climat. Je suis doctorante en sciences politiques et je considère que nous pouvons tous et toutes nous intéresser aux questions climatiques sans être ingénieur en biologie ou doctorante en sciences. Il y a assez d’informations dans des rapports comme ceux du GIEC pour se former et s’informer. Pour le climat, il y a même un enjeu capital à ne pas laisser seulement les ‘experts’ scientifiques en parler. Ce doit être un débat public sur nos modes de vie, de production et de consommation qui nous concerne tous et toutes. Il faut que ces matières soient traduites par et pour les citoyens, de façon critique, pour nourrir le débat politique. Je pense que les crises environnementales doivent être politisées. J’apprécie aussi d’avoir différentes facettes dans ma vie. Ma thèse ne porte pas sur les négociations climatiques à la COP ; elle concerne les projets transversaux et collaboratifs mis en place au niveau local. Et j’aime beaucoup voyager à différents niveaux politiques, celui de l’ONU comme celui de la commune. Typiquement avec les politiques environnementales et climatiques, il y a nécessité d’une approche plus transversale pour prendre des décisions en s’éloignant de logiques plus hiérarchiques ou par silos. J’étudie différentes communes en Europe, l’idée étant de voir ce qui fonctionne, ce qui ne fonctionne pas, ce que ça change pour les fonctionnaires et si cela change les politiques… Quant à mon mémoire, il portait sur la gouvernance climatique belge, ce qui m’a bien servi dans mon mandat. Je m’étais intéressée au burden sharing de 2012 qui avait mis huit ans à être avalisé. »
Qu’entendez-vous par burden sharing ?
Nadège Carlier : « En gros, c’est le partage de l’effort ou de la charge en matière climatique et environnementale. Au niveau européen, il y a des objectifs climatiques qui ont été fixés, comme 55% en moins d’émissions de gaz à effets de serre d’ici 2030. Ensuite, comme il y a des pays qui ont plus de moyens que d’autres ou qui sont plus loin que d’autres dans leurs politiques de transition, il y a des discussions pour se répartir les efforts. La Belgique a reçu un objectif de diminuer de 47% les émissions de gaz à effets de serre d’ici 2030. Comme la Belgique est un état fédéral, cet objectif doit ensuite être réparti entre les différentes régions. En plus de cela, il y a le système ETS, le système d’échanges quotas carbone au niveau européen, à savoir que la Belgique reçoit de l’argent dans ce cadre et que celui-ci doit à nouveau être réparti. Ce sont des questions qui coincent. Cela a été le point de départ d’un mélodrame à la COP26 car la Flandre refuse de s’engager à aller plus loin que moins 40%, ce qui oblige les autres régions à faire plus pour atteindre l’objectif fixé à la Belgique. Mon mémoire portait sur ces questions lors de la COP précédente et on voit que ces problèmes se sont à nouveau posés. »
Comment avez-vous été sélectionnée pour représenter le Forum de la jeunesse ?
Nadège Carlier : « La sélection est organisée par le Forum des jeunes et se fait en plusieurs étapes. D’abord, l’envoi d’un CV, d’une lettre de motivation et les réponses à une série de questions. Ensuite, un test écrit sur des connaissances factuelles, mais aussi la rédaction d’un discours par exemple ainsi que d’autres mises en situation. Et enfin, un entretien oral avec ma prédécesseure, une représentante de la société civile climatique et la permanente du Forum des jeunes qui s’occupe de ces mandats. Il faut savoir qu’il y a aussi une sélection pour des délégués biodiversité et développement durable qui se rendent à d’autres sommets organisés par l’ONU. »
Où se situe le Forum des jeunes parmi les diverses associations de jeunes qui se mobilisent pour le climat ?
Nadège Carlier : « Le Forum des jeunes fait partie de la délégation officielle en tant que Party overflow. Cela signifie que nous avions accès à presque toutes les salles de négociations, la réunion quotidienne de la délégation, etc. Ceci dit, ‘overflow’ signifie que nous sommes ‘excédents’ et que nous cédons la priorité aux badges ‘Party’ tout court. Par exemple, nous n’avions pas accès à la réunion de coordination de l’Union européenne ni à des négociations en plus petits comités. Des militantes comme Anuna De Wever ou Adelaïde Charlier avaient aussi un badge de Party overflow, et donc accès à pas mal de réunions. Il faut savoir que les relations entre société civile et délégation belge évoluent d’un sommet à l’autre, notamment en fonction des représentants politiques, certains étant plus ouverts à la société civile que d’autres. Lors de cette COP26, on peut dire que les ministres et la délégation faisaient preuve d’une belle ouverture envers la société civile. »
En quoi consiste le job d’une représentante ONU du Forum des jeunes à une COP ?
Nadège Carlier : « Il y a un double volet : d’une part, faire du plaidoyer politique auprès de la délégation belge – et de la délégation européenne dans une moindre mesure. On a ainsi pu rencontrer Franz Timmermans, le premier ministre Alexander De Croo, les ministres Zakia Khattabi, Alain Maron et Philippe Henry, ainsi que certains présidents de parti. Nous étions avec la Coalition Climat qui chapeaute diverses associations en Belgique, tant francophones que flamandes, pour organiser, par exemple, les marches comme celle du 10 octobre 2021. Cette coalition regroupe des syndicats, des ONG nord-sud, des associations environnementales, de développement et de coopération. D’autre part, il s’agissait d’expliquer aux jeunes en Belgique ce qui se passait à la COP via les réseaux sociaux en décryptant et en vulgarisant les informations. »
Par rapport à la raison d’être de la COP, quels sont les éléments positifs que vous auriez envie de mettre en avant ?
Nadège Carlier : « D’une manière générale, la COP, c’est bien, mais pas assez. Tout est toujours en demi-teinte. D’un point de vue positif, on a mentionné pour la première fois la diminution des énergies fossiles dans l’accord final. Ce qui m’a choquée, c’est que ce point fasse encore débat. Le point négatif, c’est que l’on mentionne une diminution sans inscrire une vraie sortie des énergies fossiles. Le deuxième élément positif que je retiens, c’est précisément la participation des jeunes en tant que génération la plus affectée, porteuse de changements et en général plus sensibilisée à ces questions que les autres générations. Pour la première fois, cela a été clairement mentionné dans les accords finaux. Un autre constat positif que je tire de la COP, c’est sa dimension médiatique, ce momentum médiatique et politique qui permet à toute une série de voix de se faire entendre, ce qui n’est pas forcément le cas d’habitude. Je pense aux représentants de peuples indigènes, des îles Pacifique comme les îles Salomon, qui ont pu témoigner et défendre leurs positions. Par contre, j’ai été impressionnée de constater comme petits et grands pays n’ont pas les mêmes moyens, les mêmes leviers d’actions. L’ONU finance un minimum pour chaque délégation, genre un ou deux délégués, et le reste est financé par chaque pays. C’est ainsi que la Belgique avait une grosse délégation, d’autant que Glasgow n’est pas trop loin. D’autres pays comme les États-Unis ont des dizaines de négociateurs et négociatrices. Par contre, des pays du sud ont trois, quatre représentants. Il y a aussi toute la partie avec les pavillons comme celui du Bénélux ou de diverses associations où sont organisées des conférences notamment. Mais tous les pavillons n’ont pas la même taille : il y a un côté un peu exposition universelle, les plus voyants étant ceux du Qatar et de la Russie. On y voit de manière très concrète les inégalités d’accès. C’est vrai aussi pour la société civile. Des jeunes Belges, il y en avait beaucoup par rapport à l’Équateur par exemple. Paradoxalement, les pays qui sont les plus affectés par la crise climatique ont moins accès au sommet qui lui est consacré. »
Autre constat qui vous ait marquée ?
Nadège Carlier : « Je me suis rendu compte que la COP n’est pas une structure qui permettra de prendre des décisions radicales. On crée beaucoup trop d’attentes autour des COP. On entend souvent dire que c’est la COP de la dernière chance, mais une COP, c’est avant tout itératif et graduel dans le changement. Elle rassemble des états souverains qui ne vont pas s’imposer des contraintes excessives. Comme, en plus, les décisions se prennent par consensus, il ne faut pas s’attendre à des changements radicaux ou une révolution du système. Je crois par contre que ce serait pire si les COP n’existaient pas. Par contre, je ne crois pas que la crise climatique se résoudra par la technologie. Les innovations technologiques contribueront à des améliorations et j’encourage la recherche, mais le premier levier à mes yeux tient au changement de nos comportements de production et de consommation. J’ai été étonnée de constater à la COP combien le narratif autour de la technologie était encore très présent. Dès qu’on entrait dans le grand hall, on était accueilli par une voiture de course électrique ainsi qu’un avion électrique. Pour moi, on essaie de nous enfumer en nous suggérant que le secteur privé et la recherche vont nous apporter des sources d’énergie inépuisables. Pour moi, à long terme, cela ne suffira pas. »
Quelle solution voyez-vous dès lors ?
Nadège Carlier : « Je pense qu’il ne suffira pas d’un seul niveau de décision ou d’actions. Des changements radicaux peuvent avoir lieu au niveau local mais, à moins que ceux-ci ne se généralisent, se multiplient, des décisions doivent aussi être prises et activées à d’autres niveaux. Tous les moyens doivent être activés à tous les niveaux. Cela m’a frappée comme les choses bougent en Belgique parce qu’il y a la pression de la rue avec les marches pour le climat mais aussi celle de la COP, notamment à un niveau médiatique. La pression doit venir du bas et du haut. »
Et depuis votre retour de Glasgow, que s’est-il passé pour vous ?
Nadège Carlier : « On a créé un événement avec le Forum des jeunes pour décrypter cette COP et nous avons partagé sur les réseaux sociaux. Je poursuis le suivi des dossiers que j’avais entamés l’an dernier, notamment sur l’alimentation durable au niveau belge et européen, en particulier la PAC en Wallonie. L’alimentation durable est un levier de changement important car elle est au carrefour de tellement de réalités du quotidien des gens en termes de biodiversité, de climat, de santé publique, de justice sociale, d’économie… Aborder l’alimentation, c’est aborder des enjeux globaux. Sinon, j’arrive à la fin de mon mandat et ma successeuse va reprendre le flambeau. »
Le 11 mars 2011, l’archipel est secoué par le plus important séisme enregistré, de magnitude 9 sur l’échelle de Richter. 51 minutes plus tard, un tsunami frappe les côtes causant plus de 18 000 morts et provoquant des dégâts considérables.
La série noire se poursuit à la centrale nucléaire de Fukushima Daiichi. Le Tsunami inonde les circuits de refroidissement du réacteur. Dans les heures et les jours qui suivent, trois des quatre réacteurs (les réacteurs 1, 2 et 3) entrent en fusion et relâchent de grandes quantités de radioéléments dans l’environnement.
Une fatalité ? Ou une faiblesse structurelle ? En 1999, la centrale nucléaire du Blayais, en France, passe à deux doigts de la fusion d’un réacteur, quand la tempête Martin, causant une marée exceptionnelle, noie les circuits de refroidissement, tout comme à Fukushima 12 ans plus tard (1).
Le risque d’un accident nucléaire majeur a longtemps été sous-estimé. D’après les risques calculés, on estimait qu’avec 500 réacteurs en activité dans le monde, la fréquence des accidents majeurs devait être de 20 à 200 ans.
Je suis né en 1982 et, durant mon existence, j’ai connu la fusion de quatre réacteurs industriels (un à Tchernobyl et trois à Fukushima).
François Lévêque, professeur au Centre d’Economie Industrielle de Paris, en réponse à une surestimation du risque dans la presse, arrivait à la conclusion que le risque était tout de même 10 à 100 fois supérieurs à celui qui avait été estimé jusque-là.
Il en déduisait que le risque d’un accident majeur en Europe dans les trente prochaines années était de 72 %. (2)
Au-delà des conséquences sanitaires d’un tel accident (3), que l’écrivaine biélorusse Svetlana Alexievitch a décrit dans « La Supplication », le coût estimé de la catastrophe de Tchernobyl est de 235 milliards de dollars pour la seule Biélorussie. Pour le Japon, outre les 370 km² inhabitables, les 80 000 déplacés, les 2000 décès liés à la détresse psychologique des survivants (4), le coût estimé de la catastrophe de Fukushima est situé entre 71 et 250 milliards de dollars… pour l’instant.
Outre le risque d’accident, le nucléaire implique la gestion de déchets qui peuvent rester dangereux pendant plusieurs centaines de milliers, voire un million d’années (5). Quel est le coût d’une gestion de déchets sur un laps de temps aussi gigantesque ?
Les plus anciennes structures construites par la race humaine ont 6500 ans seulement… Nous n’avons jamais rien construit qui puisse résister 100 000 ans. Il y a 100 000 ans, aucune civilisation humaine n’existait. Où serons-nous dans 100 000 ans ? Quelle langue parlerons-nous ? Ce sont des questions auxquelles nous n’avons pas de réponses. Cependant, pour stocker les déchets, certains pays ont commencé à construire des sites d’enfouissement, sans savoir même si le symbole « nucléaire » aura encore du sens pour nos descendants dans 4 ou 5000 ans seulement. (6)
Le nucléaire a également un coût de production qui est élevé. On cite souvent des chiffres très bas pour le prix du kilowatt/h nucléaire… mais c’est oublier que les centrales ont été construites avec de l’argent public. Quand les centrales sont construites par le privé, comme à Flamandville en France, le coût estimé monte à 110-120 euros du MW, contre 60 euros pour l’éolien ou le photovoltaïque. (7)
C’est sans compter une fluctuation des prix de l’uranium, puisque, comme toutes les énergies combustibles, le nucléaire dépend d’importations et nous rend donc tributaire de pays tiers. D’autant que les ressources mondiales d’Uranium sont déjà en train de se tarir, puisqu’on consomme déjà, à l’heure actuelle, plus d’uranium que les mines n’en fournissent chaque année. (8)
Le temps de construction d’une centrale est très long. Les constructeurs avancent des durées de 5 à 7 ans, mais dans les faits, la liste des chantiers en cours laisse songeur. En France, Flamandville est en construction depuis 2007. En Finlande, un réacteur est en chantier depuis 2003. (9) Et il ne s’agit que de la construction en tant que telle, sans compter la demande de permis, les recours éventuels, etc.
Quand on sait que nous devons avoir réduit nos émissions de gaz à effet de serre de moitié pour 2030, dans 9 ans, cela met le nucléaire définitivement hors délai pour l’enjeu climatique.
D’ailleurs, quel est le poids réel du nucléaire ?
Pour la production d’électricité, il représente un peu plus de 10 % de la production mondiale. (10) Ce qui est moins que les énergies renouvelables, avec – il est vrai – des potentialités de l’hydraulique très élevées dans certains pays qui poussent le renouvelable à la hausse.
Fukushima nous l’a rappelé : le nucléaire n’est pas l’énergie miracle qu’on nous a vendue tout un temps. D’ailleurs, le concept même d’énergie miracle est un leurre…
Il n’y a aucune source de production d’énergie, même renouvelable, qui n’ait un coût économique, social et environnemental.
Il s’agit, pour chacune d’entre elles, de mesurer les avantages, les inconvénients et de voir si le coût est acceptable. Pour ma part, en ce qui concerne le nucléaire, c’est non !
Pour le reste, il ne faut pas se mentir. Nous ne maintiendrons pas le climat à un niveau acceptable pour la race humaine sans repenser nos consommations et les réduire.
Tout consommation d’énergie a un coût. Le pétrole, l’uranium, le gaz, ne sont pas inépuisables, même si nous devions continuer à les consommer sans nous soucier des alertes climatiques, nous atteindrions la pénurie avant la fin du siècle.
Avoir une vision durable de la société, c’est avant tout cela, mesurer nos consommations et évaluer nos investissements aujourd’hui pour que demain soit toujours soutenable pour les générations à venir.
Il est l’une de ces personnalités qui luttent quotidiennement avec acharnement en faveur d’un avenir compatible avec les contraintes environnementales et climatiques.
Socialement très engagé, pointu quant à ses propositions économiques, n’hésitant pas à s’engager personnellement, Pierre Larrouturou fait – dans cet entretien – le tour des enjeux actuels.
Climat, Covid, système économique, Europe, énergies, ressources, avenir, … « Le monde d’après » se regarde une première fois globalement, avant d’y revenir thématique par thématique.
Merci à Frédéric Muhl pour cette vidéo passionnante.
Je ne sais pas par qui et quand le Moyen-Age a été daté entre la chute de l’Empire romain en 476, et la redécouverte de l’Amérique ou de l’imprimerie en 1492. Ces dates sociales, technologiques et politiques ont marqué le temps. En France, 1515, 1610, 1715, 1815, ont marqué les siècles par des faits politiques, technologiques, philosophiques. Ces dates sont arbitraires, mais elles aident à jalonner le temps, à le mémoriser. Elles organisent l’Histoire à partir des histoires. 1815-1914 est le XIXe siècle ; 1914-2020 le XXe siècle. Le XXIe siècle commence aujourd’hui. Voici pourquoi.
1818-1914. XIXe siècle : les temps modernes
Certains datent les temps modernes à 1789. C’est l’exploitation industrielle de la machine à vapeur qui marque les temps modernes : premier train expérimental 1804 en Angleterre par Richard Trevithick sur 14 kilomètres, 1823 première concession française d’état pour la ligne Saint-Étienne à Andrézieux sur 23 kilomètres.
Avec la machine à vapeur, pour la première fois de son histoire l’Homme se déplace plus vite que le cheval, grâce au train, puis grâce à la voiture (1875), se déplace plus longtemps grâce aux péniches motorisées et aux bateaux à vapeur (1803). Il rejoint les oiseaux en 1903 avec le Wright Flyer, le premier avion. La première pile électrique date de 1800 (Volta), et surtout Thomas Edison crée l’ampoule électrique en 1879. Le bois, le charbon, le pétrole (1855/56 en Pennsylvanie) et l’électricité ont été les sources d’énergie, pour l’essentiel des sources locales.
Corrélativement, et par la création de l’industrie, les hommes ont commencé à quitter la campagne, dépendant des saisons et du temps, pour aller vers la ville et avoir des revenus plus réguliers sans les aléas météorologiques. La ville se crée avec de nouveaux matériaux (Eiffel), une nouvelle organisation (Haussmann à partir de 1852), une nouvelle classe sociale : la bourgeoisie. Les communications s’améliorent avec Morse (1843), puis le télégraphe public en France en 1851. Les empires coloniaux atteignent leur maximum. Les arts (musique, peinture, sculpture …) et la réflexion économique et sociale font des bonds gigantesques marquant la libéralisation des esprits. Une première mondialisation des échanges (canal de Suez 1869, canal de Panama 1914) se terminera avec 1914.
1914-2020. XXe siècle : le siècle des guerres, libéralisme, nationalisme, technologie
Si le XIXe siècle a été la naissance des puissances, il s’est terminé sur des guerres idéologiques intellectuelles. Le XXe siècle est marqué par la victoire du libéralisme, la victoire des nationalismes, la victoire de la technologie dans des temps asynchrones qui ont vu parmi les plus grands massacres de l’histoire de l’humanité, le plus grand nombre de renversements de grandes puissances jamais observé en si peu de temps, une explosion technologique jamais constatée. Les compétences locales ont été remplacées par des compétences mondiales.
Le libéralisme économique est sorti victorieux des différents courants de pensée qui ont marqué la fin du siècle précédent, dont le marxisme (sous sa forme de communisme soviétique), la liberté de conscience, et ce qui est devenu le fascisme. Aujourd’hui, on parle de capitalisme libéral, au siècle précédent on parlait de paternalisme, il s’agit en fait d’un équilibre entre l’initiative personnelle et le bien-être des salariés ou les équipes. La protection sociale et les droits sociaux sont acquis : santé, famille, retraite, travail, chômage, dépendance.
La victoire des nationalismes signe la revendication d’indépendance des États-nations et des peuples, encore inachevée en 2020. Mais y a-t-il une fin ? Les 51 états fondateurs de l’ONU en 1945 sont devenus 197. Au long de la seconde partie de ce siècle, deux formes supranationales ont cependant atténué la victoire des nationalismes : la première est le groupement d’états par zones géographiques avec une visée économique, mais aussi culturelle (Union européenne) avec la libre circulation des personnes et donc des idées. Le second est le retour des religions (islam, catholicisme, évangélisme, etc.) et le développement de la religiosité. Enfin la victoire de la technologie dans une progression exponentielle (nanotechnologie, biotechnologie, information et connaissance : NBIC) facilitée par la communication (Internet), le bas coût de l’énergie et la rapidité de calcul (Artificial Intelligence). Sa progression semble se faire sans limites. Il y a pourtant une limite : celui qui a la connaissance, la data, gagne la bataille. Celle-ci est en cours et l’issue est indécise, mêlant états et entreprises tentaculaires.
De ces trois victoires il faut retenir pour l’Humain que jamais le savoir n’a été autant partagé, jamais la santé des humains n’a été aussi bonne, jamais l’humain n’a disposé autant de temps autre que pour travailler. Trois nouvelles puissances sont nées à l’issue de ce siècle qui peuvent déséquilibrer le monde : l’argent, GAFA et BATX, « notre maison brûle … ». Voir XXIe siècle.
La Covid-19 (19, car c’est l’année de découverte de la maladie, on devrait dire que le siècle se termine ou commence en 2019) résume la fin du XXe siècle qui avait débuté par la Grippe espagnole : une zoonose (maladie transmise de l’animal à l’Homme, ici un virus) se transmet en quelques semaines quasiment aux 7,8 milliards de Terriens. Un vaccin est imaginé, testé et industrialisé en 11 mois pour vacciner des milliards de Terriens. Ce qui se passait localement au début du siècle est mondial à sa fin. Le monde est devenu un village.
2020 : Début du XXIe siècle : l’anthropocène absolu
Pour certains, l’anthropocène est arrivé avec la machine à vapeur. Pour d’autres, c’est l’agriculture en marquant la fin du chasseur-cueilleur, il y a environ 10.000 ans, qui a initié l’anthropocène. Dans l’anthropocène absolu, la Nature est soumise à l’Homme. C’est ce qui se passe depuis les années 90.
La Covid-19 interroge sur la première bataille des temps à venir. C’est « notre maison brûle et nous la regardons brûler » de Jacques Chirac (2002 à Johannesburg). Avec les disparitions des milieux naturels (déforestation, mais aussi pollution des océans) les pandémies vont se multiplier, c’est ce qui se constate depuis une vingtaine d’années. Or la puissance de destruction est immense d’autant que plus de la moitié des Terriens vivent en ville, donc dépendent d’un système alimentaire industrialisé (mais aussi d’un système social) et soumis à de plus fortes exigences, car les humains sont de plus en plus nombreux (tout au moins jusqu’au mi-temps du siècle, 9 à 10 milliards) et en désir de plus manger qu’antérieurement. C’est la première facette de la bataille existentielle de ce nouveau siècle. Comment concilier l’Homme et la Nature, la Nature et l’Homme.
La seconde bataille de ce nouveau siècle est l’argent ou plutôt le trop-plein d’argent ou plutôt le manque d’argent. C’est un retour aux siècles précédents le XIXe siècle : la rémunération du capital se fait à un taux supérieur à celui du travail. Aux États-Unis, on considère que l’américain moyen n’a pas amélioré son pouvoir d’achat depuis plus de quarante ans. De l’autre côté du spectre, la finance est de plus en plus rémunératrice à tel point que les millionnaires et milliardaires se multiplient malgré la crise en cours. Or là aussi, la Covid-19 a mis en avant le déséquilibre en développant dans de nombreux pays des aides financières prenant la forme des prémices d’un revenu universel tandis que les riches devenaient plus riches. Un exemple simple : le tourisme est à l’arrêt et représente environ 15% des actifs mondiaux sans travail, officiel ou pas. Comment aider ces gens, comme d’autres ? Comment assurer que notamment la ville permette à l’Homme d’y vivre selon les aléas de la société ou de sa vie ?
La troisième bataille appelée à tort « GAFA BATX », représente des unités économiques sans état, l’Entreprise Sans Etat (ESA) par analogie avec Vers une société sans état de David Friedman (1973, paru en France en 1992). Il faut y ajouter les cryptomonnaies et toutes formes économiques qui détachent des entreprises ou organismes d’un pays ou des pays en accélération avec la 6G attendue pour 2030. Le numérique est un moteur prodigieux de ces systèmes. La multiplication des constellations de satellites ne pourra que les multiplier. Là aussi, la Covid-19 et la crise économique et sociale qui touche chaque pays, met en avant l’insolent succès de ces entités.
Si les États-Unis entament pour certains la mise en route de la loi antitrust, la Chine exerce une pression similaire sur l’empire d’Alibaba. Certains pays seront tentés de les héberger, la leçon de la fin des paradis fiscaux du siècle précédent devrait les en dissuader. Comment concilier des États et des entités ou organismes sans nécessité de base physique et éventuellement mondialisée ? Le monde devient-il un village virtuel ?
La Covid-19 accélère la mutation en cours. La Nature, l’Homme et l’Entreprise Sans Etat sont les trois batailles principales de ce début de XXIe siècle, le siècle de l’anthropocène absolu. Ce nom – Anthropocène absolu – sera-t-il retenu au long et à la fin de ce siècle ?