• Nucléaire : l’Autorité environnementale s’inquiète de l’impact écologique des #EPR2 à #Penly
    https://www.connaissancedesenergies.org/afp/nucleaire-lautorite-environnementale-sinquiete-de-limpact-e

    Connaissance des Énergies avec AFP parue le 21 octobre 2025

    L’#Autorité_environnementale relève des zones d’ombres concernant l’impact #sanitaire, #environnemental ainsi que la #sûreté du chantier et de l’exploitation de deux nouveaux #réacteurs #nucléaires EPR2 par #EDF à Penly (Seine-Maritime), dans un rapport publié début octobre.

    Cette instance indépendante a pour mission de rendre des avis sur les conséquences pour la santé et l’environnement de grands chantiers comme des infrastructures routières ou énergétiques.

    (...)

    Une autorisation environnementale accordée en juin 2024 a permis à EDF de démarrer l’an dernier le chantier des aménagements pour installer deux nouveaux EPR2, avant même l’autorisation de leur création, toujours à l’instruction.

    Encore une autre autorité à fusionner sous une direction unique.

  • Le « cauchemar » du CEA : pourquoi le démantèlement nucléaire prend des décennies
    https://www.latribune.fr/article/entreprises-finance/energie-environnement/2133555046872714/le-cauchemar-du-cea-pourquoi-le-demantelement-nucleaire-prend-des-decennie


    Le réacteur nucléaire G2, situé sur le site de Marcoule (Gard), nécessite encore environ 30 années de travaux de démantèlement. Toutefois, ces opérations n’aboutiront probablement que d’ici une centaine d’années.
    Juliette Raynal pour La Tribune.

    RECIT - Sous la nef monumentale du réacteur G2, le temps semble s’être arrêté. Mais derrière ce décor figé, le CEA affronte un défi bien vivant : démanteler l’héritage d’un demi-siècle d’atome militaire et civil. Entre retards, surcoûts, installations à bout de souffle et difficulté organisationnelle, sa stratégie est mise à mal.

    La nef, immense, mesure près de 75 mètres de hauteur et le soleil qui perce ce mardi matin d’octobre empêche de distinguer correctement le sommet de la structure. Le lieu, particulièrement silencieux, est chargé d’histoire. Nous ne nous trouvons pas dans une église mais dans un gigantesque bâtiment industriel, sur le site du Commissariat à l’énergie atomique (CEA) de Marcoule (Gard), abritant G2, le tout premier réacteur nucléaire ayant envoyé de l’électricité sur le réseau tricolore. C’était en 1958, au cœur de la guerre froide. Le réacteur, dont la mission principale consistait à produire du plutonium pour la dissuasion atomique, est arrêté définitivement en février 1980. Et depuis, le temps semble s’être figé, ou presque.

    Sur place, ce réacteur refroidi au gaz prend la forme d’un énorme cylindre en béton allongé et encerclé de câbles noirs destinés à contenir sa dilatation. Sur son flanc droit, on distingue encore les restes d’anciens « toboggans » permettant d’évacuer les combustibles sans arrêter le réacteur. Les générateurs à vapeur, situés en façade à l’extérieur du bâtiment, ont été retirés. Tout comme l’ensemble des combustibles et les salles de conduite. Désormais, les opérations de démantèlement sont à l’arrêt et trente ans de travaux seront encore nécessaires afin de « revenir à l’herbe ». Toutefois, l’échéance finale sera bien plus lointaine.

    #paywall

  • Sydney Sweeney has great jeans

    Fourrure, maigreur, diversité : comment la mode rétropédale sur les grandes causes sociétales
    https://www.lemonde.fr/m-le-mag/article/2025/09/05/maigreur-fourrure-diversite-la-mode-retropedale-depuis-quelque-temps-on-reco

    Il y a peu encore, l’industrie embrassait les grandes causes qui agitaient la société. Du soutien à la Gay Pride à celui de Black Lives Matter, en passant par son souci d’inclusivité dans la représentation des corps et des identités, elle semblait au diapason de l’époque. Mais le vent a tourné. Et l’élection de Donald Trump, qui multiplie les décrets antidiversité, change la donne.

    La caméra glisse sur le jean de l’héroïne – mince, blanche, à la longue chevelure blonde – pour s’arrêter sur son regard azur. « Mes jeans sont bleus », lance l’actrice américaine Sydney Sweeney (Euphoria, The White Lotus), après avoir évoqué la transmission des gènes des parents à leur progéniture. La voix off conclut alors : « Sydney Sweeney has great jeans », entretenant volontairement l’ambiguïté entre « jeans » et « gènes », deux mots homophones en anglais. Révélée le 23 juillet, la publicité vantant les pantalons d’American Eagle n’est pas passée inaperçue aux Etats-Unis. Début août, les grands quotidiens, du New York Times au Washington Post, lui dédiaient tribunes et analyses, tandis que CNN, ABC ou Fox News en débattaient dans leurs morning shows.

    Mettant en scène un vêtement pourtant plutôt consensuel, le jean, la publicité a polarisé l’opinion. Les progressistes y ont lu un éloge « eugéniste » et un traité de « propagande suprémaciste ». Les conservateurs, un retour à une féminité idéalisée et au « bon sens ». « Une revanche culturelle après toutes ces années où l’on nous a dit qu’il fallait trouver inspirantes les mannequins lingerie potelées », écrit The Free Press, le jeune média « antiwoke » qui monte. Donald Trump et son vice-président, J. D. Vance, en personne, ont même défendu la campagne, trop heureux de souligner au passage que l’actrice s’était inscrite sur les listes électorales républicaines, à Monroe County, en Floride, en juin 2024.

    Cette campagne d’American Eagle, dont l’action a bondi sous l’effet du scandale, incarne le vent réactionnaire qui souffle depuis quelques mois sur la mode, à l’opposé des discours inclusifs et philanthropes qui dominaient ces dix dernières années. « Nous sommes entrés dans un moment post-politiquement correct », résume Kimberly Jenkins, consultante et fondatrice de la plateforme The Fashion and Race Database. Comme si mode et idées progressistes n’allaient plus forcément de pair… Visuellement, cela se traduit par le retour de certains codes rétro, évoquant l’imaginaire tradwife, vantant le retour pur et simple de la femme au foyer, en robe de ménagère, petit sac à main et

    #habillement #reactionnaire

  • La plus grosse #start-up européenne du #nucléaire en difficulté financière
    https://reporterre.net/La-plus-grosse-start-up-europeenne-du-nucleaire-en-difficulte-financiere

    L’avenir de #Newcleo, la plus grosse start-up européenne du nucléaire, est incertain. D’après un audit de ses comptes que le quotidien économique en ligne La Tribune a consulté, il existe un « risque important » pour « la capacité du groupe » à « poursuivre » son activité s’il ne parvient pas à obtenir un nouveau financement dans les « douze mois ».

    Fondée en 2021 par trois Italiens, la start-up développe un petit #réacteur #modulaire (#SMR) à #neutrons rapides refroidis au plomb. Elle compte lancer une usine de combustible Mox dédiée dans l’Aube en 2030, puis implanter un démonstrateur de 30 mégawatts — la puissance une centrale nucléaire classique peut aller jusqu’à 1 500 mégawatts — près de Chinon (Indre-et-Loire) en 2031. La jeune pousse a enregistré 103 millions d’euros de pertes en 2024, soit plus du double de ses pertes de 2023 (45 millions d’euros).

    Le nucléaire ça eu payé. Mais ça paie plus. Tu vois, c’est pas comme pour l’IA où on te dit qu’on doit compter en milliards d’euros.

  • Mouvement du 10 septembre : ce que pensait Antonio Gramsci, ...

    via https://diasp.eu/p/17842398

    ... grand penseur révolutionnaire italien, des mouvements populaires spontanés

    Négliger, et, ce qui est pire, mépriser les mouvements dits spontanés, c’est-à-dire renoncer à leur donner une direction consciente, à les hausser sur un plan supérieur en les insérant dans la politique, peut avoir souvent des conséquences très sérieuses, très graves. Il arrive presque toujours qu’un mouvement ‘spontané’ des classes subalternes soit accompagné d’un mouvement réactionnaire de la droite de la classe dominante, pour des motifs concomitants : une crise économique, par exemple, détermine d’une part un mécontentement des classes subalternes et des mouvements spontanés des masses, et de l’autre elle détermine des complots de la part de groupes réactionnaires qui (...)

  • On m’a dit que cet essai était impossible, alors je l’ai tenté - Partie 1 : Thermite - YouTube
    https://www.youtube.com/watch?v=J-iEvzBzjPQ

    Vous pensez que la chimie est ennuyeuse ? Détrompez-vous ! Plongez dans une réaction thermite explosive dans notre vidéo où l’aluminium et le cuivre s’embrasent pour un spectacle étincelant. Découvrez comment une invention datant de 125 ans a révolutionné le monde, des colorants à la soudure des rails, et même la démolition de structures. Ne ratez pas l’occasion de voir des métaux en fusion dans une aventure qui fait fondre plus que du métal. Abonnez-vous pour plus de découvertes brûlantes et dites-nous ce qui vous a le plus fasciné ! #Chimie #Science #Réaction #Thermite #Découverte

    👉 Cette chaîne est réalisée en collaboration avec @veritasium et localisée dans votre langue par www.linguana.com

    00:00:00 - Introduction à la réaction thermite
    00:00:52 - L’histoire des frères Goldschmidt
    00:02:31 - Découverte de la réaction aluminothermique
    00:03:47 - Recréation de l’expérience de Hans
    00:06:10 - Observation de la réaction thermite
    00:07:44 - Expériences et surprises
    00:09:39 - Applications industrielles de la thermite
    00:15:55 - Contrôle et sécurité de la thermite

    #Thermite #Chimie

  • Nucléaire : la pleine puissance de l’EPR de Flamanville repoussée, d’ici à la fin de l’automne
    https://www.connaissancedesenergies.org/afp/nucleaire-la-pleine-puissance-de-lepr-de-flamanville-repous

    Connaissance des Énergies avec AFP parue le 01 août 2025

    EDF prévoit désormais que le réacteur #EPR de #Flamanville atteindra sa #pleine_puissance « avant la fin de l’automne », alors que le groupe espérait jusqu’à présent pouvoir franchir cette étape d’ici la fin de l’été, selon un message vendredi.

    La prolongation d’un arrêt « pour réaliser une opération de contrôle et de maintenance préventive sur une #soupape de protection du circuit primaire principal » conduit à modifier « la date d’atteinte de la pleine #puissance, désormais prévue avant la fin de l’automne », a indiqué le groupe électricien dans un message d’information sur son site internet.

    Alors que le #réacteur était à l’arrêt depuis le 19 juin pour des opérations d’essais de #mise_en_service, classiques pour de nouvelles installations nucléaires, #EDF a décidé le 2 juillet de le maintenir à l’arrêt pour intervenir sur des soupapes.

  • Aux Etats-Unis, la course effrénée au nucléaire civil
    https://www.lemonde.fr/economie/article/2025/06/12/aux-etats-unis-la-course-effrenee-au-nucleaire-civil_6612464_3234.html

    La renaissance nucléaire américaine est une cause nationale. Elle est soutenue à la fois par les démocrates et par les républicains. « De tout ce que je fais sur le climat, le domaine qui bénéficie du plus de soutien transpartisan est le nucléaire », se réjouissait Bill Gates, lors du lancement des travaux. Le 23 mai, Donald Trump a signé quatre décrets visant à quadrupler la production d’ici à 2050, amplifiant un mouvement lancé par Joe Biden, qui voulait la tripler. « Il est temps pour le nucléaire », a proclamé le président républicain depuis le bureau Ovale.

    De très nombreuses start-up ont levé des centaines de millions de dollars pour commercialiser de nouveaux réacteurs, innovants soit par leur technologie, soit par leur taille. Elles s’envolent en Bourse et valent des milliards, au point de frôler la bulle, chacun ayant sa spécificité : Oklo, la firme dont le secrétaire à l’énergie de Donald Trump, Chris Wright, était administrateur, fonctionne au métal fondu et a vu son action multipliée par 6 en un an, avec une capitalisation de 7 milliards de dollars. NuScale (multiplié par 4 ; 10 milliards de dollars) et Nano Nuclear (multiplié par 4,2 ; 1,2 milliard de dollars) tournent à l’eau pressurisée mais sont de petite taille, tout comme le spécialiste des réacteurs de sous-marins BWX Technologies (+ 50 %, 12 milliards de dollars).

    Les projets foisonnent, mais aucun de ces réacteurs n’a encore été construit ou testé. Cette tâche incombe en partie au ministère fédéral de l’énergie et au Laboratoire national de l’Idaho, perdu à 300 kilomètres de la centrale de Kemmerer, dans les plateaux déserts de l’Idaho, au sud-ouest du célèbre parc de Yellowstone. C’est là que fut installé un gigantesque centre d’essai de réacteurs civils après la seconde guerre mondiale. Prudents, les chercheurs installés à Chicago (Illinois) s’étaient dit qu’il valait mieux mener ces types d’expérimentations loin de toute population. Le site de 2 300 kilomètres carrés (plus de vingt fois la superficie de Paris) reste intimidant – « l’usage de la force mortelle est autorisé », lit-on en avertissement –, mais l’accueil est chaleureux pour vanter la renaissance nucléaire américaine.

    « Tout le monde avance aussi vite que possible », se réjouit Jess Gehin, directeur associé du Laboratoire national de l’Idaho, alors que Donald Trump veut diviser par deux ou trois le processus, en réduisant à dix-huit mois les délais d’autorisation. Sa mission : tester l’application de technologies ayant fait l’objet de recherches approfondies au XXe siècle. « Nous avons construit 52 réacteurs. Toutes ces technologies, nous les avons étudiées ici, elles ne sont donc pas vraiment nouvelles. Ce qui est nouveau, c’est la commercialisation, le transfert de certaines technologies vers le secteur privé », explique Jess Gehin, qui salue la spécificité américaine, le financement des entreprises par le capital-risque et l’aide scientifique de l’Etat : « Chacune de ces entreprises a levé des centaines de millions de dollars. » Pas de centralisation : « Le marché choisira », confirme Jess Gehin, qui résume son état d’esprit : « Aux Etats-Unis, nous avons des centaines de types de réacteur et un seul type de fromage. En France, il existe des centaines de types de fromage et un seul type de réacteur. »

    [...]

    Depuis un an, tous les géants du numérique s’efforcent d’acquérir l’électricité d’une centrale nucléaire traditionnelle pour alimenter leurs serveurs informatiques : fin 2024, Microsoft décide avec l’exploitant Constellation de relancer le deuxième réacteur arrêté sur le tristement célèbre site de Three Mile Island, en Pennsylvanie ; début juin 2025, Meta signe un accord de fourniture d’électricité pour vingt ans avec une autre centrale nucléaire de Constellation, dans l’Illinois. Celle-ci avait failli fermer en 2017, avant d’être sauvée par l’Etat d’Illinois.
    Lire aussi | Article réservé à nos abonnés Nucléaire : les start-up se multiplient sur le marché des petits réacteurs

    Mais d’autres vont plus loin et veulent développer des réacteurs d’un nouveau type, plus petits, d’une capacité d’environ 80 mégawatts. Amazon a signé des accords avec Energy Northwest et le concepteur X Energy pour construire quatre petits réacteurs (small modular reactor) pour un total de 320 mégawatts pouvant être porté à 960. Google a fait de même, avec Kairos, une start-up fondée en 2017, pour développer sept réacteurs nucléaires d’une puissance totale de 500 mégawatts d’ici à 2035. L’ambition est d’éviter les projets gigantesques tels Vogtle ou Flamanville, aux dépassements de coûts souvent incontrôlés, et d’envisager une production en série, voire en usine pour les petits modules.

    [...]

    L’un des sujets problématiques, toutefois, reste le retraitement et l’approvisionnement en combustible. ....

    https://archive.ph/5YidN

    #écologie_capitaliste #nucléaire #TerraPower #IA #refroidissement #réacteur_au_sodium #réacteur_à_sel_fondu #délais_d'autorisation #Microsoft #Meta #Amazon #Google

  • La Banque mondiale va soutenir des projets nucléaires « pour la première fois depuis des décennies »
    https://www.connaissancedesenergies.org/afp/la-banque-mondiale-va-soutenir-des-projets-nucleaires-pour-

    Connaissance des Énergies avec AFP parue le 11 juin 2025

    La #Banque_mondiale (#BM) va soutenir des projets de production d’#énergie à partir du #nucléaire « pour la première fois depuis des décennies », a annoncé mercredi le président de l’institution, Ajay Banga, au personnel dans un courrier que l’AFP a pu consulter.

    Cela passera par un soutien « aux efforts de prolongement des #réacteurs existants dans les pays qui en ont déjà, à l’amélioration des réseaux et infrastructures. Nous allons également travailler à l’accélération du potentiel des petits réacteurs modulaires (#PRM) qui offriront une option viable à plus de pays à long terme », a expliqué dans son mail le président de la BM.

    #SMR

    A fond dans l’mur. Apparemment, l’argent magique existe.

  • Petits réacteurs nucléaires modulaires : neuf modèles suivis par l’Autorité de Sûreté
    https://www.enviscope.com/petits-reacteurs-nucleaires-modulaires-neuf-modeles-suivis-par-lautorite-

    Michel Deprost 11/06/2025 - A la une, Nucléaire

    Les projets de petits #réacteurs #modulaires (#PRM) ou Small Modular reactors (#SMR) visent à répondre à des besoins en électricité à des niveaux moindres de puissance et d’une manière plus décentralisée. L’#ASNR suit l’émergence de neuf modèles.

    Les petits réacteurs modulaires introduisent une rupture dans la logique historique du #nucléaire civil qui a visé depuis des décennies à construire des réacteurs de plus en plus puissants : 600 MW, 900 MW, 1300 MW. Pour chaque accroissement de la puissance, il a été nécessaire de repenser en profondeur la conception globale y compris le génie civil. L’augmentation de la puissance a interdit, par nature, la construction en grandes séries.

    Des standards de sûreté identiques

    Les petits réacteurs modulaires sont présentés comme une solution flexible. En 2024, 9 modèles de petits réacteurs modulaires étaient suivis par l’ASNR sans compter le projet #Nuward porté par #EDF. Paul Durliat, chef de la Division de Lyon de l’ASNR, rappelle que pour les petits réacteurs modulaires la réglementation est la même que pour les réacteurs actuels. « Généralement ils présentent des standards de sûreté […] très élevés mais posent beaucoup de questions : il faut démontrer la capacité à construire du combustible dans des conditions de sûreté satisfaisante ». Ils imposent aussi de #prévoir le #démantèlement et la gestion des #déchets. Il faut enfin prendre en considération le fait que ces réacteurs seraient installés dans des zones plus densément peuplées que les réacteurs actuels.

    Une démarche cadrée

    L’ASNR a mis en place une démarche pour suivre l’avancement de ces projets avec différentes étapes. Certains, pourraient faire une Demande d’Autorisation de Création (#DAC). Jimmy Energy a déjà déposé sa demande, pour un projet de réacteur à haute température de 20 MWth. L’instruction est en cours. #Calogena est en phase de pré-instruction pour un projet de réacteur à eau légère de 30 MWth. Les porteurs de projets #NAAREA et de #Newcleo préparent leur DAC car ils ont validé la phase préparatoire. #Thorizon, jeune pousse néerlandaise qui s’implante à Lyon est en cours de phase préparatoire, au stade de la revue.

    Eric Zelnio chef du pôle LUUD ASN relève : « ça fait longtemps qu’on n’a pas eu autant de compétiteurs avec des solutions différentes. […] On peut raisonnablement penser que tout ne se traduira pas par des installations en fonctionnement […] parmi celles qui iront au bout un certain nombre d’options permettront peut-être des réemplois de matière ». Pour Eric Zelnio, il est prématuré de prévoir la part des PMR par rapport à l’ensemble du cycle […] il faut au moins attendre l’horizon 2030, pour voir qui arrive à concrétiser ses projets.

  • The Rule of #Idiots - The Chris Hedges Report
    https://chrishedges.substack.com/p/the-rule-of-idiots

    The last days of dying empires are dominated by idiots. The Roman, Mayan, French, Habsburg, Ottoman, Romanoff, Iranian and Soviet dynasties crumbled under the stupidity of their decadent rulers who absented themselves from reality, plundered their nations and retreated into echo chambers where fact and fiction were indistinguishable.

    Donald Trump, and the sycophantic buffoons in his administration, are updated versions of the reigns of the Roman emperor Nero, who allocated vast state expenditures to attain magical powers; the Chinese emperor Qin Shi Huang, who funded repeated expeditions to a mythical island of immortals to bring back a potion that would give him eternal life; and a feckless Tsarist court that sat around reading tarot cards and attending séances as Russia was decimated by a war that consumed over two million lives and revolution brewed in the streets.

    In “Hitler and the Germans,” the political philosopher Eric Voegelin dismisses the idea that Hitler — gifted in oratory and political opportunism, but poorly educated and vulgar — mesmerized and seduced the German people. The Germans, he writes, supported Hitler and the “grotesque, marginal figures,” surrounding him because he embodied the pathologies of a diseased society, one beset by economic collapse and hopelessness. Voegelin defines stupidity as a “loss of reality.” The loss of reality means a “stupid” person cannot “rightly orient his action in the world, in which he lives.” The demagogue, who is always an idiote, is not a freak or social mutation. The demagogue expresses the society’s zeitgeist, its collective departure from a rational world of verifiable fact.

    • C’est ume critique du fascisme (au sens large) de l’intérieur.
      https://de.m.wikipedia.org/wiki/Eric_Voegelin

      Voegelin est l’exemple idéal pour démontrer la continuité de la pensée voire de l’idéologie bourgeoise sous les Kaiser en passant par le national-socialisme et les États Unis jusqu’au plus profond de l’état anticommuniste allemand.

      Der autoritäre Staat

      Politisch bekannte sich Voegelin Mitte der 30er Jahre zum österreichischen Ständestaat. In dieser Zeit veröffentlicht Voegelin sein Werk Der autoritäre Staat: Ein Versuch über das österreichische Staatsproblem (1936)[9], worin er den Dollfuß-Putsch (siehe Austrofaschismus) und den dadurch entstandenen Ständestaat befürwortet. Gegen Pluralität setzt er Gemeinschaft. Dabei lehnt er sich eng an das autoritäre und totalitäre Staatsdenken von Dollfuß, Carl Schmitt, Ernst Rudolf Huber und Ernst Jünger an, während er zugleich die Reine Rechtslehre von Hans Kelsen einer scharfen Kritik unterzieht

      puis

      Die Veröffentlichung (von „Rasseidee“) erfolgte auf Empfehlung von Alfred Baeumler, bei dem sich Voegelin nicht nur nach einer Publikationsmöglichkeit, sondern auch nach einer Assistentenstelle erkundigt hatte. Baeumler war der gerade nach Berlin berufene Inhaber eines Lehrstuhls für Philosophie und Politische Pädagogik. Er schrieb schon seit 1932 im Völkischen Beobachter, war Anfang 1933 im Eilverfahren in die NSDAP aufgenommen worden und schritt nach seiner Antrittsvorlesung an der Spitze seiner Studenten zur Bücherverbrennung. Publikationsstrategie wie Zukunftsplanung verweisen darauf, daß Voegelin in seinen Ausführungen kein Hindernis für eine Mitarbeit im nationalsozialistischen Wissenschaftsbetrieb sah.“

      – Hund zur Voegelin-Baeumler-Verbindung 1933

      D’ailleurs c’est un contre-sens de classer parmi les dying empires le règne de l’empereur Qin Shi Huang Di, fondateur de la Chine impériale qui a continué à exister pendant plus de deux mille ans après sa disparition.

      https://fr.m.wikipedia.org/wiki/Dynastie_Qin

      Cet empereur n’a peut-être fondé qu’une dynastie (dynastie Qin, : 秦朝 ; Qín Cháo) à existence brève mais il a établi une culture et un système socio-économique et politique qui exerce toujours une influence sur le monde actuel.

      https://fr.m.wikipedia.org/wiki/Qin_Shi_Huang

      Son nom de famille était Ying (嬴) et son prénom Zhèng (政), choisi dit-on parce qu’homonyme du mois de sa naissance (正), le premier de l’année chinoise. Le nom personnel du souverain n’étant pas, par respect, employé de son vivant, il était donc pour ses contemporains le « roi de Qin ». Les historiens le mentionnent néanmoins comme « roi Zheng de Qin ». En 221 av. J.-C., il prit officiellement le titre de « Premier auguste souverain » (Shi Huangdi 始皇帝), en référence aux souverains légendaires les trois Augustes et les cinq Empereurs (三皇五帝, sān huáng wǔ dì.)

      Le premier empereur de Chine aussi avait besoin d’une idéologie justifiant son régime ultra violent et il choisit l’appellation Huangdi pour symboliser sa relation imaginaire avec l’empereur jaune mythique.

      https://fr.m.wikipedia.org/wiki/Hu%C3%A1ngd%C3%AC

      L’Empereur Jaune (chinois : 黄帝, pinyin : huángdì) est, selon la tradition chinoise, un souverain civilisateur de la haute Antiquité qui aurait régné de 2697 à 2597 ou de 2698 à 2598 av. J.-C.. Il n’est pas mentionné dans les plus anciennes sources, mais il apparaît à l’époque des Royaumes combattants et occupe une place prééminente chez les historiographes de la dynastie Han.
      ....
      Il représentait le souverain idéal pour le courant philosophico-politique huanglao qui eut les faveurs de la cour jusque Han Wudi. À cet égard, de nombreux textes politiques ou techniques furent attribués à lui ou ses assistants, dont les Quatre Livres de Huangdi et le Huangdi Neijing. Divinisé, il est resté un dieu et un immortel taoïste.

      La déscription du mode de production asiatique par Marx nous a fourni une approche imparfaite quoique utile à l’histoire asiatique au contraire des idéologies qui tournent autour des dynasties, des grands hommes et leurs relation avec les êtres célestes..

      https://fr.m.wikipedia.org/wiki/Mode_de_production_asiatique

      Les Spengler, Voegelin et al. ne nous font pas avancer dans notre compréhension du monde. Les imbéciles et meurtriers réactionnaires par contre éprouvent un bonheur pervers quand ils se servent dans ce bric à brac idéologique pour donner un semblant de sens historique à leurs méfaits.

      #idéologie #fascisme #idéalisme #science_politique #réactionnaires #histoire #Chine #capitalisme

  • #China builds world’s first #thorium #reactor with US secret files
    https://interestingengineering.com/energy/china-builds-world-first-thorium-reactor

    Chinese scientists have completed a major breakthrough in clean energy by reloading fresh fuel into a working #thorium_molten_salt reactor.

    They did this while the reactor continued running, marking a significant step forward in the global push to use thorium as a safer and more abundant alternative to #uranium in #nuclear #power.

    The milestone was revealed at a closed-door meeting on April 8 at the Chinese Academy of Sciences (CAS), where project chief scientist Xu Hongjie shared the news with colleagues.

    Egalement là :
    https://seenthis.net/messages/1110191
    https://seenthis.net/messages/1112414

  • Parce qu’on m’a encore énervée, j’ai fait un post linkedin qui va devenir un post de blog sous peu...

    « Aude tu peux relire rapidement et valider ? c’est #urgent ! »

    Je dé-teste le #management_par_l'urgence et je ne remercierai jamais assez mon ancienne cheffe qui m’a appris à questionner les urgences et à ne plus les accepter comme "allant de soi".

    Du coup je peux désormais répondre :
    👉 Est-ce que ça peut attendre la réunion qu’on a déjà de prévue demain ?
    👉 Est-ce que tu peux traduire urgent par une #deadline réelle ? (par exemple urgent ça veut dire dans 2 h ou dans une journée ?)
    👉 Et il va se passer quoi si je réponds un peu en #retard ? (spoiler, 9 fois sur 10, rien).

    Et grâce à ça, je m’évite l’aller simple vers le burn-out (j’ai frôlé, j’ai donné, je recommande pas), et je protège aussi mes proches et mes équipes.

    Mais c’est quand même ultra dur à faire quand on travaille (dans le monde pro ou associatif) avec des drogués de l’urgence...

    Vous faites comment vous ?

    J’ai écrit ce fil parce que récemment on m’a un peu agacé, et alors j’ai trouvé cet article que je voulais partager ...
    https://www.ladn.eu/tech-a-suivre/toujours-plus-vite-jusquou-irons-nous-avant-de-ne-plus-pouvoir-tenir-la-cadence

    Voilà, du coup j’en ai fait un article de blog ...
    https://blogz.zaclys.com/depuis-les-gorces/cest-urgent

    https://social.sciences.re/@AudeCaussarieu/114267555975870488
    #urgence #cadence #rythme #néo-management #travail

    • Urgence toxique

      Le management par l’urgence

      Je dé-teste le management par l’urgence. Je déteste quand on me demande de faire des trucs en « comptant sur ma #réactivité » ou « ça serait bien que ça soit fait avant mercredi », pourquoi mercredi ? Aucune idée.

      C’est insupportable parce que :

      1. J’ai une tonne de trucs à faire, j’ai besoin de hiérarchiser, et donc j’ai besoin de savoir pour quand c’est réellement. Si tout le monde me dit « #au_plus_vite », je ne sais pas faire. Et si je veux répondre à toutes les demandes urgentes ou pressées de mon entourage, je vais finir en #burn-out.

      2. En fait, il n’y a rien d’urgent. Je n’ai pas un métier où je sauve des vies. Je n’ai pas d’activité associative ou militante où je sauve des vies. Donc si le flyer ne part pas à temps, si la réunion est décalée d’une semaine, en fait, il ne se passe pas grand chose. À part le mécontentement de certaines personnes qui se font un honneur d’être réactives en toutes circonstances.

      3. Quand c’est urgent, on n’a pas le temps de réfléchir. Est-ce qu’il y aurait une meilleure manière de faire ? À quel problème cherche-t-on à répondre réellement ? ... Pas le temps, c’est urgent, dis oui, fait ce que je te demande !!! Vite !!!

      4. Souvent l’urgence est une excuse pour contourner les procédures, et pour voler du temps aux autres. « Oui oui on a une réunion demain mais je préfère que tu regardes aujourd’hui c’est vraiment urgent je me suis engagé. » Donc parce que Jean-Michel s’est engagé, je dois maintenant prendre sur mon temps pour lui résoudre son problème ?

      5. C’est en fait un comportement de manipulateur. Le manipulateur utilise l’urgence – et ma bonne conscience – pour me tordre le bras et essayer de me faire faire quelque chose que je ne veux pas faire.

      C’est du #management_toxique de mettre en permanence une #pression sur toutes les personnes avec qui on travail parce que c’est pressé / urgent. C’est une manière d’abuser du temps et de l’énergie des autres en se justifiant par le fait que « Ah mais elle pouvait dire non hein, je ne l’ai pas forcée à dire oui ». Non tu as juste envoyé 2 mails à 1 heure d’intervalle et un slack en disant à quel point c’était important pour le groupe / l’entreprise et que ça aiderait beaucoup si je le faisais vite.

      J’ai évidemment rencontré ce comportement toxique dans le monde professionnel (vive la start-up nation où tout doit aller viiiite !), mais aussi dans le monde associatif ou militant. Et là ça me désespère.

      Pourquoi ils font ça ?

      Je ne suis pas dans la tête des manipulateurs qui veulent que je fasse des choses en me mettant en quatre même si je dis que je n’ai pas le temps. Moi, je suis plutôt dans la team des personnes qui écoutent d’abord les besoins des autres et qui ont toujours peur d’embêter.

      Mais en en discutant autour de moi, j’ai quelques hypothèses sur ces personnes :

      – Peut-être qu’elles gèrent leur charge mentale et leur anxiété en passant le bébé à quelqu’un d’autre.

      - Peut-être qu’elles ne sont pas capables elles mêmes de prendre du #recul sur la demande de quelqu’un d’autres qui leur met la #pression, et du coup, elles poussent sur les personnes sous elles. Parce qu’on met rarement de la pression sur son patron, si ?

      – Du coup, je me dis que c’est encore un mécanisme de #pouvoir et de #domination : en faisant ça, elles montrent leur importance et leur capacité à diriger les autres.

      – Et peut-être ce sont juste des mouches du coche. Elles ont besoin de s’agiter pour exister et alors qu’elles empêchent tout le monde de travailler convenablement, elles sont convaincues de leur propre importance...

      Répondre à l’urgence

      Je ne remercierai jamais assez mon ancienne cheffe qui m’a appris à questionner les urgences et à ne plus les accepter comme “allant de soi”. Avant, j’écoutais les urgences des autres, les deadlines qu’ils me donnaient, et j’essayais d’y répondre, quitte à me lever à 4 heures du matin pour finir à temps.

      1. Questionner

      Mon ancienne cheffe m’a appris à ne plus répondre directement « oui », mais à questionner l’urgence. J’ai appris à poser des questions comme :

      – Est-ce que ça peut attendre la réunion qu’on a déjà de prévue demain ?

      – Tu as besoin de ça pour quelle date ? (par exemple urgent ça veut dire dans 2 h ou dans une journée ?) Un mastonaute me disait qu’il aimait demander : « C’est urgent pour quand ? » (https://piaille.fr/@yanncphoto/114268331396473237)

      – Quel est le risque si on ne fait pas ça pour demain ? (spoiler, 9 fois sur 10, rien).

      2. Dire non

      L’autre truc que j’ai appris, c’est à dire non. Enfin plus précisément à ne pas dire oui.
      J’ai appris à me demander ce qui serait un délai convenable pour moi. C’est encore work in progress mais j’y arrive de mieux en mieux. J’ai appris à répondre « Je pourrais le faire pour le XXX », sans m’excuser, sans expliquer. Le plus surprenant, c’est que souvent, ça suffit.

      Mais avec certains forceurs, ça ne suffit pas. Soit il faut répéter non, soit je finis par craquer et le faire et je suis ensuite très en colère et j’écris un long article de blog...

      Pour aller plus loin

      - Il y a un livre (https://www.odilejacob.fr/catalogue/psychologie/psychologie-generale/affirmez-vous-face-aux-manipulateurs_9782415000660.php) qui m’a pas mal aidé à comprendre que toutes les personnes qui essaient de me forcer la main pour que je dise oui quand j’ai envie de dire non sont des manipulateurs. Ce livre qui m’a été recommandé par la psychologue du travail qui m’accompagne explique bien tous les mécanismes et donne des techniques pour s’affirmer face aux manipulateurs.

      J’ai récemment cherché des ressources sur l’urgence et sur la pression qu’on se met au travail, mais aussi dans nos associations et dans beaucoup trop de projet. Cet article m’a donné quelques références que j’ai envie de lire ... quand j’aurais le temps 😆 :
      https://www.ladn.eu/tech-a-suivre/toujours-plus-vite-jusquou-irons-nous-avant-de-ne-plus-pouvoir-tenir-la-cadence

      https://blogz.zaclys.com/depuis-les-gorces/cest-urgent

    • Voilà le principe qui est mien (que mon ancien responsable répétait souvent) : « Il est urgent d’attendre. »

      Où l’on se rend compte bien souvent que les demandes sont effectivement rarement si urgentes que ça. Maintenant qu’on a adopté une méthodologie assez stricte dans mon équipe (à base de « sprints », donc si la demande est hors du sprint c’est niet 90% du temps), on a moins de soucis. Avant ça, quand j’avais un gros doute, pour savoir si c’était vraiment urgent, j’attendais de voir si la personne me relance sur le sujet et parfois le sujet était carrément oublié, c’était juste une lubie passagère d’un gus qui pensait que les petites mains allaient s’activer dans tous les sens pour son plaisir. Sans compter les deadlines fantaisistes : « on veut tel truc absolument pour tel jour » puis, quand on livre le jour J, ça change d’avis ("finalement on déploie le truc dans un mois, on t’avait pas dit ?"), ça tergiverse, on revoit le truc qui a été pensé à la va-vite et finalement sera livré bien plus tard (ou même pas du tout). Donc oui, il faut toujours questionner l’urgence et savoir dire non (quand on peut, évidemment j’ai bien conscience que mes problématiques de travailleur de bureau ne sont pas celles de l’usine, de McDo ou de l’entrepôt Amazon et que quand on est tout en bas de l’échelle dire « non » est rarement une option...).

      Non tu as juste envoyé 2 mails à 1 heure d’intervalle et un slack en disant à quel point c’était important pour le groupe / l’entreprise et que ça aiderait beaucoup si je le faisais vite.

      Ah ah, et à multiplier par le nombre d’outils : le message slack perso pour me dire qu’un message a été envoyé dans un autre salon slack (par la même personne, et que j’ai vu hein) + éventuellement le mail et le ticket sur le même sujet voire le summum : venir dans le bureau pour dire « t’as vu mon slack ? »... Tout ça pose la question au passage de la pertinence d’avoir une messagerie instantanée en entreprise.

  • #Flamanville : le redémarrage d’un réacteur reporté d’un mois à cause d’une fuite d’eau radioactive
    https://www.bfmtv.com/normandie/manche/flamanville-le-redemarrage-d-un-reacteur-reporte-d-un-mois-a-cause-d-une-fuit

    EDF a signalé mardi un « événement significatif » de sûreté sur son #réacteur n°1 de Flamanville, qui n’est pas l’EPR, en raison d’une #fuite de #vapeur d’eau #radioactive détectée le week-end dernier dans le bâtiment #réacteur, ce qui va nécessiter de repousser d’un mois son redémarrage, a-t-on appris vendredi auprès de l’autorité de sûreté et d’#EDF.

    Tu vis à Flamanville, tu te dis que t’es verni.

    • Cette erreur cache un chantier au démarrage difficile, sur fond de grande désorganisation et de souffrance au travail à Eiffage Génie Civil — deux salariés au moins de l’équipe dédiée au projet Penly étaient en arrêt de travail de décembre 2024 à mars 2025.

      [...]

      De son côté, EDF n’a pas été informé de ces écarts par Eiffage Génie Civil et ne les a découverts que le 17 janvier, au travers d’une contre-analyse qu’il a lui-même commandée.
      [...]
      Reporterre a informé l’Autorité de sûreté nucléaire et de radioprotection (ASNR) de ce problème de béton le 19 février. L’autorité n’était pas au courant, alors qu’elle est légitime à contrôler les ouvrages de génie civil classés « équipements importants pour la protection en matière de sûreté nucléaire » (EIPs) et donc la digue.

      [...]

      Mais c’est surtout le fait que ce granulat soit utilisé pour l’îlot nucléaire, partie ultrasensible du réacteur puisqu’il en abrite le cœur, qui pose un réel problème à l’autorité. D’abord, parce qu’il n’est pas certain que des contrôles renforcés suffisent pour s’assurer que le taux de silex soit satisfaisant. « Si on a une variabilité de ce taux au coup de godet, ce n’est pas en passant d’un contrôle semestriel à un contrôle trimestriel qu’on va régler le problème. EDF va devoir nous faire la démonstration scientifique que le taux d’échantillonnage est cohérent avec la variabilité du granulat », explique l’ASNR.

      [...]

      Alors que le projet EPR2 a déjà pris du retard, cette affaire est un « granulat » dans la chaussure de l’exploitant, et ne laisse rien présager de bon pour la suite du chantier : « On est au démarrage d’un projet et c’est déjà l’omerta, avec perte de confiance entre les différents acteurs du chantier, mise au placard de deux directeurs d’Eiffage Génie Civil, etc. On ne va pas dans la bonne direction et c’est la porte ouverte à d’autres non-conformités », estime une source interne. Ceci, alors que la Cour des comptes alertait mi-janvier sur le fait que la France était « loin d’être prête » à concrétiser son programme de construction de six EPR2, n’est guère rassurant.

  • Les #appels au #boycott contre les #produits_américains s’étendent en #Europe du Nord

    #drumpf_policy #reactions

    https://www.lemonde.fr/international/article/2025/03/03/les-appels-au-boycott-contre-les-produits-americains-s-etendent-en-europe-du

    la compagnie Haltbakk Bunkers, opérateur numéro un dans les ports norvégiens, a indiqué qu’elle cessait « immédiatement » de ravitailler les bateaux de la #marine_américaine. Une décision prise à la suite du « plus grand merdier jamais présenté en direct à la télévision par l’actuel président américain et son vice-président », déclare la société, dans un communiqué, publié quelques heures après le clash entre le président ukrainien Volodymyr Zelensky et Donald Trump, à la Maison Blanche.

    Aussi radicale qu’elle puisse paraître, cette annonce n’en est qu’une parmi d’autres, dans les pays nordiques, où le mouvement appelant à boycotter les marques américaines prend de l’ampleur. Ces dernières semaines, plusieurs groupes ont vu le jour sur Facebook, listant les produits et services à mettre à l’index. Si l’impact de cette action est encore difficile à évaluer, les participants espèrent inspirer une mobilisation plus large, au niveau européen, capable de faire trembler les entreprises américaines.

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • Japans Rückkehr zur Vorkriegszeit
    https://overton-magazin.de/hintergrund/politik/japans-rueckkehr-zur-vorkriegszeit

    Fuji, davor Kampfflugzeuge Quelle : Pixabay

    Le Japon, la deuxième puissance géoicidaire fasciste d’avant 1945, fait aujourd’hui partie des vaissaux des impérialistes états-uniens. Comme en Allemagne la situation est contradictoire. La fidélité de ses classes dirigeantes au souverain d’outre-mer l’a entrainé dans la stagnation voire le déclin économique. Comme en Allemagne le nationalisme s’en régale. Il s’affiche comme source d’un meilleur avenir mais en réalité ses aspirations shintoïstes sont aussi dangereuses pour la paix internationale et les acquis à la fois sociaux et culturels comme l’AfD et l’e faux écologisme Blut und Boden des verts allemands réunis.

    L’article allemand ne mentionne pas l’anticommunisme qui fait toujours partie du breuvage idéologique mortel, tellement les habitants des nations fascistes l’ont imbibé dans leurs plus tendre enfance. La gauche bourgeoise n’échappe pas à ses limites. Quelle coïncidence !

    8.1.2025 von Igor Kusar - Seit den 1990er Jahren ist Japan fest im Griff einer konservativen Wende. Liberale Kommentatoren sehen nun vermehrt Anzeichen, die auf ein Wiedererstarken des Geistes der Vorkriegszeit deuten.

    Spätestens seit der Wahl Donald Trumps zum neuen US-Präsidenten vor zwei Monaten ist die Angst vor einem neuen Faschismus weltweit in aller Munde. Wird sich die Geschichte des Autoritarismus und Totalitarismus der 1930er und 40er Jahre wiederholen? Stehen wir an der Schwelle zu einem neuen Zeitalter der Autokratie? Auch in Japan, das in der Kriegszeit zu den faschistischen Mächten zählte, werden solche Fragen gestellt. Wissenschaftler und Kommentatoren sehen Anzeichen für die „Rückkehr zur Vorkriegszeit“, wie es im Japanischen oft heißt.
    Aushöhlung der pazifistischen Ordnung

    Achtzig Jahre hat das sogenannte Nachkriegsregime nun schon Versuchen von den Rechten standgehalten, es in ihrem Sinne zu reformieren. Vor allem die Revision der von Konservativen ungeliebten Friedensverfassung – seit 1947 in ursprünglicher Form erhalten und eine Art Brandmauer gegen autoritäres Gedankengut – sollte es ermöglichen, das Gesicht des Landes zu verändern. Im Moment bildet die konservative Dauerregierungspartei Japans, die Liberaldemokratische Partei (LDP), eine Minderheitsregierung. Eine Verfassungsänderung wird in den nächsten Jahren kaum Thema der Politik werden. Doch am Grundgesetz vorbei findet eine Aushöhlung der demokratischen, pazifistischen Ordnung statt, wie sie die Verfassung garantiert.

    Im Dezember 2022 verkündete der damalige Regierungschef Fumio Kishida eine drastische Erhöhung des Wehretats für die nächsten fünf Jahre. Gleichzeitig verabschiedete sich Japan von der Ausrichtung ihrer Selbstverteidigungskräfte (SVK) auf die reine Verteidigung. Vorbeugende Militärschläge durch Raketen sollen von nun an möglich sein. In Wirtschaftskreisen und konservativen Mainstreammedien wird diese Entwicklung begrüßt. Die arg gebeutelte japanische Industrieproduktion, die sich im High-Tech-Sektor weltweit im Rückstand sieht, wittert eine neue Chance. Bereits heute verzeichnen die japanischen Waffenproduzenten ein enormes Gewinnwachstum.
    Der Geist der Konoehei

    „Doch es sind nicht nur diese großen Brüche, die uns Sorgen bereiten“, meint der Publizist Masahiro Yamazaki. Seit Jahren verfolgt er intensiv die konservative Wende Japans. „Kleinigkeiten, Kommentare aus Politik oder den SVK etwa zeigen uns, dass der Geist der Vorkriegszeit, der Geist des Japanischen Kaiserreichs wieder stärker ins Bewusstsein rückt.“ Und Yamazaki weiß einige Beispiele zu nennen, etwa dieses: „Konoehei“ nannte man bis zum Ende des Kriegs die kaiserliche Garde – eine Eliteeinheit und Teil der japanischen Armee. In den SVK scheint es nun Bestrebungen zu geben, an den Geist der Konoehei anzuknüpfen – für Yamazaki verstößt dies gegen die Verfassung, denn die SVK sind nicht für den Kaiser gedacht. Für Außenstehende vielleicht ein triviales Beispiel, doch viele japanische Linke und Pazifisten reagieren allergisch auf solche Phänomene, die Erinnerungen an den Krieg wecken.

    Für die japanische Elite und Teile der Bevölkerung sei das Vorkriegsjapan Ziel ihrer Träume, erklärt Yamazaki weiter. Die wirtschaftliche Flaute hält hier bereits dreißig Jahre an, und Japans Bevölkerung beginnt zu schrumpfen. Da blicken viele sehnsuchtsvoll auf das Kaiserreich, als Japan Kolonien besaß und eine starke Armee hatte. Und die Elite fühlte sich im damaligen autoritären System pudelwohl, denn das Volk folgte und führte ihre Befehle gehorsam aus. Widerstand gegen das Regime gab es kaum. In der LDP gebe es viele, die sich eine Rückkehr zur Vorkriegszeit wünschten.

    Ein LDP-Vorschlag für eine Verfassungsrevision aus dem Jahr 2012 bringt diese Sehnsuchtsvorstellungen auf den Punkt: viele Verordnungen, die Menschenrechte enthalten, wurden revidiert und Letztere eingeschränkt mit der Begründung, dass sie auf der Geschichte, Kultur und Tradition des Staats basieren sollten. Bei den bürgerlichen Pflichten ging es in die andere Richtung – die wurden von drei auf neun erhöht. Bereits in Artikel 3 werden die Japaner aufgefordert, Nationalhymne und Nationalflagge zu respektieren. Nationalismus wird großgeschrieben. Auch dem japanischen Kaiser soll qua neuer Verfassung eine größere Rolle zukommen: er soll wieder zum Staatsoberhaupt aufsteigen.
    Die wahre Seele des Volkes

    Hinter diesem Verfassungsentwurf steckt die Lobbyarbeit verschiedener rechter Organisationen und religiöser Sekten. Eine wichtige Stütze dieses Konglomerats bildet die Dachorganisation der japanischen Schreine, die Jinja Honcho und deren Lobbyableger Shinto Seiji Renmei. Jinja Honcho fordert ein Zurück zu den Werten des sogenannten Staatsshinto, der Ideologie, die dem Regime vor 1945 zugrunde lag. Shinto oder Shintoismus ist die indigene Urreligion, ein Naturglaube mit einer Vielzahl von Göttern, Geistern und Ahnen. Beim Staatsshinto institutionlisiert und kontrolliert die Regierung den Glauben.

    Der Tenno, der japanische Kaiser, Abkömmling der Sonnengöttin Amaterasu, hatte göttlichen Status und bildete neu das Zentrum des japanischen Alltags. Alle Japaner waren spirituell mit dem Kaiserhaus verbunden und dem Tenno zur Treue verpflichtet. Dies beinhaltete die totale Selbstaufgabe – den Tod für den Kaiser. Fast alle führenden Politiker der LDP gehören einer Parlamentariergruppe an, die mit Shinto Seiji Renmei verbunden ist und dessen Gedankengut teilt. Obwohl der Tod einiger der geistigen Führer der japanischen Rechten und insbesondere die Ermordung des früheren Premiers Shinzo Abe im Jahr 2022, der als eine Art Oberhaupt fungierte, ein Loch in ihre Struktur gerissen hat, sind Macht und Einfluss ihrer Lobbyorganisationen nach wie vor groß.

    Um den Japanern die Vorkriegszeit noch schmackhafter zu machen, ist in den letzten Jahrzehnten ein ganzes Heer von Autoren und Essayisten – einige haben Bestsellerstatus – entstanden, die in ihren Publikationen zu zeigen versuchen, dass das Nachkriegsjapan von Dekadenz und moralischem Verfall gekennzeichnet sei. Die wahre Seele des Volkes sei im Vorkriegsjapan zu suchen. Als Beweis dienen Zeugnisse der Ausländer, die nach der Öffnung Japans um die Mitte des 19. Jahrhunderts den Inselstaat besuchten und ein armes, aber glückliches Volk vorfanden. Es versteht sich von selbst, dass zur Kritik Japans neigende Reiseberichte keinen Einzug in diese Literatur finden.
    Japan: Auch Weltenretter

    Argumentiert wird weiter, dass Japans Unglück 1945 mit dem Bruch mit „Tradition und Kultur“ begann, als die USA den Inselstaat besetzten. Um ihn zu schwächen, hätten die US-Amerikaner die Demokratie eingeführt und durch Abschaffung des Staatsshintos die sinnstiftende Bande zwischen Kaiser und Volk gekappt. Allerdings hat der Tenno auch heute noch eine außergewöhnliche Stellung in der japanischen Gesellschaft inne und symbolisiert die Einheit der Nation, obwohl er 1946 seiner Göttlichkeit entsagte. Diese Entwicklung weg von der Tradition habe zu einem Wertezerfall geführt – die Japaner würden sich nur noch am Konsum und Materiellem orientieren. Am schlimmsten sei jedoch, dass die Bevölkerung jeglichen Stolz auf ihr Land verloren habe.

    Diese Argumentationsweise erinnert stark an die Propagandaliteratur der Vorkriegs- und Kriegszeit, als man die westliche Moderne, die ab der zweiten Hälfte des 19. Jahrhunderts Einzug gehalten hatte, zu überwinden trachtete und eine Rückkehr zum Japanertum propagierte. Dabei spielt die angebliche Überlegenheit der japanischen Kultur, die sich vor allem in den 1930er Jahren darauf gründete, dass die Japaner von einem Gott abstammen würden, eine große Rolle. In der Ideologie der Kriegszeit kommt oft der Gedanke vor, Japan müsse den sogenannten kaiserlichen Weg exportieren, denn nur der Tenno könne die Welt befrieden und ihr ein vorurteilsfreier und gütiger Führer sein. Den Weltenretter wollen die japanischen Ethnozentristen auch heute noch spielen: die japanische Naturverbundenheit, die mit dem Shinto-Glauben zusammenhängt, könne einen Weg aus Umweltzerstörung und Klimawandel aufzeigen.
    Die Fassade des geläuterten Staates

    Nach Japans Niederlage 1945 veranstaltete die US-Besatzungsmacht eine Jagd auf feudale Defekte und Überreste, führte Demokratie und Freiheitsrechte ein und war für die Abfassung der heutigen Verfassung verantwortlich. Die japanische Linke erhielt eine Aufwertung. Doch der Aufbruch in eine zweite Moderne blieb auf halbem Wege stecken. Mit Beginn des Kalten Krieges stoppten die USA aus Angst vor dem Kommunismus die Reformen und ließen es zu, dass sich die japanische Rechte reorganisierte. Säuberungen wurden teilweise rückgängig gemacht, Beamte des einst mächtigen Innenministeriums etwa mit seiner „Spezialpolizei“, deren Hauptaufgabe es gewesen war, politische Gruppen und Ideologien zu überwachen, konnten in die neu gebildete Polizeibehörde oder ins Justizamt überwechseln. Dadurch blieb der Geist der Kriegsjahre erhalten.

    Trotzdem schaffte es das offizielle Japan, gegen außen als moderner, geläuterter Staat aufzutreten, der die universellen Werte hochhielt. Doch unter der Oberfläche lebten traditionelle Wertvorstellungen und traditionelles Denken weiter, verkörpert im Lebensstil der Japaner. Eine Fülle von ungeschriebenen Gesetzen blieb weiterhin bestehen, wie auch die starke Hierarchisierung der Gesellschaft, Gruppendruck und Diskriminierung der Frauen. Und mit der Machtergreifung der konservativen LDP im Jahr 1955, dessen rechter Flügel vehement auf die Rückkehr ins Vorkriegsjapan drängte, war die Gefahr gegeben, dass der Ethnozentrismus wieder einmal hochschwappen würde. Gezielt wurde an der schleichenden Aufrüstung der SVK gearbeitet. Und nationale Vorkriegssymbole wie Nationalflagge und Nationalhymne fanden mehr und mehr Verwendung. Die Nachkriegslinke, die die Medien und Universitäten dominierte, akzeptierte diese Konstellation unter der Bedingung, dass die Fassade des geläuterten Staates gewahrt wurde. Konservative Politiker besuchten den Yasukuni-Schrein für die Kriegstoten – Symbol des japanischen Militarismus – meist als Privatpersonen. Und sexistische und rassistische Bemerkungen von Politikern oder Wirtschaftsführern wurden, sofern sie an die Öffentlichkeit drangen, bestraft – etwa mit Rücktritt.
    Shinzo Abe klitterte Geschichte

    Diese Zweigleisigkeit wurde erst in den 1990er Jahren gebrochen. Mit dem Ende des Kalten Krieges verlangten Staaten wie Südkorea oder China, dass Japan mehr Verantwortung für die Verbrechen des Zweiten Weltkriegs zeige. Die damalige japanische Politik änderte darauf ihre ignorante Haltung, gab die Verbrechen öffentlich zu und entschuldigte sich dafür. Dies führte zu einer Gegenreaktion aus rechten Kreisen, die sich nach Jahrzehnten wieder stärker in der Öffentlichkeit bemerkbar machten und der „Verunreinigung“ der in ihren Augen glorreichen japanischen Geschichte nicht tatenlos zusehen wollten. Es waren die Anfangsjahre von Shinzo Abe, der sich als junger Politiker an die Spitze von Gleichgesinnten stellte und für die einsetzende Geschichtsklitterung mitverantwortlich war.

    Gleichzeitig führte die wirtschaftliche Stagnation der 1990er Jahre zu einem Stimmungsumschwung. Mehr und mehr Japaner wollten der westlichen Moderne, die sich teilweise erschöpft hatte, etwas „Eigenes“ entgegensetzen. Dessen Überhöhung sollte schmerzlindernd wirken. Der emeritierte Philosophieprofessor der Universität Osaka, Kenichi Mishima – ein wichtiger Kritiker des japanischen Ethnozentrismus – nennt dieses Phänomen „Selbstbeweihräucherung“. Die angebliche Tiefe der japanischen Spiritualität wie auch die Ästhetik und der starke Sinn für Schönheit wurden „wiederentdeckt“. Exemplarisch dafür steht Abes Buch aus dem Jahr 2006, „Utsukushi Kuni“ (ein schönes Land). Auch in der öffentlichen Diskussion gewannen die Konservativen nach und nach die Oberhand.
    Das SVK kann seit 2015 an US-Kriegen teilnehmen

    Im Jahr 2012 wurde Abe nach 2006 zum zweiten Mal Premierminister. Damit änderte sich auch der Politikstil. 2015 peitschte er an der Verfassung vorbei neue Sicherheitsgesetze durchs Parlament, die die kollektive Selbstverteidigung erlaubten. Dadurch wurden den SVK Tür und Tor geöffnet, um an US-Kriegen teilzunehmen. Außerdem machte er Druck auf die japanischen Medien, sich mit Kritik an seiner Politik zurückzuhalten. Seine Kritiker nannten ihn autoritär. Diskussionen kamen auf, ob sich Japan in Richtung Autokratie a la Ungarn oder Türkei entwickeln würde oder gar ein Land wie Russland werden könnte.

    So weit will der emeritierte Professor Mishima nicht gehen. Eine Faschisierung des Staates würde die Wirtschaftskraft beeinträchtigen und Unmut in der Bevölkerung schüren. Mishima sieht eher die Gefahr einer unsichtbaren Manipulation durch den Staat, etwa in Folge der Digitalisierung. Vieles wird in Zukunft davon abhängen, ob den japanischen Rechten und Konservativen die Verfassungsänderung gelingt. Der Publizist Yamazaki befürchtet, dass, wenn es hart auf hart kommt, die Bevölkerung einknicken könnte. Es fehle den Japanern zur Zeit der letzte Wille, sich gegen Elite und Obrigkeit zu stellen. Demonstrationen seien nach dem lautstarken Aufschrei bei der Einführung der kollektiven Selbstverteidigung 2015 fast zum Erliegen gekommen. So bleibt vor allem die Hoffnung, dass die japanische Politik – wie letztes Jahr – auch in Zukunft so stark mit sich selbst beschäftigt sein wird, dass sie keine Kraft findet, die Verfassung zu ändern.

    #Japon #shintoïsme #fascisme #nationalisme #mimitarisme #anticommunisme #impérialisme #réacrionnaires

  • Ahead of Teach to #REACH 11, health leaders from 45 countries share #malaria experiences in REACH network session
    https://redasadki.me/2024/11/21/teach-to-reach-11-reach-malaria-prevention-health-leaders

    Nearly 300 malaria prevention health leaders from 45 countries met virtually on November 20, 2024, in parallel English and French sessions of REACH. This new initiative connects organizational leaders tackling malaria and other pressing health challenges across borders. REACH emerged from #Teach_to_Reach, a peer learning platform with over 23,000 health professionals registered for its eleventh edition on 5-6 December 2024. The sessions connected community-based health workers with health leaders from districts to national planners from across Africa, Asia, and South America, bringing together government health staff, civil society organizations, teaching hospitals, and international agencies, in a promising cross-section of local-to-global health expertise. Global partnership empowers (...)

    #Global_health #Antonio_Pizzuto #global_health #leadership #RBM_Partnership_to_End_Malaria

  • Teach to #REACH: New #leadership network connects health organizations tackling common challenges
    https://redasadki.me/2024/11/05/teach-to-reach-new-leadership-network-connects-health-organizations-tackli

    The Geneva Learning Foundation is launching REACH (Relate, Engage, Act, Connect, Help), a new initiative to connect leaders of health organizations who are solving similar problems in different countries. Launching November 6, REACH responds to an unexpected outcome of #Teach_to_Reach, a #peer_learning platform that–in less than four years–has already documented over 10,000 local solutions and experiences to health challenges by connecting more than 60,000 participants across 77 countries. When organizations began formally participating in Teach to Reach in June 2024, many leaders discovered they were tackling similar challenges. A digital immunization tracking system in Rwanda sparked interest from several African countries. A community engagement approach to vaccine hesitancy in Nigeria (...)

    #Global_health #global_health #The_Geneva_Learning_Foundation