• « Les entreprises de #capture du #CO₂ dans l’air émettent plus de #carbone qu’elles n’en éliminent »
    https://www.lemonde.fr/idees/article/2025/05/21/les-entreprises-de-capture-du-co-dans-l-air-emettent-plus-de-carbone-qu-elle

    En 2017, #Zurich devint le lieu de rendez-vous de la jet-set climatique. Journalistes, activistes et investisseurs s’y pressèrent, non pour admirer les rives paisibles du lac ou les demeures cossues de la ville, mais pour contempler les énormes ventilateurs installés par la start-up Climeworks sur le toit d’un incinérateur à ordures. Même Greta Thunberg fit le déplacement. A l’époque, l’entreprise se présentait comme la vitrine technologique de la capture du carbone. Ses fondateurs, Christoph Gebald et Jan Wurzbacher, accueillaient les visiteurs, leur présentant un dispositif où de puissants ventilateurs aspiraient l’air ambiant pour le faire passer à travers une substance absorbante à la composition tenue secrète, chargée de piéger le CO₂.

    Le #gaz ainsi capturé était ensuite redirigé vers une serre où l’on cultivait des concombres. Les deux ingénieurs affirmaient pouvoir capter et stocker 1 % des émissions mondiales en 2025, soit environ 400 millions de tonnes de CO₂ par an. L’annonce fit sensation. Les articles fleurirent, les capitaux affluèrent. En 2021, Climeworks inaugura une installation de plus grande envergure en Islande, alimentée par la géothermie. Cette fois, le CO₂ n’était plus utilisé pour faire pousser des légumes, mais injecté dans le sous-sol pour y être minéralisé, générant ainsi des « émissions négatives ». En 2022, la start-up atteignait une valorisation supérieure à 1 milliard de dollars (environ 890 millions d’euros).

    Un quart de l’énergie mondiale
    Le filon ouvert par Climeworks a été suivi par de nombreuses autres start-ups – Carbon Engineering, Global Thermostat, Rewind, Terraformation, Living Carbon, Charm Industrial, Brilliant Planet, Planetary Technologies, Infinitree… pour n’en citer que quelques-unes. Elles sont aujourd’hui plus de 150, affublées de noms bien grandiloquents pour des entreprises qui émettent plus de carbone qu’elles n’en éliminent.

    A cette liste s’ajoutent les entreprises spécialisées dans la « certification » des émissions négatives – Puro. earth, Agoro Carbon Alliance, Riverse – dont le rôle est de valider des crédits carbone aussi douteux que les procédés qui les sous-tendent. En France, on peut citer la récente Association française pour les émissions négatives, financée par la Quadrature Climate Foundation, elle-même financée par les entreprises pétrolières.

    Le problème des émissions négatives relève de la thermodynamique. Ce constat est loin d’être nouveau. Dès 2015, une étude publiée dans Nature rappelait que la capture du CO₂ directement dans l’air, pour passer à plus grande échelle, devrait consommer des quantités colossales d’énergie – plus du quart de l’énergie mondiale – à une seule tâche : aspirer le carbone de l’atmosphère. En 2019, l’analyse du cycle de vie d’une centrale à charbon américaine équipée de dispositifs de capture montrait que ceux-ci ne permettaient d’éliminer que 10,8 % des émissions. Au prix d’une pollution importante liée à l’utilisation de solvants pour capturer le CO₂.

    Questions fondamentales
    #Climeworks se heurte aux mêmes difficultés. En 2024, loin de capter 1 % des émissions mondiales, l’entreprise n’a réussi à extraire que 105 tonnes de CO₂ de l’atmosphère. Sur son site Internet, l’entreprise reconnaît qu’elle ne parvient même pas à compenser ses propres émissions – estimées à 1 700 tonnes de CO₂ par an, sans compter les voyages de presse. Au lieu des 400 millions de tonnes d’émissions négatives, Climeworks annonce maintenant vouloir devenir la première entreprise d’émissions négatives à devenir #neutre_en_carbone avant 2030…

    L’échec de Climeworks pose une série de questions fondamentales. La première concerne la crédibilité des trajectoires de neutralité carbone qui reposent trop souvent sur des techniques inexistantes. La deuxième concerne les finances publiques : est-il légitime de subventionner des start-up dont les promesses sont systématiquement démenties par les faits ? La troisième question est judiciaire. Climeworks a déjà vendu, par anticipation, des crédits carbone équivalant à plusieurs dizaines de milliers de tonnes à des dizaines d’entreprises, dont Microsoft, J.P. Morgan, Swiss Re, TikTok, British Airways, ainsi qu’à 21 000 particuliers désireux de compenser leur empreinte carbone. Beaucoup pourraient se considérer floués, et envisager des recours. Le business des émissions négatives commence à ressembler à une pyramide de Ponzi – avec le climat pour victime.

    #Jean-Baptiste_Fressoz (Historien, chercheur au CNRS)

  • Vous imaginiez quoi ? Sauver la planète avec des technologies Terran ?
    Ce qui marche, c’est les forets et la mer. Ces 2 trucs que vous voulez « valoriser » donc bousiller.

    Les entreprises de capture du CO₂ dans l’air émettent plus de carbone qu’elles n’en éliminent
    https://www.lemonde.fr/idees/article/2025/05/21/les-entreprises-de-capture-du-co-dans-l-air-emettent-plus-de-carbone-qu-elle

    La start-up Climeworks se proposait de piéger le CO₂. Vite valorisée à 1 milliard de dollars, elle a été imitée par bien d’autres. Cette technologie n’a pas tenu ses promesses, et, aujourd’hui, beaucoup d’entreprises et de particuliers pourraient s’estimer floués.

    Cela veut-il dire que la tonne de CO₂ vaut 0,0022 € ?

    Article complet sans #paywall :
    https://seenthis.net/messages/1116417

  • Climeworks’ capture fails to cover its own emissions - Heimildin
    https://heimildin.is/grein/24581

    According to data available to Heimildin, it is clear that this goal has never been achieved and that #Climeworks does not #capture enough #carbon units to offset its own operations , emissions amounting to 1,700 tons of #CO2 in 2023.

    La capture de CO2, ça ne permet pas de capturer le CO2 produit pour capturer le CO2 pour capturer le CO2 pour capturer le CO2.

    #shadoks_encore_plagiés #carbon_capture

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • #Électricité, #eau, #minéraux, #CO2 : on a tenté de mesurer l’#empreinte_écologique de #ChatGPT

    GPT la planète ? L’#impact_environnemental de l’incontournable outil d’intelligence artificielle est souvent insoupçonné et sous-estimé, et risque bien d’empirer dans les années à venir. Décryptage.
    On peut l’utiliser pour tout : trouver des idées de repas, préparer un programme de sport, vérifier une info, mener une séance de thérapie gratuite… En deux ans, ChatGPT est devenu un outil du quotidien pour plus de 200 millions d’utilisateur·ices régulier·es. Mais l’essor de ce modèle d’intelligence artificielle (IA) générative, développé par l’entreprise américaine Open AI, va de pair avec une empreinte environnementale croissante.

    « ChatGPT n’est pas intrinsèquement écologique, mais son impact environnemental dépend de divers facteurs, comme l’énergie utilisée pour le faire fonctionner et la source de cette énergie. Bien que l’utilisation de ChatGPT ait une empreinte environnementale, des efforts sont en cours pour rendre ces systèmes plus durables », promet l’outil quand on l’interroge sur le sujet.

    Malgré tous les efforts des expert·es du secteur, cette empreinte demeure très compliquée à estimer. La faute à des modèles qui évoluent très vite et rendent caduques les estimations, ainsi qu’à des effets volontairement sous-documentés par les entreprises du secteur. « Le problème principal, c’est qu’il n’y a aucune transparence des acteurs sur le sujet », relève Lou Welgryn, spécialiste de l’IA et coprésidente de l’association Data for good, qui cherche à mettre la tech au service du climat.
    Une consommation électrique qui monte en flèche

    L’impact énergétique est le plus évident et varie selon la source d’électricité utilisée pour alimenter les centres de données – cela n’aura pas les mêmes conséquences en France, où l’électricité est majoritairement décarbonée, qu’aux États-Unis, où elle est encore fortement alimentée par les fossiles.

    L’intelligence artificielle représente environ 10 à 20% de l’électricité utilisée dans les centres de données, un pourcentage qui pourrait grandir tous les ans de quelque 70% dans les prochaines années. D’ici à 2027, l’IA générative pourrait utiliser autant d’électricité que l’Espagne en 2022, anticipe la banque américaine Morgan Stanley dans une étude (https://vert.eco/wp-content/uploads/2024/11/MSNA20231222338642.pdf).

    Des modèles assoiffés

    Les programmes d’intelligence artificielle sont très gourmands en eau pour produire les composants des serveurs qui font tourner les modèles, mais aussi pour les refroidir. ChatGPT ne fait pas exception : en 2023, une étude américaine a estimé que le modèle ChatGPT-3 consomme 500 millilitres d’eau pour quelques dizaines de requêtes – un chiffre sûrement déjà obsolète depuis le passage à ChatGPT-4, encore plus avide en eau. Et si l’on pense au nombre de requêtes réalisées au quotidien, les calculs deviennent vite vertigineux.
    Des besoins en minéraux

    Comme tous les usages du numérique, l’intelligence artificielle nécessite des composants fabriqués à partir de minéraux (cuivre, lithium, cobalt, etc.). L’extraction de ces minéraux entraîne son lot de conséquences (pollution de l’eau, déforestation, violation de droits humains, etc.) dans les pays concernés. Autant de matériaux qui ne pourront pas être utilisés dans des secteurs critiques de la transition, comme la fabrication de voitures électriques ou la production d’énergies renouvelables.
    Une empreinte carbone de plus en plus conséquente

    Pour se faire une idée de l’empreinte carbone de ChatGPT, nous nous sommes basés sur un comparateur créé par l’association Gen AI impact et l’application Ecologits. Une courte conversation (quelques interactions) avec le dernier modèle de ChatGPT émet environ 0,27 kilogramme d’équivalent CO2 (eqCO2), soit près d’une tonne de CO2 par an pour dix échanges par jour. C’est la moitié de ce que l’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.

    À rebours de ce que l’on pourrait penser, on note une aggravation de l’impact avec l’évolution des modèles, toujours plus émetteurs en CO2 et demandeurs en eau et en électricité. Un échange rapide avec ChatGPT-4 émet cent fois plus de CO2 que le modèle précédent (ChatGPT-3,5). Or, lorsque ChatGPT-4 a été développé, les abonné·es payant·es du programme sont automatiquement passé·es à cette nouvelle version. « Quand Open AI décide d’un coup de basculer des millions d’utilisateurs sur la version ChatGPT-4, on a un effet rebond absolument effrayant », souligne Lou Welgryn.
    Problème : un usage normalisé au quotidien

    ChatGPT s’est si profondément ancré dans les habitudes des internautes qu’elles et ils sont nombreux·ses à le préférer à Google. Un choix qui n’est pas anodin, puisqu’une requête sur ChatGPT utilise entre six et dix fois plus d’énergie qu’une recherche traditionnelle sur internet, d’après de récentes projections.

    « La question n’est pas tant le nombre d’utilisateurs que le nombre de requêtes réalisées au quotidien. Or, les gens se mettent à utiliser ChatGPT plutôt que Google pour la moindre demande. On prend l’habitude d’avoir recours à une solution compliquée pour une requête simple », décrypte Amélie Cordier, spécialiste de l’IA et fondatrice de Graine d’IA, qui accompagne les entreprises pour un usage responsable de l’intelligence artificielle. « Alors certes, c’est très marrant de lui demander de réciter la météo à la manière de Shakespeare, mais ça ne sert à rien », balaie l’experte.

    « Si les utilisateurs avaient conscience de l’impact concret de leurs requêtes, ils se serviraient sûrement bien différemment de ChatGPT », veut-elle croire. Malheureusement, il est d’autant plus complexe pour les utilisateurs de s’en rendre compte que ces impacts sont complètement invisibles pour ces derniers. « Il est difficile de comprendre l’étendue des impacts environnementaux de l’IA compte tenu de la distance entre là où vous l’utilisez et là où cette interaction a été générée. La plupart du temps, les modèles tournent via des centres de données situés très loin de leurs utilisateurs », explique Sasha Luccioni, informaticienne et chercheuse experte de l’intelligence artificielle, dans un article très complet sur l’empreinte écologique de l’IA.
    Conflits d’usage et renoncements

    « On estime que la demande d’électricité liée à l’IA va être multipliée par deux d’ici à 2030. Le problème, c’est que cela croît plus vite que notre capacité à développer des énergies renouvelables », soulève Lou Welgryn de Data for good. Au risque de générer des conflits d’usage critiques, et de ralentir la nécessaire transition énergétique. L’électrification des usages aujourd’hui dépendants des énergies fossiles (comme le chauffage, les transports, etc.) est un levier incontournable pour permettre à la France d’atteindre la neutralité carbone en 2050 – c’est-à-dire l’équilibre entre le carbone émis et celui qui est absorbé. « Les Big Tech peuvent-elles décider d’utiliser de l’électricité propre pour verdir leur bilan carbone, tandis que le reste du monde doit utiliser des énergies carbonées ? », interroge Lou Welgryn.

    La croissance du secteur de l’IA est tellement effrénée qu’elle met déjà à mal les ambitions climatiques de géants de la tech, comme Google ou Microsoft. Les émissions de CO2 de Microsoft ont bondi de 30% entre 2020 et 2024, et ce, alors que l’entreprise américaine s’est engagée à atteindre la neutralité carbone dès 2030. Chez Google, ce saut dans les émissions s’est élevé à 48% entre 2019 et 2023. Dans les deux cas, l’essor de l’IA et sa place grandissante dans les centres de données sont en cause.
    L’IA, un outil « qui dope notre monde carboné »

    En matière d’IA, il y a le modèle mais aussi ce qu’il permet de produire. Par exemple, il peut aider des entreprises fossiles à accélérer la production de secteurs polluants (le textile, la tech, etc.). Or, cet élément est quasiment impossible à prendre en compte lorsque l’on calcule l’impact de ces outils. « L’intelligence artificielle dope notre monde carboné, nous rend plus productifs. Et il faut dire les choses clairement : devenir plus efficace dans un monde carboné, ça crée juste plus de carbone », résume Lou Welgryn.

    Bien sûr, l’intelligence artificielle peut aussi être un outil très utile pour l’environnement : elle peut améliorer la modélisation climatique, optimiser l’usage des ressources, détecter des fuites de méthane et globalement réduire les émissions de gaz à effet de serre de certaines activités. Elle peut aussi favoriser la connaissance citoyenne sur ces sujets via un outil comme « Climate Q&A », qui permet d’interroger les rapports scientifiques sur le climat (notre article).
    Un DPE de l’intelligence artificielle ?

    Mais la question se pose moins avec ChatGPT, qui est un produit d’appel majoritairement destiné aux particulier·es. D’autant plus que les modèles généralistes « fourre-tout » comme ChatGPT sont peu efficients d’un point de vue énergétique : ils ont été entraînés avec un nombre incalculable de données – un processus long et polluant. « Si on veut utiliser l’IA générative pour explorer des articles scientifiques de médecine, on n’a a priori pas besoin d’un modèle qui dispose par ailleurs de connaissances approfondies sur la pêche à la mouche », illustre la spécialiste.

    Elle suggère d’instaurer une sorte de « DPE » [diagnostic de performance énergétique, utilisé pour classer les bâtiments et logements selon leur impact écologique, NDLR] des différents modèles d’IA : « Cela serait une vraie révolution qui forcerait les entreprises du secteur à s’améliorer et qui nous aiderait en tant qu’utilisateur à faire des choix plus pertinents ». Et ainsi peut-être utiliser l’intelligence artificielle générative pour des usages plus vertueux que simplement connaître la météo du coin.

    https://vert.eco/articles/electricite-eau-mineraux-co2-on-a-tente-de-mesurer-lempreinte-ecologique-de-ch
    #IA #intelligence_artificielle #impact

  • « Nous assistons à une escalade de la #prédation_minière »

    Une nouvelle #ruée_minière a commencé et touche aussi la #France. Au nom de la lutte contre la crise climatique, il faudrait extraire de plus en plus de #métaux. Celia Izoard dénonce l’impasse de cette « #transition » extractiviste. Entretien.

    Basta/Observatoire des multinationales : Il est beaucoup question aujourd’hui de renouveau minier en raison notamment des besoins de la transition énergétique, avec la perspective d’ouvrir de nouvelles mines en Europe et même en France. Vous défendez dans votre #livre qu’il ne s’agit pas du tout d’un renouveau, mais d’une trajectoire de continuité. Pourquoi ?

    #Celia_Izoard : Les volumes de #métaux extraits dans le monde aujourd’hui augmentent massivement, et n’ont jamais cessé d’augmenter. Ce qui est parfaitement logique puisqu’on ne cesse de produire de nouveaux objets et de nouveaux équipements dans nos pays riches, notamment avec la #numérisation et aujourd’hui l’#intelligence_artificielle, et qu’en plus de cela le reste du monde s’industrialise.

    En conséquence, on consomme de plus en plus de métaux, et des métaux de plus en plus variés – aussi bien des métaux de base comme le #cuivre et l’#aluminium que des métaux de spécialité comme les #terres_rares. Ces derniers sont utilisés en très petite quantité mais dans des objets qui sont partout, comme les #smartphones, et de façon trop dispersive pour permettre le #recyclage.

    Et la production de tous ces métaux devrait continuer à augmenter ?

    Oui, car rien ne freine cette production, d’autant plus qu’on y ajoute aujourd’hui une nouvelle demande qui est un véritable gouffre : celle de métaux pour le projet très technocratique de la transition. « Transition », dans l’esprit de nos élites, cela signifie le remplacement des #énergies_fossiles par l’#énergie_électrique – donc avec des #énergies_renouvelables et des #batteries – avec un modèle de société inchangé. Mais, par exemple, la batterie d’une #voiture_électrique représente souvent à elle seule 500 kg de métaux (contre moins de 3 kg pour un #vélo_électrique).

    Simon Michaux, professeur à l’Institut géologique de Finlande, a essayé d’évaluer le volume total de métaux à extraire si on voulait vraiment électrifier ne serait-ce que la #mobilité. Pour le #lithium ou le #cobalt, cela représenterait plusieurs décennies de la production métallique actuelle. On est dans un scénario complètement absurde où même pour électrifier la flotte automobile d’un seul pays, par exemple l’Angleterre ou la France, il faut déjà plus que la totalité de la production mondiale. Ce projet n’a aucun sens, même pour lutter contre le #réchauffement_climatique.

    Vous soulignez dans votre livre que l’#industrie_minière devient de plus en plus extrême à la fois dans ses techniques de plus en plus destructrices, et dans les #nouvelles_frontières qu’elle cherche à ouvrir, jusqu’au fond des #océans et dans l’#espace

    Oui, c’est le grand paradoxe. Les élites politiques et industrielles répètent que la mine n’a jamais été aussi propre, qu’elle a surmonté les problèmes qu’elle créait auparavant. Mais si l’on regarde comment fonctionne réellement le #secteur_minier, c’est exactement l’inverse que l’on constate. La mine n’a jamais été aussi énergivore, aussi polluante et aussi radicale dans ses pratiques, qui peuvent consister à décapiter des #montagnes ou à faire disparaître des #vallées sous des #déchets_toxiques.

    C’est lié au fait que les teneurs auxquelles on va chercher les métaux sont de plus en plus basses. Si on doit exploiter du cuivre avec un #filon à 0,4%, cela signifie que 99,6% de la matière extraite est du #déchet. Qui plus est, ce sont des #déchets_dangereux, qui vont le rester pour des siècles : des déchets qui peuvent acidifier les eaux, charrier des contaminants un peu partout.

    Les #résidus_miniers vont s’entasser derrière des #barrages qui peuvent provoquer de très graves #accidents, qui sont sources de #pollution, et qui sont difficilement contrôlables sur le long terme. Nous assistons aujourd’hui à une véritable #escalade_technologique qui est aussi une escalade de la #prédation_minière. La mine est aujourd’hui une des pointes avancées de ce qu’on a pu appeler le #capitalisme_par_dépossession.

    Comment expliquer, au regard de cette puissance destructrice, que les populations occidentales aient presque totalement oublié ce qu’est la mine ?

    Il y a un #déni spectaculaire, qui repose sur deux facteurs. Le premier est la religion de la #technologie, l’une des #idéologies dominantes du monde capitaliste. Nos dirigeants et certains intellectuels ont entretenu l’idée qu’on avait, à partir des années 1970, dépassé le #capitalisme_industriel, qui avait été tellement contesté pendant la décennie précédente, et qu’on était entré dans une nouvelle ère grâce à la technologie. Le #capitalisme_post-industriel était désormais avant tout une affaire de brevets, d’idées, d’innovations et de services.

    Les mines, comme le reste de la production d’ailleurs, avaient disparu de ce paysage idéologique. Le #mythe de l’#économie_immatérielle a permis de réenchanter le #capitalisme après l’ébranlement des mouvements de 1968. Le second facteur est #géopolitique. Aux grandes heures du #néo-libéralisme, le déni de la mine était un pur produit de notre mode de vie impérial. Les puissances occidentales avaient la possibilité de s’approvisionner à bas coût, que ce soit par l’#ingérence_politique, en soutenant des dictatures, ou par le chantage à la dette et les politiques d’#ajustement_structurel. Ce sont ces politiques qui ont permis d’avoir par exemple du cuivre du #Chili, de #Zambie ou d’#Indonésie si bon marché.

    Les besoins en métaux pour la #transition_climatique, si souvent invoqués aujourd’hui, ne sont-ils donc qu’une excuse commode ?

    Invoquer la nécessité de créer des mines « pour la transition » est en effet hypocrite : c’est l’ensemble des industries européennes qui a besoin de sécuriser ses approvisionnements en métaux. La récente loi européenne sur les métaux critiques répond aux besoins des grosses entreprises européennes, que ce soit pour l’#automobile, l’#aéronautique, l’#aérospatiale, les #drones, des #data_centers.

    L’argument d’une ruée minière pour produire des énergies renouvelables permet de verdir instantanément toute mine de cuivre, de cobalt, de lithium, de #nickel ou de terres rares. Il permet de justifier les #coûts_politiques de la #diplomatie des #matières_premières : c’est-à-dire les #conflits liés aux rivalités entre grandes puissances pour accéder aux #gisements. Mais par ailleurs, cette transition fondée sur la technologie et le maintien de la #croissance est bel et bien un gouffre pour la #production_minière.

    Ce discours de réenchantement et de relégitimation de la mine auprès des populations européennes vous semble-t-il efficace ?

    On est en train de créer un #régime_d’exception minier, avec un abaissement des garde-fous réglementaires et des formes d’extractivisme de plus en plus désinhibées, et en parallèle on culpabilise les gens. La #culpabilisation est un ressort psychologique très puissant, on l’a vu durant le Covid. On dit aux gens : « Si vous n’acceptez pas des mines sur notre territoire, alors on va les faire ailleurs, aux dépens d’autres populations, dans des conditions bien pires. » Or c’est faux. D’abord, la #mine_propre n’existe pas.

    Ensuite, la #loi européenne sur les #métaux_critiques elle prévoit qu’au mieux 10% de la production minière soit relocalisée en Europe. Aujourd’hui, on en est à 3%. Ce n’est rien du tout. On va de toute façon continuer à ouvrir des mines ailleurs, dans les pays pauvres, pour répondre aux besoins des industriels européens. Si l’on voulait vraiment relocaliser la production minière en Europe, il faudrait réduire drastiquement nos besoins et prioriser les usages les plus importants des métaux.

    Peut-on imaginer qu’un jour il existe une mine propre ?

    Si l’on considère la réalité des mines aujourd’hui, les procédés utilisés, leur gigantisme, leur pouvoir de destruction, on voit bien qu’une mine est intrinsèquement problématique, intrinsèquement prédatrice : ce n’est pas qu’une question de décisions politiques ou d’#investissements. L’idée de « #mine_responsable » n’est autre qu’une tentative de faire accepter l’industrie minière à des populations en prétendant que « tout a changé.

    Ce qui m’a frappé dans les enquêtes que j’ai menées, c’est que les industriels et parfois les dirigeants politiques ne cessent d’invoquer certains concepts, par exemple la #mine_décarbonée ou le réemploi des #déchets_miniers pour produire du #ciment, comme de choses qui existent et qui sont déjà mises en pratique. À chaque fois que j’ai regardé de plus près, le constat était le même : cela n’existe pas encore. Ce ne sont que des #promesses.

    Sur le site de la nouvelle mine d’#Atalaya à #Rio_Tinto en #Espagne, on voir des panneaux publicitaires alignant des #panneaux_photovoltaïques avec des slogans du type « Rio Tinto, la première mine d’autoconsommation solaire ». Cela donne à penser que la mine est autonome énergétiquement, mais pas du tout. Il y a seulement une centrale photovoltaïque qui alimentera une fraction de ses besoins. Tout est comme ça.

    Le constat n’est-il pas le même en ce qui concerne le recyclage des métaux ?

    Il y a un effet purement incantatoire, qui consiste à se rassurer en se disant qu’un jour tout ira bien parce que l’on pourra simplement recycler les métaux dont on aura besoin. Déjà, il n’en est rien parce que les quantités colossales de métaux dont l’utilisation est planifiée pour les années à venir, ne serait-ce que pour produire des #batteries pour #véhicules_électriques, n’ont même pas encore été extraites.

    On ne peut donc pas les recycler. Il faut d’abord les produire, avec pour conséquence la #destruction de #nouveaux_territoires un peu partout sur la planète. Ensuite, le recyclage des métaux n’est pas une opération du saint-Esprit ; il repose sur la #métallurgie, il implique des usines, des besoins en énergie, et des pollutions assez semblables à celles des mines elles-mêmes.

    L’accent mis sur le besoin de métaux pour la transition ne reflète-t-il pas le fait que les #multinationales ont réussi à s’approprier ce terme même de « transition », pour lui faire signifier en réalité la poursuite du modèle actuel ?

    Le concept de transition n’a rien de nouveau, il était déjà employé au XIXe siècle. À cette époque, la transition sert à freiner les ardeurs révolutionnaires : on accepte qu’il faut des changements, mais on ajoute qu’il ne faut pas aller trop vite. Il y a donc une dimension un peu réactionnaire dans l’idée même de transition.

    Dans son dernier livre, l’historien des sciences #Jean-Baptiste_Fressoz [Sans transition - Une nouvelle histoire de l’énergie, Seuil, 2024] montre que la #transition_énergétique tel qu’on l’entend aujourd’hui est une invention des #pro-nucléaires des États-Unis dans les années 1950 pour justifier des #investissements publics colossaux dans l’#atome. Ils ont tracé des belles courbes qui montraient qu’après l’épuisement des énergies fossiles, il y aurait besoin d’une #solution_énergétique comme le #nucléaire, et qu’il fallait donc investir maintenant pour rendre le passage des unes à l’autre moins brutal.

    La transition aujourd’hui, c’est avant tout du temps gagné pour le capital et pour les grandes entreprises. Les rendez-vous qu’ils nous promettent pour 2050 et leurs promesses de #zéro_carbone sont évidemment intenables. Les technologies et l’#approvisionnement nécessaire en métaux n’existent pas, et s’ils existaient, cela nous maintiendrait sur la même trajectoire de réchauffement climatique.

    Ces promesses ne tiennent pas debout, mais elles permettent de repousser à 2050 l’heure de rendre des comptes. Ce sont plusieurs décennies de gagnées. Par ailleurs, le terme de transition est de plus en plus utilisé comme étendard pour justifier une #croisade, une politique de plus en plus agressive pour avoir accès aux gisements. Les pays européens et nord-américains ont signé un partenariat en ce sens en 2022, en prétendant que certes ils veulent des métaux, mais pour des raisons louables. La transition sert de figure de proue à ces politiques impériales.

    Vous avez mentionné que l’une des industries les plus intéressées par la sécurisation de l’#accès aux métaux est celle de l’#armement. Vous semblez suggérer que c’est l’une des dimensions négligées de la guerre en Ukraine…

    Peu de gens savent qu’en 2021, la Commission européenne a signé avec l’#Ukraine un accord de partenariat visant à faire de ce pays une sorte de paradis minier pour l’Europe. L’Ukraine possède de fait énormément de ressources convoitées par les industriels, qu’ils soient russes, européens et américains. Cela a joué un rôle dans le déclenchement de la #guerre. On voit bien que pour, pour accéder aux gisements, on va engendrer des conflits, militariser encore plus les #relations_internationales, ce qui va nécessiter de produire des #armes de plus en plus sophistiquées, et donc d’extraire de plus en plus de métaux, et donc sécuriser l’accès aux gisements, et ainsi de suite.

    C’est un #cercle_vicieux que l’on peut résumer ainsi : la ruée sur les métaux militarise les rapports entre les nations, alimentant la ruée sur les métaux pour produire des armes afin de disposer des moyens de s’emparer des métaux. Il y a un risque d’escalade dans les années à venir. On évoque trop peu la dimension matérialiste des conflits armés souvent dissimulés derrière des enjeux « ethniques ».

    Faut-il sortir des métaux tout comme il faut sortir des énergies fossiles ?

    On a besoin de sortir de l’extractivisme au sens large. Extraire du pétrole, du charbon, du gaz ou des métaux, c’est le même modèle. D’ailleurs, d’un point de vue administratif, tout ceci correspond strictement à de l’activité minière, encadrée par des #permis_miniers. Il faut cesser de traiter le #sous-sol comme un magasin, de faire primer l’exploitation du sous-sol sur tout le reste, et en particulier sur les territoires et le vivant.

    Concrètement, qu’est ce qu’on peut faire ? Pour commencer, les deux tiers des mines sur la planète devraient fermer – les #mines_métalliques comme les #mines_de_charbon. Ça paraît utopique de dire cela, mais cela répond à un problème urgent et vital : deux tiers des mines sont situées dans des zones menacées de #sécheresse, et on n’aura pas assez d’#eau pour les faire fonctionner à moins d’assoiffer les populations. En plus de cela, elles émettent du #CO2, elles détruisent des territoires, elles déplacent des populations, elles nuisent à la #démocratie. Il faut donc faire avec une quantité de métaux restreinte, et recycler ce que l’on peut recycler.

    Vous soulignez pourtant que nous n’avons pas cessé, ces dernières années, d’ajouter de nouvelles technologies et de nouveaux objets dans notre quotidien, notamment du fait de l’envahissement du numérique. Réduire notre consommation de métaux implique-t-il de renoncer à ces équipements ?

    Oui, mais au préalable, quand on dit que « nous n’avons pas cessé d’ajouter des nouvelles technologies polluantes », il faut analyser un peu ce « nous ». « Nous » n’avons pas choisi de déployer des #caméras_de_vidéosurveillance et des #écrans_publicitaires partout. Nous n’avons pas choisi le déploiement de la #5G, qui a été au contraire contesté à cause de sa consommation d’énergie.

    La plupart d’entre nous subit plutôt qu’elle ne choisit la #numérisation des #services_publics, instrument privilégié de leur démantèlement et de leur privatisation : l’usage de #Pronote à l’école, #Doctissimo et la télémédecine dont la popularité est due à l’absence de médecins, etc. Dans le secteur automobile, la responsabilité des industriels est écrasante. Depuis des décennies, ils ne cessent de bourrer les véhicules d’électronique pour augmenter leur valeur ajoutée.

    Ces dernières années, ils ont massivement vendu d’énormes voitures électriques parce qu’ils savaient que le premier marché de la voiture électrique, c’était d’abord la bourgeoisie, et que les bourgeois achèteraient des #SUV et des grosses berlines. Donc quand je dis que nous devons réduire notre #consommation de métaux, j’entends surtout par-là dénoncer les industries qui inondent le marché de produits insoutenables sur le plan des métaux (entre autres).

    Mais il est vrai que nous – et là c’est un vrai « nous » - devons réfléchir ensemble aux moyens de sortir de l’#emprise_numérique. Du point de vue des métaux, le #smartphone n’est pas viable : sa sophistication et son caractère ultra-mondialisé en font un concentré d’#exploitation et d’#intoxication, des mines aux usines d’assemblage chinoises ou indiennes.

    Et bien sûr il a des impacts socialement désastreux, des addictions à la #surveillance, en passant par la « #surmarchandisation » du quotidien qu’il induit, à chaque instant de la vie. Là-dessus, il faut agir rapidement, collectivement, ne serait-ce que pour se protéger.

    https://basta.media/nous-assistons-a-une-escalade-de-la-predation-miniere
    #extractivisme #minières #électrification #acidification #contamination #hypocrisie #relocalisation #prédation #guerre_en_Ukraine #militarisation #déplacement_de_populations #dématérialisation #industrie_automobile

  • Big oil firms knew of dire effects of fossil fuels as early as #1950s, memos show

    Newly unearthed documents contain warning from head of #Air_Pollution_Foundation, founded in #1953 by oil interests.

    Major oil companies, including #Shell and precursors to energy giants #Chevron, #ExxonMobil and #BP, were alerted about the planet-warming effects of fossil fuels as early as 1954, newly unearthed documents show.

    The warning, from the head of an industry-created group known as the Air Pollution Foundation, was revealed by Climate Investigations Center and published Tuesday by the climate website #DeSmog. It represents what may be the earliest instance of big oil being informed of the potentially dire consequences of its products.

    “Every time there’s a push for climate action, [we see] fossil fuel companies downplay and deny the harms of burning fossil fuels,” said Rebecca John, a researcher at the Climate Investigations Center who uncovered the historic memos. “Now we have evidence they were doing this way back in the 50s during these really early attempts to crack down on sources of pollution.”

    The Air Pollution Foundation was founded in 1953 by oil interests in response to public outcry over smog that was blanketing Los Angeles county.

    Researchers had identified hydrocarbon pollution from fossil fuel sources such as cars and refineries as a primary culprit and Los Angeles officials had begun to proposal pollution controls.

    The Air Pollution Foundation, which was primarily funded by the lobbying organization Western States Petroleum Association, publicly claimed to want to help solve the smog crisis, but was set up in large part to counter efforts at regulation, the new memos indicate.

    It’s a commonly used tactic today, said Geoffrey Supran, an expert in climate disinformation at the University of Miami.

    “The Air Pollution Foundation appears to be one of the earliest and most brazen efforts by the oil industry to prop up a … front group to exaggerate scientific uncertainty to defend business as usual,” Supran said. “It helped lay the strategic and organizational groundwork for big oil’s decades of climate denial and delay.”

    Then called the Western Oil and Gas Association, the lobbying group provided $1.3m to the group in the 1950s – the equivalent of $14m today – to the Air Pollution Foundation. That funding came from member companies including Shell and firms later bought by or merged with ExxonMobil, BP, Chevron, Sunoco and ConocoPhillips, as well as southern California utility SoCalGas.

    The Air Pollution Foundation recruited the respected chemical engineer Lauren B Hitchcock to serve as its president. And in 1954, the organization – which until then was arguing that households incinerating waste in backyards was to blame – asked Caltech to submit a proposal to determine the main source of smog.

    In November 1954, Caltech submitted its proposal, which included crucial warnings about the coal, oil, and gas and said that “a changing concentration of CO2 in the atmosphere with reference to climate” may “ultimately prove of considerable significance to civilization”, a memo previously uncovered by John shows. The newly uncovered documents show the Air Pollution Foundation shared the warning with the Western Oil and Gas Association’s members in March 1955.

    In the mid-1950s, climate researchers were beginning to understand the planet-heating impact of fossil fuels, and to discuss their emergent research in the media. But the newly uncovered Air Pollution Foundation memo represents the earliest known cautionary message to the oil industry about the greenhouse effect.

    The Air Pollution Foundation’s board of trustees, including representatives from SoCalGas and Union Oil, which was later acquired by Chevron, approved funding for the Caltech project. In the following months, foundation president Hitchcock advocated for pollution controls on oil refineries and then testified in favor of state-funded pollution research in the California Senate.

    Hitchcock was reprimanded by industry leaders for these efforts. In an April 1955 meeting, the Western Oil and Gas Association told him he was drawing too much “attention” to refinery pollution and conducting “too broad a program” of research. The Air Pollution Foundation was meant to be “protective” of the industry and should publish “findings which would be accepted as unbiased”, meeting minutes uncovered by John show.

    After this meeting, the foundation made no further reference to the potential climate impact of fossil fuels, publications reviewed by DeSmog suggest.

    “The fossil fuel industry is often seen as having followed in the footsteps of the tobacco industry’s playbook for denying science and blocking regulation,” said Supran. “But these documents suggest that big oil has been running public affairs campaigns to downplay the dangers of its products just as long as big tobacco, starting with air pollution in the early-to-mid-1950s.”

    In the following months, many of the foundation’s research projects were scaled back or designed to be conducted in direct partnerships with lobbying groups. Hitchcock resigned as president in 1956.

    Last year, the largest county in Oregon sued the Western States Petroleum Association for allegedly sowing doubt about the climate crisis despite longstanding knowledge of it.

    DeSmog and the Climate Investigations Center previously found that the Air Pollution Foundation underwrote the earliest studies on CO2 conducted in 1955 and 1956 by renowned climate scientist Charles David Keeling, paving the way for his groundbreaking “Keeling Curve,” which charts how fossil fuels cause an increase in atmospheric carbon dioxide.

    Other earlier investigations have found that major fossil companies spent decades conducting their own research into the consequences of burning coal, oil and gas. One 2023 study found that Exxon scientists made “breathtakingly” accurate predictions of global heating in the 1970s and 1980s, only to then spend decades sowing doubt about climate science.

    The newly unearthed documents come from the Caltech archives, the US National Archives, the University of California at San Diego, the State University of New York Buffalo archives and Los Angeles newspapers from the 1950s.

    The Western States Petroleum Association and the American Petroleum Institute, the top US fossil fuels lobby group, did not respond to requests for comment.

    https://www.theguardian.com/us-news/2024/nov/12/big-oil-fossil-fuel-warning

    #effets #énergie_fossile #lobby #CO2 #changement_climatique #climat #alerte

    • Revealed: Big Oil Told 70 Years Ago That Fossil Fuel Emissions Could Impact ‘Civilization’

      New documents show how a deceptive PR strategy pioneered in 1950s California first exposed the risk of climate change and then helped the industry deny it.

      April 6, 1955, was a perfect spring day in Los Angeles. Downtown, the skies were unusually smog-free as Lauren B. Hitchcock, president of the Air Pollution Foundation, made his way up the marble steps of the city’s exclusive California Club for a meeting with some of the West Coast’s most powerful businessmen. Waiting inside the club’s oak-paneled rooms were top executives from California’s major oil companies. They were the Air Pollution Foundation’s largest funders, and they were not happy.

      As the foundation’s president, it was Hitchcock’s job to oversee a research program aimed at solving Southern California’s escalating smog crisis – a crisis that had provoked mass protests throughout Los Angeles County only a few months before. Determined to tackle every possible source of smog, Hitchcock was investigating the region’s numerous oil and gas refineries. On top of this, he was publicly demanding action to curtail air pollution across the state, angering the members of the industry’s oldest lobby group, the Western States Petroleum Association (WSPA), then known as the Western Oil and Gas Association (WOGA). Several weeks earlier, the foundation had also published a report containing the bombshell warning that carbon dioxide (CO2) emissions from fossil fuels could have considerable long-term consequences for “civilization.” Displeased, WSPA’s senior leaders summoned Hitchcock to the California Club where they reprimanded him, spelling out in no uncertain terms exactly what they expected in return for their hefty financial contributions.

      Over lunch, WSPA’s oilmen criticized Hitchcock for supporting pollution controls across California, for drawing “attention” to refinery pollution, and for conducting “too broad a program” of research. Instead, they told him they had formed the Air Pollution Foundation to be “protective,” that Hitchcock should serve as “the research director for the oil industry” and the foundation should publish “findings which would be accepted as unbiased” where the oil industry’s findings were not seen as trustworthy.

      This frank exchange, reported in detail by Hitchcock in a never-before-seen memo, unmasks the strategic motivations behind Big Oil’s sponsorship of air pollution research. Alongside dozens of other newly obtained documents, the memo shows that 1950s L.A. was ground zero for a tactic that has since become a key element of the oil industry’s PR playbook: funding a third-party community front group to sponsor and publicize research aimed at downplaying or denying the harmful impacts of burning fossil fuels.

      Following Big Oil’s intervention, the Air Pollution Foundation’s reports referred to CO2 as “innocuous.”

      Since the 1950s, oil and gas companies have repeatedly used front groups to influence public opinion, block clean air regulation, and stall climate action.

      This deceptive tactic, rooted in California history, is a major focus of climate litigation currently progressing through the state’s courts.

      Ironically, this strategy, designed to protect oil and gas producers from local air pollution controls, led to WSPA members being informed in 1954 of a far greater potential danger resulting from their operations: global climate change.

      This month, the 70th anniversary of researchers warning Big Oil about the risks of climate change, atmospheric carbon dioxide is 50 percent higher than before the Industrial Revolution. Record-breaking heat waves, violently destructive storms, wildfires, drought, and flooding are all increasing due to the effects of greenhouse-gas-induced climate change. Yet, in meetings held behind closed doors over multiple decades, oil and gas executives have consistently decided to deny, dismiss, or downplay the risk of burning fossil fuels to protect their business – just like WSPA’s oilmen of the 1950s. Compelling new evidence shows this pattern of behavior was already hardwired into the industry’s DNA by 1955 and persists today.
      An ‘Air Pollution Siege’

      “Outraged L.A. Citizens Still Suffer from Smog,” a Los Angeles Times headline in December 1952 cried out. That fall had seen Southern California experience its “most prolonged air pollution siege,” suffering five straight weeks of smog that pushed public anger to the “boiling point.” Thick, acrid, and irritating to the eyes and lungs, smog had plagued Los Angeles’ once idyllic corner of the southwestern U.S. since 1943 when, during World War II, the sudden arrival of a blanket of noxious fumes had been mistaken for an enemy gas attack. Obscuring the sun, smog reduced visibility to less than a few blocks, caused fatal traffic accidents, halted movie productions, confined children indoors, and canceled sporting events. On bad smog days, emergency rooms saw higher numbers of deaths from heart or lung diseases, and rates of asthma and bronchitis increased. Smog also damaged property and ruined crops.

      Angry citizens soon demanded action, pointing to the highly visible stack gases emitted daily by Los Angeles County’s many oil refineries. To deflect blame away from the industry, in 1947 WSPA established an internal Smoke and Fumes Committee chaired by William L. Stewart, Jr., a vice president of Union Oil (now Chevron). Through the committee, WSPA sponsored smog studies at the Stanford Research Institute (SRI), downplaying the industry’s role.

      By 1950, however, Caltech chemist Arie Haagen-Smit had identified hydrocarbon pollution from “oil fields, refineries, filling stations, automobiles, etc.” as the primary sources of smog. Using this emerging science, county authorities developed plans to enforce pollution controls. In response, oil industry leaders dialed up their anti-regulatory counteroffensive, dismissing Haagen-Smit’s findings as “unproved speculation,” and citing their own SRI research to claim that the substances responsible for smog had “not been positively identified.” WSPA, now aided by the oil industry’s national association, the American Petroleum Institute (API), argued to delay regulatory action, and recommended expanding research into the causes of smog instead.

      Meanwhile, the smog crisis intensified. Taking matters into their own hands, a group of independent L.A. citizens established the Pure Air Committee, holding public meetings that sought “legal remedies” to combat air pollution. Big Oil’s strategy of relying on SRI’s industry-funded research to stem the tide of bad publicity and prevent regulation was failing. “The policeman is coming!” an executive of Union Oil, warned the API at the group’s mid-year meeting.
      Foundation for War on Smog

      It was out of this battleground that WSPA formed the Air Pollution Foundation (APF). In September 1953, an official account of the foundation’s origins stated that a group of unnamed “civic leaders” gathered to discuss what they could do to eliminate smog. According to this official version of events, “It was obvious that more facts concerning the nature and origin of smog were necessary before proper controls could be invoked.”

      However, Hitchcock’s confidential memo, written in the aftermath of his 1955 California Club meeting, reveals that senior WSPA officials and oil industry executives were among this group of “civic leaders” and that the APF was, in fact, intended as a vehicle for publishing supposedly “unbiased” findings.

      By filtering information “concerning the nature and origin of smog” through a foundation staffed with reputable scientists as well as its own representatives, WSPA hoped to win public credibility among L.A.’s angry residents, stall regulation, and protect the industry’s bottom line. This was a tactic that the U.S.’s heavy industries had used since the 1930s to fight worker health and safety reforms. However, the oil and gas industry, finding themselves directly in the regulatory firing line, now repurposed the same technique for their own agenda. At first, everything seemed to go according to plan.

      “Foundation Set Up For War On Smog,” a November 7, 1953, L.A. Times headline stated, heralding the APF’s official launch. The paper reported that more than “75 businessmen, industrialists, civic leaders, churchmen and government officials” had announced a “community-wide, long-range” program for tackling the smog crisis. A list of the APF’s trustees revealed a cross-section of the city’s most influential figures including the heads of southern California’s most prestigious academic institutions, retail magnates, founders of the state’s leading banks, and the presidents of SoCalGas, Southern California Edison, and Union Oil (acquired by Chevron in 2005).


      According to the foundation’s “Statement of Policy,” these board members who represented “polluting industries” had a particular responsibility to ensure that they would be “parties to all facts and evidence brought to light on the problem” so that they and their colleagues in the fossil fuel industry could “continue their best efforts toward the abatement of air pollution.” In reality, these efforts would fall short but, for the moment, WSPA’s prototype front group received a warm welcome in the press, which heralded the APF as a “Citizens’ Group.”

      Timeline of Events – (Click arrows to browse)

      Follow the Money

      Behind the scenes, documents show that the oil and gas industry was the APF’s largest funder by far, making annual contributions of approximately $200,000 (equivalent to $2.4 million today). In 1955, “oil companies” contributed $200,000 out of the foundation’s total income of $348,000. Throughout the foundation’s six-year existence, WSPA members contributed over a third of the APF’s total income, totaling $1.3 million (around $14 million today).

      But which companies were behind WSPA’s funding of the APF? A November 1954 APF press release is the only surviving document revealing the identity of these individual oil and gas companies. The list includes General Petroleum and Humble Oil (ExxonMobil); Richfield Oil (BP); Shell; Southern California Edison; Southern California Gas Company (SoCalGas); Sunray Oil (Sunoco); Tidewater (ConocoPhillips); and Standard Oil of California, the Texas Company, Union Oil, and Western Gulf (all now Chevron).

      With the money came influence, starting with the APF’s choice of president. The chairman of Standard Oil of Indiana (now BP) scouted universities for recommendations, but it was an APF trustee with ties to Standard Oil of California (Chevron) who eventually recruited Lauren B. Hitchcock, the East Coast chemical engineer and World War I Naval Aviation Corps veteran, to serve as president of the APF.

      With his track record of working for the chemical industry, Hitchcock likely appeared a safe pair of hands to run a front group for Big Oil. Unanimously approved by the APF’s trustees, he relocated his family from New York to Los Angeles, where he began formulating the APF’s research program. From the start of Hitchcock’s tenure, oil and gas industry representatives were omnipresent in the foundation’s operations, as consultants or members of important APF committees. However, despite these guardrails, Hitchcock would turn out to be more independent-minded than the oil industry had hoped.

      Meanwhile, as each month passed, the air pollution crisis in southern California deepened. “Crowd Overflows Smog Meeting,” warned an October 1954 L.A. Times headline. Ten consecutive days of smog had resulted in mass civic protests in the region and on October 20, a crowd of 4,500 “smog-weary citizens” attended a meeting at the Pasadena Civic Auditorium where speakers outlined plans for a citizens’ movement.

      A few weeks later, on November 16, 1954, Hitchcock unveiled the foundation’s ambitious “Twelve-Month Research Program.” Billed as “unprecedented in scope,” the program focused on investigating the fundamental causes of smog and developing technology to reduce pollution from automobiles. Among the dozens of research projects listed, only one related specifically to exploring refinery emissions – even though refineries in the area contributed an estimated 33 percent to L.A.’s total air pollution.
      CO2 and Climate Change

      Tucked away at the end of the “Twelve-Month Research Program,” under the category of “Fundamental Research in Physics, Meteorology and Chemistry” the APF quietly listed a project that would lead to one of the most important scientific discoveries of the 20th century: “Study of Carbon Isotopes.”

      A few months earlier, in September 1954, the APF’s Research Committee had asked Caltech to submit a proposal for studying the source of aerial carbon compounds, hoping it would determine whether “gasoline combustion products” or “the burning of rubbish” were responsible for LA’s carbon pollution. If burning trash proved to be the major source of the city’s carbon pollution, the fossil fuel industry might not be blamed for the smog problem.

      Responding to the APF’s request on November 15, 1954, Caltech’s Samuel Epstein, associate professor of geochemistry, submitted a research proposal outlining how recent scientific advances, applied to carbon dioxide samples, might tell researchers more about the sources of air pollution.

      But what the APF got from Epstein may have been more than they bargained for. As well as offering a possible “contribution to the solution of the smog problem,” Epstein’s proposal outlined how Caltech’s study could be used to predict the future. Increasing concentrations of atmospheric CO2 by burning fossil fuels might affect the Earth’s climate, wrote Epstein, describing the “concentration of CO2 in the atmosphere” as a matter “of well recognized importance to our civilization.” He emphasized that “the possible consequences of a changing concentration of CO2 in the atmosphere with reference to climate” may “ultimately prove of considerable significance to civilization.”

      Epstein proposed “a thorough investigation.” To do this, a Caltech researcher would gather atmospheric samples of CO2 “over the ocean, over mountain areas, and from industrial localities similar to the Los Angeles Basin.”

      As previously revealed by Desmog, APF funding of this project underwrote the earliest studies on CO2 conducted in 1955 and 1956 by Charles David Keeling, then a young postdoctoral researcher at Caltech. This research paved the way for Keeling’s later revelatory findings on global atmospheric CO2, and the publication of the iconic “Keeling Curve,” which charts how the level of atmospheric CO2 is rising due to the effects of burning fossil fuels. Keeling’s work, which has been used by climate researchers from James Hansen, who testified to Congress in the 1980s about global warming, to Michael Mann, creator of the famous “Hockey Stick” graph showing temperature rises from burning fossil fuels during the Industrial era, underpins our understanding of man-made climate change.
      WSPA Knew

      In late 1954, Caltech’s research proposal moved quickly up the foundation’s chain of command, informing oil and gas industry representatives of CO2’s potential climate danger at each stage of the approval process.

      First, the APF’s Research Committee, which included SoCalGas president F. M. Banks, endorsed the study. Next, the APF’s Board of Trustees, with its representatives from Union Oil (Chevron) and Southern California Edison, approved the proposal’s funding.

      A few months later, in March 1955, the APF shared Caltech’s CO2 warning widely among its supporters in a First Technical Progress Report, repeating the message that CO2 emissions from burning fossil fuels could seriously impact the atmosphere. According to President Hitchcock’s official annual statement later that year, copies of all the Foundation’s reports printed to date, which were also available to the public, had been sent to its “trustees and contributors.”

      This shows that WSPA and its major dues-paying members, including Shell, SOCAL Gas, and Southern California Edison, as well as the companies owned or later acquired by Chevron, ExxonMobil, ConocoPhillips and BP, were all warned 70 years ago that the product they profited from could pose a threat to the stability of the Earth’s climate.

      During the mid-1950s scientific understanding of the “greenhouse effect” was increasing among climate researchers, who published their findings outside of academia in publications such as The New York Times and Time magazine. However, these APF documents are the first to show that the oil industry was directly informed of the link during this period. Nevertheless, it seems this information was something the industry might ultimately have preferred to keep private.
      California Club Showdown

      In the months prior to his California Club summons Hitchcock had been busy. In February 1955, he had urged state leaders to take action on refinery pollution, encouraging the Bay Area “to start an air pollution control program” built on knowledge gained from Los Angeles’s smog problem.

      Then, in March 1955, the APF First Technical Progress Report outlined the possible climate risk caused by burning fossil fuels and featured an APF refinery emissions audit showing higher pollution levels than those previously reported by the WSPA-sponsored SRI. And, in early April, during a hearing of the California State Senate in Sacramento, Hitchcock publicly testified in favor of state-funded “fact-finding efforts on air pollution.”

      Two days later, frustrated WSPA leaders summoned him to the California Club.

      At the meeting, Philip S. Magruder, chairman of WSPA’s Smoke and Fumes Committee and executive vice president of General Petroleum (ExxonMobil), told Hitchcock the committee was “questioning the advisability” of the foundation “calling attention” to refinery stack gases “or publicizing them.”

      Next, George Davidson, vice president of the Standard Oil Company of California (Chevron), stated it was his understanding that sulfur dioxide (SO2) from refineries was “actually beneficial to plants and people” in the amounts presently emitted. This even though by 1955 scientists had already identified SO2 as harmful to plants and human health – sometimes even lethal. Davidson endorsed Magrudger’s view that the foundation should not investigate such refinery emissions, criticizing Hitchock’s San Francisco speech for calling “attention to a growing Bay Area air pollution problem.”

      Finally, WSPA brought out their big gun, William L. Stewart, Jr., vice president of Union Oil (Chevron), now chairman of the national Smoke and Fumes Committee for the API, who revealed some important truths about the oil industry’s sponsorship of the foundation.

      First, Stewart complained that the APF was attempting to cover “too broad a program” of research before divulging that “he and others present had been part of the group which formed the Foundation.” As chairman of WSPA’s Smoke and Fumes Committee at the time the APF had been created, Stewart told Hitchcock it was WSPA’s “understanding that, in diverting substantial funds to the Foundation,” the APF would “serve as the research department for the oil industry,” that it would “be of a ‘protective’ nature,” publishing “findings which would be accepted as unbiased,” whereas the industry’s own findings were seen as favorable to its interests. In short, he conveyed that WSPA did not want the APF to concern itself with refinery emissions, but should just “stick to research.” As for Hitchcock’s own role, Stewart told Hitchcock that WSPA expected the APF president to act as “the research director for the oil industry.”

      Surprised and disappointed, Hitchcock referred the matter to the foundation’s Executive Committee, requesting they consider how WSPA’s “basic misunderstanding of the Foundation’s purposes” might be resolved.

      The resolution came soon enough but not as Hitchcock had hoped. Another recently recovered set of documents, written less than a week after the meeting, shows Union Oil executive, Vance N. Jenkins, condemning the APF’s entire research program. In a memo sent to Stewart, Jenkins denigrated every single APF project except for one: its proposal to establish a “first-class public information bureau” to give the public so-called “definite facts” (approved by oil industry executives) about the smog problem. According to Jenkins, this was the “purpose for which the Foundation was established” and the only aspect of its activity he could “fully recommend.” The following day, president of Union oil and APF Trustee, Reese H. Taylor, submitted Jenkins’ damning memo to the foundation’s Executive Committee.
      Records show that WSPA’s efforts hit their target. From this point on, the oil industry exerted tighter control over the APF’s activities. At a special meeting of the Executive Committee on April 13, 1955, unnamed participants put forward a proposal for a new “scientific sub-committee” to advise on “technical matters” whose members should be selected from “organizations such as the American Petroleum Institute, the Western Oil and Gas Association.”. By July, the APF had duly installed this new Technical Advisory Committee, which included representatives from the API and Richfield Oil (BP).

      In line with Union Oil’s suggestions, APF research projects were scaled back, focusing exclusively on automobile emissions, often conducted jointly with the API. After 1955, APF-sponsored research was increasingly used to lobby County authorities against clean air regulations or to boost the oil and gas industry’s public image. APF newsletters and reports also emphasized the high cost of pollution control, arguing that regulation would have negative economic impacts, and repeated the mantra that more research was necessary before regulatory action should be taken. Additionally, from March 1956, records show that WSPA issued a series of direct requests that the APF focus exclusively on public relations instead of air pollution research.

      Finding himself increasingly sidelined to a fundraising role and at odds with WSPA’s intentions, Hitchcock resigned as president and managing director in September 1956.

      His successor, W. L. Faith, had ties to the API and would steer the foundation in line with WSPA’s demands.

      After resigning, Hitchcock moved back east, where he joined the faculty at the University of Buffalo’s engineering school and founded his own air pollution consulting firm.
      ‘Harmless’ Carbon Dioxide

      Following WSPA’s California Club intervention, APF publications reviewed by DeSmog made no further reference to CO2’s potential impact on the Earth’s climate. These subsequent APF reports also did not explain the implications of Keeling’s Caltech findings for advancing scientific understanding of the atmospheric changes caused by burning fossil fuels, even though APF members had been explicitly warned that these changes might “ultimately prove of considerable significance to civilization.” While APF publications reported some of Keeling’s findings – principally that CO2 in the L.A. atmosphere “increased mainly as a direct result of combustion” and that approximately two-thirds of this overall CO2 was “traceable to the combustion of petroleum products” – these APF reports did not mention the potential long-term impacts of fossil-fuel-generated CO2 emissions.

      Moreover, in what might be some of the earliest known examples of climate denial, APF reports that followed declared CO2 to be “innocuous.” Additionally, individual industry representatives affiliated with WSPA also denied the potential harmfulness of CO2, setting a precedent for an oil industry practice that would be repeated over the following decades.

      At the U.S. Public Health Service’s November 1958 National Conference on Air Pollution in Washington, D.C., Shell executive Charles A. Jones, a WSPA and API air pollution expert who had formerly served on the APF’s Technical Advisory Sub-Committee, publicly described CO2 as “harmless.” In stark contrast, one of the conference’s keynote speakers had earlier that same day discussed the potential climate consequences of CO2 emissions – such as global warming, the melting of polar ice caps, and rising sea levels.

      Asked about Jones’ statement, Shell told DeSmog the company had “nothing to add.”
      Legacy

      The APF disbanded at the end of 1960 without fanfare. According to its official history, the foundation had “fulfilled its mission,” despite its failure to resolve the smog problem in California. In reality, however, by 1961, air pollution regulation was expanding across the U.S., turning the oil and gas industry’s pollution-control problem into a national issue. Consequently, the industry’s national trade association, the API, became increasingly active in both air pollution research and in working to prevent emissions-limiting regulation of the oil industry.

      From the 1950s up to today, the oil and gas industry has used the playbook that it first deployed through the APF, funding apparently ‘independent’ research via third-party community groups to fight against air pollution legislation and climate action. These efforts have repeatedly stalled clean air and climate regulations. At the same time, oil and gas companies have leveraged this research spending to boost their public image as a responsible partner in the search for climate or clean air solutions, and to promote voluntary measures or technological fixes in place of legally mandated pollution controls.

      WSPA’s member companies, including BP, Chevron, ExxonMobil, and Shell, funded outright climate denial via their membership in the Global Climate Coalition (GCC), which operated from 1989 to 2001. The GCC built on the APF legacy by sponsoring its own “independent research” and using industry-funded studies to promote climate denial, lobbying the UN’s official scientific advisory body the International Panel on Climate Change (IPCC). This derailed international efforts to prevent the catastrophic impacts of climate change.

      In 1998, an API, Exxon, and Chevron-approved “Global Climate Science Communications Action Plan” included forming a Global Climate Science Data Center, which bore an even closer resemblance to the APF. According to the plan, the Center would function as “a non-profit educational foundation with an advisory board of respected climate scientists . . . staffed initially with professionals on loan from various companies and associations with a major interest in the climate issue,” who would fund research designed to “fill the gaps in climate science.”

      “Victory will be achieved when average citizens ‘understand’ (recognize) uncertainties in climate science,” announced the “Action Plan,” echoing the APF’s 1954 declaration that “while there is much we don’t know about smog, there are some definite facts which have not been made clear to the public. We should inform them fully as to all that is really known.”

      Even in the 21st century, WSPA and its member companies continue to influence public opinion and block clean air regulations and state climate initiatives through third-party front groups like Californians for Energy Independence and Californians Against Higher Taxes, which have used industry-sponsored research to battle even modest reforms. In 2014, a leaked PowerPoint presentation revealed WSPA support for more than a dozen front groups, with many still actively opposing climate policy a decade later. Last month, WSPA was named as a defendant in an Oregon climate lawsuit for its support of front groups listed in the leaked presentation. The complaint alleges that WSPA funded the front groups as part of a “multimillion dollar public relations campaign to further the oil industry’s propaganda machine.”

      Today, some 70 years after the Air Pollution Foundation’s launch, the communities surrounding Los Angeles’ refineries persistently suffer severe public health impacts from fossil fuel emissions. At the same time, the region continues to experience some of the country’s worst air quality. As a state, California is also the second-highest emitter of CO2 in the U.S.

      Nationally, oil industry-funded groups like Natural Allies for a Clean Energy Future or the Partnership to Address Global Emissions advocate for using ‘natural’ (methane) gas by sponsoring and publicizing industry-friendly research boosting gas as a climate solution.

      These new Air Pollution Foundation documents show how WSPA and its member companies played a central role in establishing the tradition of the oil industry’s deceptive tactics. Now, five major oil companies (Chevron, ExxonMobil, BP, ConocoPhillips, and Shell), as well as the API, are being sued for the use of such tactics in the landmark California v. Big Oil lawsuit, part of the landscape of litigation launched by former presidential candidate Kamala Harris. Despite functioning as a pioneer in the evolution of these tactics, WSPA has not been named as a defendant in the California suit.

      Commenting on the lawsuit, a Shell spokesperson told DeSmog that the company does “not believe the courtroom is the right venue to address climate change, but that smart policy from government and action from all sectors is the appropriate way to reach solutions and drive progress.”

      Neither WSPA nor API responded to a request for comment by DeSmog.

      https://www.desmog.com/2024/11/12/revealed-big-oil-told-70-years-ago-that-fossil-fuel-emissions-could-impact-c

  • Fossil fuel #CO2 emissions increase again in #2024

    Global carbon emissions from fossil fuels have reached a record high in 2024, according to new research by the #Global_Carbon_Project science team.

    The 2024 #Global_Carbon_Budget projects fossil carbon dioxide (CO2) emissions of 37.4 billion tonnes, up 0.8% from 2023.

    Despite the urgent need to cut emissions to slow climate change, the researchers say there is still “no sign” that the world has reached a peak in fossil CO2 emissions.

    With projected emissions from land-use change (such as deforestation) of 4.2 billion tonnes, total CO2 emissions are projected to be 41.6 billion tonnes in 2024, up from 40.6 billion tonnes last year.

    Over the last 10 years, fossil CO2 emissions have risen while land-use change CO2 emissions have declined on average – leaving overall emissions roughly level over that period.

    This year, both fossil and land-use change CO2 emissions are set to rise, with drought conditions exacerbating emissions from deforestation and forest degradation fires during the El Niño climate event of 2023-2024.

    With over 40 billion tonnes released each year at present, the level of CO2 in the atmosphere continues to rise – driving increasingly dangerous global warming.

    The research team included the University of Exeter, the University of East Anglia (UEA), CICERO Center for International Climate Research, Ludwig-Maximilian-University Munich, Alfred-Wegener-Institut and 80 other institutions around the world.

    “The impacts of climate change are becoming increasingly dramatic, yet we still see no sign that burning of fossil fuels has peaked,” said Professor Pierre Friedlingstein, of Exeter’s Global Systems Institute, who led the study.

    “Time is running out to meet the Paris Agreement goals – and world leaders meeting at COP29 must bring about rapid and deep cuts to fossil fuel emissions to give us a chance of staying well below 2°C warming above pre-industrial levels.”

    Professor Corinne Le Quéré, Royal Society Research Professor at UEA’s School of Environmental Sciences, said: “Despite another rise in global emissions this year, the latest data shows evidence of widespread climate action, with the growing penetration of renewables and electric cars displacing fossil fuels, and decreasing deforestation emissions in the past decades confirmed for the first time.”

    Dr Glen Peters, of the CICERO Center for International Climate Research in Oslo, said: “There are many signs of positive progress at the country level, and a feeling that a peak in global fossil CO2 emissions is imminent, but the global peak remains elusive.

    “Climate action is a collective problem, and while gradual emission reductions are occurring in some countries, increases continue in others.

    “Progress in all countries needs to accelerate fast enough to put global emissions on a downward trajectory towards net zero.”

    Professor Friedlingstein added: “Until we reach net zero CO2 emissions globally, world temperatures will continue to rise and cause increasingly severe impacts.”

    Other key findings from the 2024 Global Carbon Budget include:

    - Globally, emissions from different fossil fuels in 2024 are projected to increase: coal (0.2%), oil (0.9%), gas (2.4%). These contribute 41%, 32% and 21% of global fossil CO2 emissions respectively. Given the uncertainty in the projections, it remains possible that coal emissions could decline in 2024.
    - China’s emissions (32% of the global total) are projected to marginally increase by 0.2%, although the projected range includes a possible decrease in emissions.
    – US emissions (13% of the global total) are projected to decrease by 0.6%.
    - India’s emissions (8% of the global total) are projected to increase by 4.6%.
    - European Union emissions (7% of the global total) are projected to decrease by 3.8%.
    – Emissions in the rest of the world (38% of the global total) are projected to increase by 1.1%.
    – International aviation and shipping (3% of the global total, and counted separately from national/regional totals) are projected to increase by 7.8% in 2024, but remain below their 2019 pre-pandemic level by 3.5%.
    – Globally, emissions from land-use change (such as deforestation) have decreased by 20% in the past decade, but are set to rise in 2024.
    - Permanent CO2 removal through reforestation and afforestation (new forests) is offsetting about half of the permanent deforestation emissions.
    – Current levels of technology-based Carbon Dioxide Removal (excluding nature-based means such as reforestation) only account for about one-millionth of the CO2 emitted from fossil fuels.
    – Atmospheric CO2 levels are set to reach 422.5 parts per million in 2024, 2.8 parts per million above 2023, and 52% above pre-industrial levels.
    - The effects of the temporary El Niño climate event also led to a reduction in carbon absorption by ecosystems on land (known as the land CO2 “sink”) in 2023, which is projected to recover as El Niño ended by the second quarter of 2024.
    – Emissions from fires in 2024 have been above the average since the beginning of the satellite record in 2003, particularly due to the extreme 2023 wildfire season in Canada (which persisted in 2024) and intense drought in Brazil.
    - The land and ocean CO2 sinks combined continued to take up around half of the total CO2 emissions, despite being negatively impacted by climate change.

    How long until we pass 1.5°C of global warming?

    This study estimates the remaining “carbon budget” before the 1.5°C target is breached consistently over multiple years, not just for a single year. At the current rate of emissions, the Global Carbon Budget team estimates a 50% chance global warming will exceed 1.5°C consistently in about six years. This estimate is subject to large uncertainties, primarily due to the uncertainty of the additional warming coming from non-CO2 agents (e.g., CH4, N2O, aerosols). However, it’s clear that the remaining carbon budget – and therefore the time left to meet the 1.5°C target and avoid the worst impacts of climate change – has almost run out.

    The Global Carbon Budget report, produced by an international team of more than 120 scientists, provides an annual, peer-reviewed update, building on established methodologies in a fully transparent manner. The 2024 edition (the 19th annual report) will be published in the journal Earth System Science Data on November 13 as a pre-print, and later as a peer-reviewed paper.

    https://globalcarbonbudget.org/fossil-fuel-co2-emissions-increase-again-in-2024
    #rapport #émissions_de_CO2 #chiffres #statistiques #augmentation

  • Olivier Hamant, chercheur en #biologie et #biophysique :

    « Dans la question socio-écologique ce qui domine c’est le climat. On a réduit la #complexité_écologique à une molécule, le #CO2, c’est une aberration.

    Du coup les solutions qu’on apporte c’est pour réduire la quantité de CO2 dans l’atmosphère. Cet été en Islande on a construit la première grande usine de capture CO2.

    Un enfant de 5 ans comprendrait que ça n’a aucun sens, c’est bcp d’énergie et de métaux et c’est une opération financière. On a privatisé le CO2.

    Le #climat c’est le pire levier, il faut commencer par la #biodiversité. Notre #performance est une #guerre_à_la_vie.

    La #biodiversité ça coute rien, on peut le faire à toutes les échelles et c’est positif pour le #climat et les #pénuries »

    Eloquente prise de parole d’Olivier Hamant qui rappelle que la révolution à accomplir est avant tout culturelle et non une question d’#innovation technologique.

    Pour faire de la robustesse, il nous faut aller contre la performance et sortir du #capitalisme en s’inspirant des pratiques naissantes à la marge telles les #coopératives et l’#économie_de_la_fonctionnalité & de l’usage."

    https://x.com/GabrielMalek9/status/1847973387106152647

    Survie dans le Chaos : La #robustesse à l’épreuve ? #Olivier_Hamant
    https://www.youtube.com/watch?v=JPW_m8JBl2Q

    #CO2 #économie_de_l'usage #imprévisibilité #fluctuation #compétition #colonisation #mécanisation #grande_accélération #culte_de_la_performance #délire_de_la_performance #agriculture_circulaire #basculement #interactions #crises

    • Les 1 % les plus riches émettent autant de CO2 que deux tiers de l’humanité

      - Les 1% les plus riches ont été responsables de 16% des émissions mondiales en 2019.
      - Leurs émissions sont suffisantes pour provoquer 1,3 million de décès supplémentaires dus à la chaleur.
      - Les décès liés aux inondations sont sept fois plus importants dans les pays inégalitaires que dans les pays plus égalitaires.
      - Une taxation juste des ultra-riches permettrait de lutter à la fois contre les inégalités et contre les changements climatiques.

      Un nouveau rapport publié aujourd’hui par Oxfam révèle qu’en 2019, les 1 % les plus riches ont généré autant d’émissions de carbone que 5 milliards de personnes qui représentaient alors les deux tiers les plus pauvres de l’humanité. Ce rapport a été rendu public en amont de la Conférence des Parties (COP) sur les changements climatiques qui se tiendra à Dubaï, dans un contexte d’inquiétude croissante alors que l’objectif de limiter le réchauffement mondial à 1,5 °C semble de plus en plus difficile à réaliser.

      Ces émissions démesurées des 1 % les plus riches vont causer 1,3 million de décès supplémentaires liés à la chaleur, soit environ l’équivalent de la population de Bruxelles. La plupart de ces décès surviendront entre 2020 et 2030.

      « Les ultra-riches pillent et polluent la planète au point de la détruire, et laissent l’humanité en proie aux chaleurs extrêmes, aux inondations et aux sécheresses, dénonce Amitabh Behar, directeur général par intérim d’Oxfam International.

      « Depuis des années, nous luttons pour mettre fin à l’ère des combustibles fossiles et sauver des millions de vie, ainsi que notre planète. Il est plus que jamais clair que cet objectif n’est possible que si nous mettons également fin à l’ère de l’extrême richesse », estime M. Behar.
      77 millions de personnes responsables de 16% des émissions mondiales

      Le rapport « Égalité climatique : une planète pour les 99% » est basé sur des recherches menées par l’Institut de l’environnement de Stockholm (SEI). Il analyse les émissions de consommation générées par différents groupes de revenus en 2019, l’année la plus récente pour laquelle des données sont disponibles. Ce rapport souligne l’écart considérable entre l’empreinte carbone des ultra-riches, dont le mode de vie gourmand en carbone et les investissements dans des industries polluantes comme les combustibles fossiles accélèrent le réchauffement climatique, et celle du reste de l’humanité.

      - Les 1 % les plus riches (77 millions de personnes) ont généré 16 % des émissions mondiales liées à la consommation en 2019, soit plus que l’ensemble des émissions liées aux voitures et au transport routier. Les 10 % les plus riches sont responsables de la moitié des émissions mondiales.
      - Il faudrait près de 1 500 ans à une personne appartenant au 99 % restants de l’humanité pour générer autant d’émissions de carbone que les milliardaires les plus riches produisent en un an.
      - Chaque année, les émissions des 1 % les plus riches annulent les économies de carbone réalisées grâce à l’utilisation de près d’un million d’éoliennes.
      - Depuis les années 1990, les 1% les plus riches ont consommé deux fois plus de budget carbone disponible pour limiter le réchauffement à 1,5°C que la moitié la plus pauvre de l’humanité.
      - Les émissions des 1 % les plus riches sont parties pour être 22 fois plus élevées en 2030 que le niveau requis pour limiter le réchauffement à 1,5°C défini dans l’Accord de Paris.

      Les pays à faible revenu, les plus sévèrement touchés par la crise climatique

      Les dérèglements climatiques et les inégalités perpétuent un cercle vicieux. Oxfam a constaté dans les pays dans lesquels elle est active que les personnes en situation de pauvreté, les femmes, les filles, les communautés autochtones et les pays du Sud global sont touchés de manière disproportionnée par les effets des changements climatiques qui, à leur tour, exacerbent les inégalités. Le rapport établit qu’il y a sept fois plus de décès dus aux inondations dans les pays plus inégalitaires. Les changements climatiques aggravent déjà les inégalités nationales et internationales.

      Les gouvernements peuvent s’attaquer au double fléau des inégalités et des changements climatiques en ciblant les émissions excessives des ultra-riches et en investissant dans les services publics et la réalisation des objectifs climatiques. D’après les estimations d’Oxfam, un impôt de 60 % sur les revenus des 1 % les plus riches réduirait les émissions d’une quantité supérieure aux émissions totales du Royaume-Uni et rapporterait 6,4 milliards de dollars par an pour financer l’abandon des combustibles fossiles et la transition vers les énergies renouvelables.

      « Nous devons montrer clairement l’interdépendance de ces deux questions. Tant qu’ils ne seront pas imposés, les plus riches vont continuer à spolier le reste de l’humanité, à détruire notre planète et à miner la démocratie. La taxation des richesses extrêmes renforcerait considérablement la lutte contre les inégalités et la crise climatique. Elle permettrait de générer des milliers de milliards de dollars qui sont requis pour investir dans nos démocraties et la mise en place de politiques gouvernementales réellement respectueuses de l’environnement », conclut M. Behar.

      https://oxfambelgique.be/les-1-les-plus-riches-emettent-autant-de-co2-que-deux-tiers-de-lhumani
      #rapport #1% #99%

      Pour télécharger le rapport :
      https://oi-files-d8-prod.s3.eu-west-2.amazonaws.com/s3fs-public/2023-11/VF%20Resume%CC%81%20executif_Oxfam_Franc%CC%A7ais%20.pdf

    • Les 1% les plus riches émettent autant de CO2 que deux tiers de l’humanité selon une étude d’#Oxfam

      En 2019, la frange la plus riche de la population mondiale (1%) a généré autant de CO2 que 5 milliards de personnes, qui représentaient alors les deux tiers les plus pauvres de l’humanité, indique l’ONG Oxfam dans un rapport publié lundi, à deux semaines de l’ouverture de la COP28 à Dubaï.

      Fondé sur les recherches de l’Institut de l’environnement de Stockholm (SEI), ce nouveau rapport, intitulé « Égalité climatique : une planète pour les 99% », analyse les émissions de consommation générées par différents groupes de revenus en 2019, dernière année pour laquelle des données sont disponibles.

      Selon les auteurs, les 1% les plus riches (77 millions de personnes) ont généré 15% des émissions mondiales liées à la consommation en 2019, soit plus que l’ensemble des émissions liées aux voitures et au transport routier. Les 10% les plus riches sont, quant à eux, responsables de la moitié des émissions mondiales.

      De l’autre côté de la pyramide, les 50% les plus pauvres ne sont responsables que de 8% des émissions en équivalent carbone sur la planète. « Il y a cercle vicieux qui s’installe avec la richesse, indique Alexandre Poidatz, responsable de campagne climat et inégalités chez Oxfam. Plus on est riche, plus on a un mode de vie qui émet du CO2. Cela s’explique par la consommation de biens de luxe non-essentiels et particulièrement polluants comme des yachts ou des jets. »

      Cet élément avait déjà été mis en avant par une étude scientifique réalisée aux Etats-Unis en 2021, qui démontrait que les 20 plus grands milliardaires des Etats-Unis avaient une emprunte carbone moyenne de 8000 tonnes de CO2 par an, alors qu’elle est de 8 tonnes pour un « Européen normal », et ce, en ne tenant compte que des émissions liées au logement, aux transports et aux yachts.

      D’après Oxfam, les 0,1% les plus riches émettent 77 fois plus de CO2 que l’objectif de 2,8 tonnes de CO2 par personne demandé par les Accords de Paris pour rester sous les 1,5°C de réchauffement climatique.
      La moitié des Belges font partie des 10% les plus riches

      Le riche n’est pas toujours l’autre. Car en jetant un œil à qui sont les « 10% les plus riches de la planète », on retrouve environ la moitié de la population belge assure Alexandre Poidatz d’Oxfam. Le fait de savoir où on se place au niveau mondial démontre que « notre mode de vie actuel général en Belgique n’est pas compatible avec un réchauffement climatique limité à 1,5°C. Et de fait, alors que le Belge émet en moyenne 6 à 7 tonnes de CO2 par an, on devrait descendre cela à 2,6 tonnes de CO2 par an. »

      Selon Oxfam, pour réduire cela, il est nécessaire que l’Etat propose des modes de consommation alternatifs et moins polluants, en favorisant par exemple le train face à la voiture individuelle.
      La solution ? Réduire les modes de consommation « non-essentiels »

      Pour réduire ces émissions carbone, et combattre en même temps les « inégalités extrêmes », Oxfam propose une taxation des plus riches. « Cela permettrait de réduire les inégalités en garantissant un revenu quotidien minimum de 25 dollars à chacun tout en réduisant les émissions mondiales de 10% ».

      Et d’un cercle vicieux « richesse - pollution », on passerait alors à un cercle vertueux « répartition des richesses - réduction des émissions de CO2 ». « Mais pour créer ce cercle vertueux, on a besoin que les décideurs politiques et économiques puissent orienter l’argent vers une transition écologique qui soit juste », pointe Alexandre Poidatz. Un appel lancé à 10 jours du début de la COP 28 au Qatar.
      Méthodologie

      Pour désigner la part de la population « la plus riche », Oxfam s’est basé sur le « Word inequality Database » qui classe la répartition mondiale des revenus des 5,15 milliards d’adultes en termes en parité de pouvoir d’achat (1 dollar permet d’acheter moins de choses aux USA qu’au Kenya). La méthodologie utilisée par Oxfam est accessible en anglais. L’ensemble des statistiques croisées entre revenus et émissions de CO2 sont consultables sur le site emissions-inequality.org.

      Les émissions de CO2 attribuées aux personnes, et a fortiori aux plus riches, ne tiennent pas compte des éventuelles sociétés dont ils auraient des parts.

      https://www.rtbf.be/article/les-1-les-plus-riches-emettent-autant-de-co2-que-deux-tiers-de-l-humanite-selon

  • #Data_center emissions probably 662% higher than big tech claims. Can it keep up the ruse?

    Emissions from in-house data centers of #Google, #Microsoft, #Meta and #Apple may be 7.62 times higher than official tally.

    Big tech has made some big claims about greenhouse gas emissions in recent years. But as the rise of artificial intelligence creates ever bigger energy demands, it’s getting hard for the industry to hide the true costs of the data centers powering the tech revolution.

    According to a Guardian analysis, from 2020 to 2022 the real emissions from the “in-house” or company-owned data centers of Google, Microsoft, Meta and Apple are probably about 662% – or 7.62 times – higher than officially reported.

    Amazon is the largest emitter of the big five tech companies by a mile – the emissions of the second-largest emitter, Apple, were less than half of Amazon’s in 2022. However, Amazon has been kept out of the calculation above because its differing business model makes it difficult to isolate data center-specific emissions figures for the company.

    As energy demands for these data centers grow, many are worried that carbon emissions will, too. The International Energy Agency stated that data centers already accounted for 1% to 1.5% of global electricity consumption in 2022 – and that was before the AI boom began with ChatGPT’s launch at the end of that year.

    AI is far more energy-intensive on data centers than typical cloud-based applications. According to Goldman Sachs, a ChatGPT query needs nearly 10 times as much electricity to process as a Google search, and data center power demand will grow 160% by 2030. Goldman competitor Morgan Stanley’s research has made similar findings, projecting data center emissions globally to accumulate to 2.5bn metric tons of CO2 equivalent by 2030.

    In the meantime, all five tech companies have claimed carbon neutrality, though Google dropped the label last year as it stepped up its carbon accounting standards. Amazon is the most recent company to do so, claiming in July that it met its goal seven years early, and that it had implemented a gross emissions cut of 3%.

    “It’s down to creative accounting,” explained a representative from Amazon Employees for Climate Justice, an advocacy group composed of current Amazon employees who are dissatisfied with their employer’s action on climate. “Amazon – despite all the PR and propaganda that you’re seeing about their solar farms, about their electric vans – is expanding its fossil fuel use, whether it’s in data centers or whether it’s in diesel trucks.”
    A misguided metric

    The most important tools in this “creative accounting” when it comes to data centers are renewable energy certificates, or Recs. These are certificates that a company purchases to show it is buying renewable energy-generated electricity to match a portion of its electricity consumption – the catch, though, is that the renewable energy in question doesn’t need to be consumed by a company’s facilities. Rather, the site of production can be anywhere from one town over to an ocean away.

    Recs are used to calculate “market-based” emissions, or the official emissions figures used by the firms. When Recs and offsets are left out of the equation, we get “location-based emissions” – the actual emissions generated from the area where the data is being processed.

    The trend in those emissions is worrying. If these five companies were one country, the sum of their “location-based” emissions in 2022 would rank them as the 33rd highest-emitting country, behind the Philippines and above Algeria.

    Many data center industry experts also recognize that location-based metrics are more honest than the official, market-based numbers reported.

    “Location-based [accounting] gives an accurate picture of the emissions associated with the energy that’s actually being consumed to run the data center. And Uptime’s view is that it’s the right metric,” said Jay Dietrich, the research director of sustainability at Uptime Institute, a leading data center advisory and research organization.

    Nevertheless, Greenhouse Gas (GHG) Protocol, a carbon accounting oversight body, allows Recs to be used in official reporting, though the extent to which they should be allowed remains controversial between tech companies and has led to a lobbying battle over GHG Protocol’s rule-making process between two factions.

    On one side there is the Emissions First Partnership, spearheaded by Amazon and Meta. It aims to keep Recs in the accounting process regardless of their geographic origins. In practice, this is only a slightly looser interpretation of what GHG Protocol already permits.

    The opposing faction, headed by Google and Microsoft, argues that there needs to be time-based and location-based matching of renewable production and energy consumption for data centers. Google calls this its 24/7 goal, or its goal to have all of its facilities run on renewable energy 24 hours a day, seven days a week by 2030. Microsoft calls it its 100/100/0 goal, or its goal to have all its facilities running on 100% carbon-free energy 100% of the time, making zero carbon-based energy purchases by 2030.

    Google has already phased out its Rec use and Microsoft aims to do the same with low-quality “unbundled” (non location-specific) Recs by 2030.

    Academics and carbon management industry leaders alike are also against the GHG Protocol’s permissiveness on Recs. In an open letter from 2015, more than 50 such individuals argued that “it should be a bedrock principle of GHG accounting that no company be allowed to report a reduction in its GHG footprint for an action that results in no change in overall GHG emissions. Yet this is precisely what can happen under the guidance given the contractual/Rec-based reporting method.”

    To GHG Protocol’s credit, the organization does ask companies to report location-based figures alongside their Rec-based figures. Despite that, no company includes both location-based and market-based metrics for all three subcategories of emissions in the bodies of their annual environmental reports.

    In fact, location-based numbers are only directly reported (that is, not hidden in third-party assurance statements or in footnotes) by two companies – Google and Meta. And those two firms only include those figures for one subtype of emissions: scope 2, or the indirect emissions companies cause by purchasing energy from utilities and large-scale generators.
    In-house data centers

    Scope 2 is the category that includes the majority of the emissions that come from in-house data center operations, as it concerns the emissions associated with purchased energy – mainly, electricity.

    Data centers should also make up a majority of overall scope 2 emissions for each company except Amazon, given that the other sources of scope 2 emissions for these companies stem from the electricity consumed by firms’ offices and retail spaces – operations that are relatively small and not carbon-intensive. Amazon has one other carbon-intensive business vertical to account for in its scope 2 emissions: its warehouses and e-commerce logistics.

    For the firms that give data center-specific data – Meta and Microsoft – this holds true: data centers made up 100% of Meta’s market-based (official) scope 2 emissions and 97.4% of its location-based emissions. For Microsoft, those numbers were 97.4% and 95.6%, respectively.

    The huge differences in location-based and official scope 2 emissions numbers showcase just how carbon intensive data centers really are, and how deceptive firms’ official emissions numbers can be. Meta, for example, reports its official scope 2 emissions for 2022 as 273 metric tons CO2 equivalent – all of that attributable to data centers. Under the location-based accounting system, that number jumps to more than 3.8m metric tons of CO2 equivalent for data centers alone – a more than 19,000 times increase.

    A similar result can be seen with Microsoft. The firm reported its official data center-related emissions for 2022 as 280,782 metric tons CO2 equivalent. Under a location-based accounting method, that number jumps to 6.1m metric tons CO2 equivalent. That’s a nearly 22 times increase.

    While Meta’s reporting gap is more egregious, both firms’ location-based emissions are higher because they undercount their data center emissions specifically, with 97.4% of the gap between Meta’s location-based and official scope 2 number in 2022 being unreported data center-related emissions, and 95.55% of Microsoft’s.

    Specific data center-related emissions numbers aren’t available for the rest of the firms. However, given that Google and Apple have similar scope 2 business models to Meta and Microsoft, it is likely that the multiple on how much higher their location-based data center emissions are would be similar to the multiple on how much higher their overall location-based scope 2 emissions are.

    In total, the sum of location-based emissions in this category between 2020 and 2022 was at least 275% higher (or 3.75 times) than the sum of their official figures. Amazon did not provide the Guardian with location-based scope 2 figures for 2020 and 2021, so its official (and probably much lower) numbers were used for this calculation for those years.
    Third-party data centers

    Big tech companies also rent a large portion of their data center capacity from third-party data center operators (or “colocation” data centers). According to the Synergy Research Group, large tech companies (or “hyperscalers”) represented 37% of worldwide data center capacity in 2022, with half of that capacity coming through third-party contracts. While this group includes companies other than Google, Amazon, Meta, Microsoft and Apple, it gives an idea of the extent of these firms’ activities with third-party data centers.

    Those emissions should theoretically fall under scope 3, all emissions a firm is responsible for that can’t be attributed to the fuel or electricity it consumes.

    When it comes to a big tech firm’s operations, this would encapsulate everything from the manufacturing processes of the hardware it sells (like the iPhone or Kindle) to the emissions from employees’ cars during their commutes to the office.

    When it comes to data centers, scope 3 emissions include the carbon emitted from the construction of in-house data centers, as well as the carbon emitted during the manufacturing process of the equipment used inside those in-house data centers. It may also include those emissions as well as the electricity-related emissions of third-party data centers that are partnered with.

    However, whether or not these emissions are fully included in reports is almost impossible to prove. “Scope 3 emissions are hugely uncertain,” said Dietrich. “This area is a mess just in terms of accounting.”

    According to Dietrich, some third-party data center operators put their energy-related emissions in their own scope 2 reporting, so those who rent from them can put those emissions into their scope 3. Other third-party data center operators put energy-related emissions into their scope 3 emissions, expecting their tenants to report those emissions in their own scope 2 reporting.

    Additionally, all firms use market-based metrics for these scope 3 numbers, which means third-party data center emissions are also undercounted in official figures.

    Of the firms that report their location-based scope 3 emissions in the footnotes, only Apple has a large gap between its official scope 3 figure and its location-based scope 3 figure.

    This is the only sizable reporting gap for a firm that is not data center-related – the majority of Apple’s scope 3 gap is due to Recs being applied towards emissions associated with the manufacturing of hardware (such as the iPhone).

    Apple does not include transmission and distribution losses or third-party cloud contracts in its location-based scope 3. It only includes those figures in its market-based numbers, under which its third party cloud contracts report zero emissions (offset by Recs). Therefore in both of Apple’s total emissions figures – location-based and market-based – the actual emissions associated with their third party data center contracts are nowhere to be found.”

    .
    2025 and beyond

    Even though big tech hides these emissions, they are due to keep rising. Data centers’ electricity demand is projected to double by 2030 due to the additional load that artificial intelligence poses, according to the Electric Power Research Institute.

    Google and Microsoft both blamed AI for their recent upticks in market-based emissions.

    “The relative contribution of AI computing loads to Google’s data centers, as I understood it when I left [in 2022], was relatively modest,” said Chris Taylor, current CEO of utility storage firm Gridstor and former site lead for Google’s data center energy strategy unit. “Two years ago, [AI] was not the main thing that we were worried about, at least on the energy team.”

    Taylor explained that most of the growth that he saw in data centers while at Google was attributable to growth in Google Cloud, as most enterprises were moving their IT tasks to the firm’s cloud servers.

    Whether today’s power grids can withstand the growing energy demands of AI is uncertain. One industry leader – Marc Ganzi, the CEO of DigitalBridge, a private equity firm that owns two of the world’s largest third-party data center operators – has gone as far as to say that the data center sector may run out of power within the next two years.

    And as grid interconnection backlogs continue to pile up worldwide, it may be nearly impossible for even the most well intentioned of companies to get new renewable energy production capacity online in time to meet that demand.

    https://www.theguardian.com/technology/2024/sep/15/data-center-gas-emissions-tech
    #données #émissions #mensonge #ChatGPT #AI #IA #intelligence_artificielle #CO2 #émissions_de_CO2 #centre_de_données

    • AI’s emissions are about to skyrocket even further

      Data center emissions have tripled since 2018. As more complex AI models like OpenAI’s Sora see broad release, those figures will likely go through the roof.

      It’s no secret that the current AI boom is using up immense amounts of energy. Now we have a better idea of how much.

      A new paper, from teams at the Harvard T.H. Chan School of Public Health and UCLA Fielding School of Public Health, examined 2,132 data centers operating in the United States (78% of all facilities in the country). These facilities—essentially buildings filled to the brim with rows of servers—are where AI models get trained, and they also get “pinged” every time we send a request through models like ChatGPT. They require huge amounts of energy both to power the servers and to keep them cool.

      Since 2018, carbon emissions from data centers in the US have tripled. For the 12 months ending August 2024, data centers were responsible for 105 million metric tons of CO2, accounting for 2.18% of national emissions (for comparison, domestic commercial airlines are responsible for about 131 million metric tons). About 4.59% of all the energy used in the US goes toward data centers, a figure that’s doubled since 2018.

      It’s difficult to put a number on how much AI in particular, which has been booming since ChatGPT launched in November 2022, is responsible for this surge. That’s because data centers process lots of different types of data—in addition to training or pinging AI models, they do everything from hosting websites to storing your photos in the cloud. However, the researchers say, AI’s share is certainly growing rapidly as nearly every segment of the economy attempts to adopt the technology.

      “It’s a pretty big surge,” says Eric Gimon, a senior fellow at the think tank Energy Innovation, who was not involved in the research. “There’s a lot of breathless analysis about how quickly this exponential growth could go. But it’s still early days for the business in terms of figuring out efficiencies, or different kinds of chips.”

      Notably, the sources for all this power are particularly “dirty.” Since so many data centers are located in coal-producing regions, like Virginia, the “carbon intensity” of the energy they use is 48% higher than the national average. The paper, which was published on arXiv and has not yet been peer-reviewed, found that 95% of data centers in the US are built in places with sources of electricity that are dirtier than the national average.

      There are causes other than simply being located in coal country, says Falco Bargagli-Stoffi, an author of the paper and Assistant Professor at UCLA Fielding School of Public Health. “Dirtier energy is available throughout the entire day,” he says, and plenty of data centers require that to maintain peak operation 24-7. “Renewable energy, like wind or solar, might not be as available.” Political or tax incentives, and local pushback, can also affect where data centers get built.

      One key shift in AI right now means that the field’s emissions are soon likely to skyrocket. AI models are rapidly moving from fairly simple text generators like ChatGPT toward highly complex image, video, and music generators. Until now, many of these “multimodal” models have been stuck in the research phase, but that’s changing.

      OpenAI released its video generation model Sora to the public on December 9, and its website has been so flooded with traffic from people eager to test it out that it is still not functioning properly. Competing models, like Veo from Google and Movie Gen from Meta, have still not been released publicly, but if those companies follow OpenAI’s lead as they have in the past, they might be soon. Music generation models from Suno and Udio are growing (despite lawsuits), and Nvidia released its own audio generator last month. Google is working on its Astra project, which will be a video-AI companion that can converse with you about your surroundings in real time.

      “As we scale up to images and video, the data sizes increase exponentially,” says Gianluca Guidi, a PhD student in artificial intelligence at University of Pisa and IMT Lucca and visiting researcher at Harvard, who is the paper’s lead author. Combine that with wider adoption, he says, and emissions will soon jump.

      One of the goals of the researchers was to build a more reliable way to get snapshots of just how much energy data centers are using. That’s been a more complicated task than you might expect, given that the data is dispersed across a number of sources and agencies. They’ve now built a portal that shows data center emissions across the country. The long-term goal of the data pipeline is to inform future regulatory efforts to curb emissions from data centers, which are predicted to grow enormously in the coming years.

      “There’s going to be increased pressure, between the environmental and sustainability-conscious community and Big Tech,” says Francesca Dominici, director of the Harvard Data Science Initiative, Harvard Professor and another coauthor. “But my prediction is that there is not going to be regulation. Not in the next four years.”

      https://www.technologyreview.com/2024/12/13/1108719/ais-emissions-are-about-to-skyrocket-even-further

  • La « guerre du bambou » est déclarée
    https://www.off-investigation.fr/tensions-dans-le-tarn-et-garonnela-guerre-du-bambou-est-declaree

    L’obsession du #CO2

    Bien que reconnaissant les vertus du biochar, certains scientifiques s’inquiètent de sa fabrication et de son emploi à grande échelle, comme le montrent deux synthèses d’études, l’une parue en 2017, l’autre en 2021 (portant notamment sur le biochar de bambou) : la transformation d’une biomasse en biochar pourrait produire des #radicaux_libres persistant dans l’environnement (#EPFR), entraînant une haute toxicité pour les plantes et les cellules. Sa poussière, contenant des micro et nano particules, favoriserait la mobilité de l’arsenic et des métaux lourds dans le sol et les nappes phréatiques. Dispersées dans l’atmosphère, ces particules de #biochar pourraient aussi être inhalées et engendrer une #cytotoxicité en pénétrant les cellules respiratoires des êtres vivants.

  • Climat : toujours plus de méthane dans l’atmosphère malgré les promesses
    https://www.connaissancedesenergies.org/afp/climat-toujours-plus-de-methane-dans-latmosphere-malgre-les

    AFP parue le 10 sept. 2024 - 08h14

    Les #concentrations de #méthane dans l’#atmosphère ne cessent d’augmenter, à un rythme qui s’est même accéléré ces dernières années, menaçant la trajectoire climatique de la planète malgré la promesse de nombreux pays de réduire drastiquement les émissions de ce puissant gaz à effet de serre, alertent des chercheurs mardi.

    « Le méthane augmente plus vite en termes relatifs que n’importe quel autre #gaz à #effet_de_serre majeur et est désormais à des niveaux 2,6 fois plus élevés qu’à l’époque pré-industrielle », écrit une équipe internationale de scientifiques sous l’égide de l’organisation Global Carbon Project, dans une étude publiée dans la revue Environmental Research Letters.

    Le méthane (#CH4) est le deuxième gaz à effet de serre lié à l’activité humaine après le dioxyde de carbone (#CO2).

    Environ 40% du méthane provient de sources naturelles, dans les zones humides notamment, mais la majorité (autour de 60%) est liée aux activités humaines comme l’agriculture (élevage des ruminants et culture du riz), les énergies fossiles et les déchets.

    Son pouvoir de #réchauffement est plus de 80 fois plus important sur 20 ans que celui du CO2, mais sa durée de vie est plus courte, ce qui en fait un levier important pour tenter de limiter le réchauffement climatique à court terme.

  • Climat : les 1% les plus riches polluent plus que 5 milliards d’êtres humains – le rapport accablant d’OXFAM
    (publié en 2023, ici pour archivage)

    Les chiffres de l’étude d’Oxfam « Égalité climatique : une planète pour les 99% » sont implacables. Que ce soit les particuliers, les entreprises ou à l’échelle des pays, la conclusion est toujours la même : les principaux destructeurs de notre monde se trouvent en haut de la pyramide des revenus. Le constat est accablant : les 1% les plus riches émettent plus de #CO2 que les deux tiers les plus pauvres de la population mondiale, soit 5 milliards de personnes.

    Les riches polluent, les pauvres en paient le prix. En dépit de trente ans d’alertes des conférences internationales et des rapports scientifiques, les politiques économiques hégémoniques se suivent et se ressemblent pendant que l’effondrement climatique s’accélère. Notre article.

    Climat : le capitalisme récompense les fossoyeurs de l’humanité

    Le constat est aussi clair que le ciel sans nuages à Dubaï : les 1% les plus riches émettent plus de CO2 que les deux tiers les plus pauvres de la population mondiale, soit 5 milliards de personnes. Et pendant que les ultra riches se préparent des bunkers climatisés en Nouvelle-Zélande, les plus pauvres essuient les conséquences dévastatrices du dérèglement climatique.

    Les chiffres du rapport d’Oxfam font voler en éclat les prétentions au pragmatisme des éditorialistes payés grassement par les milliardaires. Plus on se rapproche du sommet de la pyramide, plus le sommet de l’injustice perce de nouveaux plafonds. Les 0,1% les plus fortunés, une poignée de 770 000 individus, recrachent plus de CO2 que 38% de la population mondiale. Si cela ne vous donne pas de haut-le-cœur, vous n’avez probablement pas de pouls.

    En France, les révélations d’Oxfam sont tout aussi choquantes. Chaque personne appartenant à la clique des 1% les plus riches déverse autant de CO2 en un an qu’une personne au sein des 50% les plus pauvres n’en émettra en dix ans. Les 1% les plus riches, produisent en moyenne dix fois plus de CO2 par an que la moitié la plus démunie. Les 10% les plus riches sont responsables d’un quart des émissions de la France.
    Pour donner une chance de survie au 99%, il y a urgence à désarmer les 1%

    Les mesures proposées par Oxfam résonnent fortement avec celles présentées dans l’Avenir en Commun, le programme porté par Jean-Luc Mélenchon à la présidentielle 2022 : Un impôt sur la fortune climatique, une taxe sur les dividendes pour les entreprises irrespectueuses de l’Accord de Paris, la fin des avantages fiscaux néfastes pour le climat, un conditionnement strict des financements publics aux objectifs climatiques, et une trajectoire contraignante de réduction des émissions pour les multinationales.

    Face à l’urgence, des solutions radicales s’imposent. Jusqu’au GIEC, le consensus scientifique est désormais à un programme pré-révolutionnaire. C’est pourquoi les médias du système ne parlent jamais des solutions. Quand ils finissent par parler climat, ils se cantonnent à du spectaculaire, souvent à côté de la réalité, parce qu’ils refusent par dessus tout de pointer les véritables responsables de la catastrophe.

    Pour aller plus loin : Climat : pourquoi les médias ne vous parlent jamais des solutions ?

    Et c’est pourquoi Oxfam a placé tout en haut le programme de Jean-Luc Mélenchon pour l’élection présidentielle 2022. C’est le seul qui propose une rupture avec le dogme économique néolibérale dans tous les aspects.

    https://linsoumission.fr/2023/11/20/climat-riches-polluent-oxfam
    #pollution #riches #pauvres #statistiques #chiffres #rapport #oxfam #climat #changement_climatique #responsabilité

    voir aussi :
    Les 10% les plus riches sont responsables de plus de la moitié des émissions de CO2
    https://seenthis.net/messages/877228

    Le rapport de #oxfam déjà signalé ici par @socialisme_libertaire et @biggrizzly :


    https://seenthis.net/messages/1027600
    https://seenthis.net/messages/1027540

    • 50 milliardaires polluent plus que 1,3 milliard de personnes

      L’ONG Oxfam a calculé le bilan carbone moyen des cinquante personnes les plus riches du monde et le résultat, publié le 28 octobre, est spectaculaire : un ultrariche émet 7 746 tonnes de CO2e par an rien qu’avec sa consommation de jets et yachts, contre 9 tonnes annuelles pour un Français moyen.

      Dans le détail, les vingt-trois milliardaires dont Oxfam a pu répertorier les données de vols en jets privés ont effectué 184 trajets en moyenne en 2023, pour une distance équivalente à dix fois le tour du monde. Elon Musk, qui détient au moins deux jets privés, est responsable en un an de l’équivalent de 834 années d’émissions d’une personne moyenne dans le monde.

      L’ONG a fait une seconde série de calculs en considérant, cette fois, les conséquences des investissements de ces milliardaires dans des entreprises émettrices de CO2. Selon ses résultats, les cinquante personnes les plus riches du monde polluent plus que 1,3 milliard de personnes, compte tenu de leur patrimoine financier. « Si les ultrariches ont un rôle disproportionné dans la crise climatique, ce sont aussi eux qui ont le pouvoir d’agir », conclut Oxfam, qui pousse pour l’instauration d’un impôt sur la fortune climatique, d’une taxe sur les dividendes et de taxes sur les activités polluantes.

      https://reporterre.net/50-milliardaires-polluent-plus-que-1-3-milliard-de-personnes

    • Les inégalités carbone tuent

      Oxfam publie une nouvelle étude inédite à l’approche de la COP29, qui se tiendra à Bakou du 11 au 22 novembre prochain. En calculant pour la première fois les émissions des jets privés, yachts et investissements polluants des milliardaires, l’étude d’Oxfam démontre comment les super-riches alimentent abondamment les inégalités climatiques mondiales.

      Ainsi, si tout le monde avait le même mode de consommation que le milliardaire moyen de l’étude d’Oxfam, le budget carbone mondial (la quantité de CO2e qui peut encore être ajoutée à l’atmosphère sans que les températures mondiales n’augmentent de plus de 1,5°C) serait épuisé en moins de deux jours.

      Inégalités climatiques : les chiffres-clés

      - Les 50 milliardaires les plus riches du monde polluent plus que 1,3 milliard de personnes dans le monde, uniquement via leur patrimoine financier.
      - Le budget carbone mondial serait épuisé en seulement 2 jours si toute la population consommait comme les 50 personnes les plus riches du monde.
      - En moyenne, un milliardaire parmi les 50 personnes les plus riches du monde, émet 7 746 tonnes de CO2e par an rien qu’avec sa consommation de jets et yachts. En comparaison, une personne parmi les 50 % les plus pauvres de l’humanité émet 1,01 tonne de CO2e par an (via sa consommation).
      - Bernard Arnault émet 1 200 fois plus d’émissions de CO2 qu’un⸱e Français⸱e moyen⸱ne.
      - L’empreinte carbone de consommation d’Elon Musk (5 947 tonnes CO2e) équivaut à 834 années d’émissions pour une personne moyenne dans le monde, ou à 5 437 années pour une personne faisant partie des 50 % les plus pauvres de la planète.

      Entre investissements polluants, jets et yachts, les émissions démesurées des milliardaires mondiaux

      Alors que les impacts du changement climatique s’accélèrent partout dans le monde, les émissions des super-riches continuent d’atteindre des sommets. L’étude d’Oxfam révèle ainsi que le budget carbone mondial serait épuisé en seulement 2 jours si toute la population consommait comme les 50 personnes les plus riches du monde.

      Les ultra-riches polluent non seulement via leur consommation (jets privés, yatchs…) mais aussi via leur patrimoine financier. Au-delà de leur train de vie, c’est en effet leurs investissements dans des entreprises fortement émettrices qui représentent le poste le plus important de l’empreinte carbone totale de ces ultra-riches. Selon le rapport d’Oxfam, les 50 personnes les plus riches du monde émettent plus de CO2e que 1,3 milliard de personnes sur terre, via leur patrimoine financier.

      En France, le milliardaire Bernard Arnault a une empreinte carbone liée à son patrimoine financier 200 000 fois plus élevée que celle d’un Français⸱e moyen⸱ne ! Autrement dit, Bernard Arnault émet autant de CO2e en 200 minutes (3h20) qu’un Français durant toute sa vie, via le patrimoine financier.

      Si les ultra-riches ont un rôle disproportionné dans la crise climatique, ce sont aussi eux qui ont le pouvoir de réduire leurs émissions et d’agir pour lutter contre ces conséquences dramatiques.

      https://www.oxfamfrance.org/rapports/les-inegalites-carbone-tuent
      #rapport

  • Scandale des eaux en bouteille : la fraude de #Nestlé s’élève à plus de 3 milliards en 15 ans

    Dans le cadre de l’#enquête_judiciaire visant Nestlé sur les traitements interdits des #eaux_minérales naturelles, de nouvelles investigations révèlent que la multinationale trompe les consommateurs depuis plus de quinze ans.

    L’ampleur de la #fraude est inédite. Par sa durée : plus de quinze ans, et par son montant : plus de 3 milliards d’euros au minimum. C’est ce que révèle un nouveau rapport d’enquête, que Mediapart a pu consulter, sur le traitement frauduleux des eaux minérales par Nestlé.

    Depuis 2005, la #multinationale a vendu plus de 18 milliards de bouteilles d’eau sous les marques #Contrex, #Hépar ou #Vittel, dont la #qualité équivalait à celle de l’#eau_du_robinet. Mais à un #prix près de cent fois supérieur.

    « Au vu de la durée des pratiques et du nombre de directeurs qui ont pu se succéder sur cette période », le caractère systémique de cette fraude conduit les enquêteurs à retenir principalement la #responsabilité du groupe Nestlé davantage que des responsabilités individuelles. Contacté, le groupe Nestlé nous a renvoyés vers son site, où sont publiées des réponses types.

    Tout a commencé en novembre 2020, lorsqu’un salarié du groupe #Alma (qui commercialise les eaux de la marque #Cristaline) signale auprès de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) des #traitements non conformes des eaux commercialisées comme « #eaux_minérales_naturelles ». Cette alerte déclenche un premier rapport du Service national d’enquête (SNE) de la DGCCRF, et un deuxième de l’Inspection générale des affaires sociales (Igas), comme l’avaient révélé Mediacités puis Le Monde et Radio France,

    Ces enquêtes concluent que près de 30 % des marques françaises, dont celles du groupe Nestlé, ont recours à des techniques de #purification des eaux classées comme « minérales naturelles » interdites, traitements utilisés notamment contre des #contaminations bactériennes ou chimiques.

    Les procédés auxquels ont recours les entreprises, tels que l’utilisation d’#UV, de #filtres_à_charbon_actif ou de #microfiltres (en deçà de 0,8 µm) sont seulement autorisés pour l’eau du robinet ou les « eaux rendues potables par traitements ». Ils sont strictement interdits pour les « eaux minérales naturelles » et les « #eaux_de_source », qui ne doivent pas subir d’opérations modifiant leur composition.

    Saisi en octobre 2022 par l’agence régionale de santé (ARS) Grand Est, chargée du contrôle de plusieurs sites du groupe Nestlé, le parquet d’Épinal (Vosges) a ouvert une enquête préliminaire, visant le groupe pour « #tromperie par personne morale sur la nature, la qualité, l’origine ou la quantité d’une marchandise ».

    C’est dans ce contexte que le service enquête de la DGCCRF a de nouveau été missionné et ce sont ses conclusions, rendues en avril, que Mediapart a pu consulter. Les investigations ont porté sur les eaux du groupe, embouteillées dans les #Vosges : Contrex, Hépar et Vittel. Leur enquête révèle que pour ces trois eaux minérales, Nestlé a recours à des traitements interdits depuis au moins 2005, voire 1993 pour certaines, et cela de façon permanente, en raison, notamment, de #contaminations_bactériennes fréquentes. À partir de ces éléments d’investigation, le procureur va décider de l’orientation des poursuites.

    Des contaminations fréquentes

    Selon les résultats de contrôles réalisés par Nestlé, de janvier 2020 à mars 2022, plusieurs sources d’eau sont contaminées « de #pathogènes et de #bactéries hétérotropes au-dessus de la limite légale », parfois même jusqu’à 85 % supérieurs. Et ce problème n’est pas récent. Pour y remédier, Nestlé a recours à des traitements par UV, supprimant les micro-organismes, des « process qui ne sont pas conformes avec la réglementation française », signale une note interne à l’entreprise.

    Lors de leur audition, plusieurs responsables reconnaissent ces pratiques interdites. L’ancien directeur de l’usine Nestlé dans les Vosges (en poste de 2019 à 2023) explique que ces appareils étaient utilisés « sur des captages qui avaient des dérives microbiologiques ».

    Dans un courrier adressé à l’ARS, l’entreprise précise que « ces traitements ont été mis en place depuis plusieurs décennies » et cela sur plusieurs captages d’eau des groupes Contrex et Hépar. Pour justifier de telles pratiques, la multinationale attribue la présence de ces dérives bactériennes « au #changement_climatique », provoquant la diminution des nappes d’eau et favorisant les contaminations des sols versants.

    Autre facteur potentiel de contamination, la surexploitation des ressources en eau par Nestlé n’est, en revanche, par abordée. Pas un mot non plus sur le signalement de ces bactéries que le groupe aurait dû faire auprès des autorités, et notamment de l’agence sanitaire de santé (ARS). Rien, non plus, sur la fermeture du site qui aurait dû être envisagée, ou encore sur le changement de #classification de l’eau commercialisée, de « minérale naturelle » à « rendue potable par traitements ».

    C’est en toute connaissance de cause que Nestlé a choisi d’avoir recours de façon intensive aux traitements par UV, ainsi que le constatent les enquêteurs. En épluchant les factures des différentes entreprises spécialisées dans ces installations, on découvre que de septembre 2005 à novembre 2022 (dates du début de l’enquête judiciaire et de l’arrêt de ces traitements), Nestlé a acheté plusieurs appareils à UV, dont quatre utilisés pour les eaux minérales naturelles. Les enquêteurs notent également que le « changement systématique des lampes UV une fois par an », par Nestlé, révèle une utilisation continuelle de cette technique.

    Mais manifestement, cela ne suffit pas à endiguer les contaminations et concernant plusieurs sources, Nestlé installe également des microfiltres (de membrane inférieure à 8 micromètres – µm), permettant de désinfecter l’eau en filtrant les bactéries. Cependant, non seulement ces installations peuvent elles-mêmes être factrices d’infections mais elles ne permettent pas de retenir certains virus ou bactéries.

    Sans se prononcer sur les #pollutions_bactériennes fréquentes des sources ni sur les risques de telles pratiques, les enquêteurs relèvent « une utilisation de filtres non autorisés par les arrêtés préfectoraux à différents niveaux de filtration allant de 0,2 µm à 10 µm depuis au moins 2010 », et cela pour les trois eaux minérales exploitées dans les Vosges.

    Nestlé date certains traitements de 1993

    Certains traitements ne répondent nullement à des « besoins de sécurité sanitaire ». L’utilisation de filtres à charbon actif, là encore interdite, permet de retenir « d’éventuelles traces de résidus de pesticides » dans les eaux. Mais, lors de son audition par les enquêteurs, l’ancien directeur des usines du groupe dans les Vosges explique que cette technique visait surtout à « la protection de la réputation de la marque [Vittel, en l’occurrence – ndlr]. Il était possible de détecter des traces d’herbicides en très faible quantité ».

    Cette stratégie est confirmée par le groupe dans un courrier envoyé à l’ARS en 2022 : « Ce type de #filtration a été mis en place afin d’éviter toutes traces de #pesticides et de #métabolites qui pourraient être mal perçus par les consommateurs et ainsi protéger l’#image de #marque et plus généralement de l’industrie des minéraliers, face à un risque réputationnel important. »

    Les enquêteurs n’ont étonnamment pas retenu cette année-là, mais datent de 2010 la mise en place de ce traitement interdit, qui correspond à l’année de prise de poste du responsable ressource en eaux (REE) auditionné.

    Ils ne retiennent pas non plus la responsabilité de l’ARS, qui est pourtant mise en cause par les déclarations de l’ancien directeur de l’usine. Interrogé sur l’utilisation de #CO2, traitement interdit mais mis en place par Nestlé, il affirme aux enquêteurs : « J’étais au courant pour l’ajout de CO2 pour Vittel. Nous l’avons montré à l’ARS lors des visites mais ils n’ont jamais considéré cela comme un point important. »

    Le garant de la sécurité sanitaire, l’ARS, n’en a pas tenu rigueur à l’exploitant, ce qui soulève de facto la responsabilité de l’État dans les pratiques trompeuses de Nestlé. Interrogée sur ce point par Mediapart, l’ARS n’a pas souhaité répondre.

    La longévité de la fraude interroge également sur l’efficacité des contrôles effectués par l’ARS. Certes, Nestlé a sciemment dissimulé les installations permettant les traitements des eaux illégaux : dans des armoires, dans des bâtiments isolés, voire dans « une pièce souterraine », ainsi que le constatent les enquêteurs. Par ailleurs, les points de prélèvement pour les contrôles de la qualité de l’eau brute étaient sciemment positionnés après les différentes techniques frauduleuses. Pourtant, l’ARS connaissait au moins l’un des traitements interdits et a fait le choix, malgré tout, de fermer les yeux.

    Caractère systémique de la fraude

    Les enquêteurs n’iront pas plus loin sur la responsabilité de l’État dans cette fraude. Concernant la multinationale, c’est le caractère systémique de la fraude qui est soulevé. En effet, dans leurs conclusions, les inspecteurs déplorent que l’expertise des responsables du groupe Nestlé « [soit] cependant utilisée de manière dévoyée, au regard de leur volonté de tromper les consommateurs et l’administration ».

    « L’installation des traitements semble ancienne et pourrait être antérieure au rachat, en 1992, par le groupe Netslé des deux usines » de Vittel et #Contrexéville. Mais ces pratiques ont perduré « non par négligence mais bien [du fait] d’un réel #choix de l’entreprise de maintenir ces traitements en place ».

    Par ailleurs, « au vu de la durée des pratiques et du nombre de directeurs qui ont pu se succéder sur cette période, ayant agi pour le compte et au bénéfice de la société […], la #responsabilité_morale de Nestlé doit être retenue à titre principal ».

    De fait, les enquêteurs établissent qu’il s’agit d’une fraude organisée, qui a duré plusieurs décennies, relevant davantage d’une stratégie du groupe que d’une initiative individuelle.

    La commercialisation d’au moins 18 milliards de bouteilles, selon les estimations des enquêteurs, « à destination finale des consommateurs, sous la dénomination “eau minérale naturelle” alors que ces eaux ne pouvaient prétendre à cette qualité, constitue l’élément matériel du #délit_de_tromperie sur les qualités substantielles et la composition des marchandises ».

    La tromperie est renforcée par la #publicité_mensongère présentant ces eaux comme « pures » et exemptes de tout traitement.

    Ce délit est passible d’une peine de trois ans d’emprisonnement et d’une amende pouvant être portée à 10 % du chiffre d’affaires moyen annuel, soit 20 millions d’euros dans le cas de Nestlé, une somme qui peut paraître dérisoire comparée aux 3 milliards d’euros acquis par l’entreprise grâce à cette fraude (d’après les calculs faits dans le cadre des investigations).

    En effet, selon les enquêteurs, « la différence de chiffre d’affaires réalisée en vendant ces produits en eau minérale naturelle au lieu d’eau rendue potable par traitement est estimée à 3 132 463 297 euros pour les différentes marques et périodes infractionnelles correspondantes ».

    Mais le préjudice pour l’environnement induit par la #surexploitation des ressources en eau par Nestlé n’est quant à lui pas chiffré. Les risques sanitaires ne font pas non plus à ce stade l’objet d’investigations. Ainsi que le concluent les inspecteurs, « le maintien des traitements a permis la continuité de l’exploitation de l’ensemble des sources. Le retrait des traitements UV a entraîné un arrêt de l’exploitation de certains captages qui étaient contaminés microbiologiquement ».

    https://www.mediapart.fr/journal/france/180724/scandale-des-eaux-en-bouteille-la-fraude-de-nestle-s-eleve-plus-de-3-milli
    #réputation

  • La « #porte_des_enfers » continue de s’agrandir et dévoile notre futur

    Des chercheurs ont quantifié, pour la première fois, le phénomène de fonte du #pergélisol en #Sibérie. Un drame qui libère chaque année des milliers de tonnes de #CO2 dans l’#atmosphère et contribue à faire grandir un immense gouffre au surnom prémonitoire de « porte des enfers ».

    Le #cratère_de_Batagaï, situé dans les hautes terres de #Yana en Sibérie du Nord-Est, progresse dangereusement, alertent les scientifiques dans une étude parue dans la revue Geomorphology (https://www.sciencedirect.com/science/article/abs/pii/S0169555X24001338?via%3Dihub). D’après eux, cet énorme cratère, que certains surnomment la « porte des enfers », s’agrandit d’un million de mètres cubes chaque année à cause de la fonte du pergélisol sibérien.

    Une croissance infernale

    Aux dernières nouvelles, en 2023, ce gigantesque gouffre couvrait 87,6 hectares et mesurait 990 mètres de long, en augmentation de 200 mètres par rapport à 2014. Sa croissance, infernale, est mesurée à environ 12 mètres par an. Chaque année, environ un million de mètres cubes de pergélisol sont déplacés, composés d’un tiers de sédiments et de deux tiers de #glace fondue. Un phénomène inquiétant qui libère annuellement 4 000 à 5 000 tonnes de carbone organique auparavant piégé, estiment pour la première fois les scientifiques.

    Depuis sa formation dans les années 1970, le gouffre de #Batagaï s’est agrandi d’environ 34,7 millions de mètres cubes. Au total, ce sont 169 500 tonnes de #carbone_organique qui ont été libérées dans l’atmosphère.

    La porte des enfers, un site majeur d’étude du réchauffement climatique

    Les images satellitaires à haute résolution, les relevés par drones, les modèles géologiques et les mesures de terrain ont permis aux chercheurs de cartographier l’évolution du cratère et de quantifier les volumes de matériaux mobilisés. L’augmentation des températures au niveau du cratère de Batagaï illustre les impacts directs du réchauffement climatique sur les régions arctiques et subarctiques, et contribue à accélérer le réchauffement climatique.

    Autant d’éléments qui font de la porte des enfers un site clé pour étudier les mécanismes de dégradation rapide du pergélisol et en évaluer les impacts environnementaux à long terme. Si la dangereuse progression de ce gouffre n’est pas une nouvelle pour les scientifiques, c’est la première fois qu’ils sont en mesure de quantifier cette expansion. Une expansion également responsable de découvertes plus insolites puisque, tous les ans, le cratère de Batagaï recrache, pour le plus grand bonheur des paléontologues, des ossements préhistoriques en excellent état.

    https://www.futura-sciences.com/planete/actualites/permafrost-porte-enfers-continue-agrandir-devoile-notre-futur-113723/#xtor%3DRSS-8
    #climat #changement_climatique

  • Quand le CO₂ devient-il dangereux pour la #santé ? | août 2023
    https://www.ledevoir.com/societe/sante/796329/quand-le-co-devient-il-dangereux-pour-la-sante

    Une étude [de 2012] de la revue scientifique Environmental Health Perspectives a comparé la performance cognitive de participants exposés à différentes concentrations ambiantes de #CO2. Les tests ont d’abord été effectués dans une pièce bien ventilée où la concentration en dioxyde de carbone était de 600 ppm. Ensuite, les participants ont refait les mêmes exercices dans des pièces où le CO2 ambiant était à 1000 ppm, puis encore une fois dans une pièce à 2500 ppm.

    À 1000 ppm, les performances cognitives se sont significativement détériorées pour six des neuf exercices. À 2500 ppm, la diminution de la performance est dite « substantielle » dans sept des neuf activités. Les exercices évaluant la capacité d’initiative et l’élaboration de stratégies de base ont atteint un niveau jugé « dysfonctionnel ». Bref, à partir de 1000 ppm, les aptitudes cognitives s’amoindrissent.

    Pour donner une idée de l’exposition au CO2 dans la vie quotidienne, au Québec, en février 2022, 22 % des salles de classe étudiées par le gouvernement québécois affichaient une concentration moyenne de CO2 qui se situait entre 1000 et 1500 ppm, et 3,5 % des classes recensées dépassaient le seuil des 1500 ppm.

    #ventilation #air

    • Mon bureau est autour de 520-600 ppm. La VMC, c’est la vie. Pour les particules en suspension, j’ai souvent mieux que dehors.
      Par contre, si je ferme la porte du bureau (la VMC est dans le bloc sanitaire central), en moins de 20 min, ça part au-dessus de 1 200 ppm.

      Bien sûr, une bonne ventilation, c’est aussi moins d’humidité. Dehors, on est à 80%, dedans c’est 47%. Là aussi, pas de moisissures, pas d’inconfort, du linge propre et frais qui sèche en moins d’une journée.

      Avant, notre intérieur dégueulasse était froid et humide, j’avais les VS encombrées à l’année, un raynaud assez handicapant dont je n’arrivais pas à me débarrasser, etc.

      Quand on a cherché un nouveau logement en 2020… ben merci le covid qui m’a sensibilisée à la qualité de l’air intérieur.

      Tous les trucs retapissés de frais avec les ventilations bouchées « pour éviter les courants d’air », c’est parti direct à la benne.

      Et là, on est juste globalement en meilleur santé.

  • Pipeline leak exposes carbon capture safety gaps, advocates say
    https://www.theguardian.com/us-news/2024/apr/19/exxon-pipeline-leak-carbon-capture-safety-gaps
    Les pipelines de CO2, ça fuit, et ça peut être dangereux.

    About 5,000 miles [8000 km] of #CO2 #pipelines are currently operating in the US, which are predominantly for transporting the gas to oilfields where it is used to extract hard-to-reach oil – a process known as enhanced oil recovery. The pipeline running through Sulphur is part of a network stretching more than 900 miles [1500 km] through Louisiana, Texas and Mississippi, which #ExxonMobile acquired from Denbury last year.

    In 2020, almost 50 residents required hospital treatment after the Denbury (now Exxon) pipeline ruptured in Satartia, Mississippi, releasing 31,000 barrels of CO2. The incident exposed major flaws in the existing health and safety regulations for CO2 pipelines, which as a result are currently being updated by the Pipeline and Hazardous Materials Safety Administration (PHMSA). The update is already facing delays, and could take years.

    Yet the CO2 pipeline network is forecast to grow as much as tenfold thanks in part to billions of dollars of tax incentives in the 2022 #Inflation_Reduction_Act – as well as hundreds of millions of dollars in direct investment for CO2 transport and storage infrastructure. The Biden administration is counting on #CCS to meet its climate goals – despite compelling evidence that the technology is inefficient and will probably prolong the use of fossil fuels.

  • RTS : L’inquiétude de la population qui vit sur le tracé du futur collisionneur du CERN

    À Genève et en France voisine, le projet gigantesque du nouvel accélérateur de particules du CERN, prévu pour 2045, fait débat. Actuellement à l’étude, son impact environnemental suscite déjà des craintes auprès de la population.

    La petite commune française de Charvonnex, située à 35 kilomètres au sud de Genève, est un lieu encore préservé : une route et, tout autour, des forêts et des champs.


    Ce tableau champêtre n’existera bientôt plus. La commune se situe en effet sur le tracé du futur collisionneur circulaire du CERN (FCC). C’est à cet endroit précis que prendra place l’un des huit sites de surface du FCC, d’une superficie de cinq hectares. Le tunnel, lui, sera creusé à 200 mètres de profondeur et mesurera 91 kilomètres.

    Une aberration écologique
    « C’est un territoire qui est déjà saturé par les travaux, la bétonnisation. On sent que les habitants en ont déjà marre, j’ai peur que le projet du CERN par dessus provoque une rébellion », peste Benjamin Joyeux, originaire de la commune de Fillinges, en Haute-Savoie.

    Alors qu’on demande aux habitants de faire un effort pour baisser leurs émissions de gaz à effet de serre, le projet du CERN vient ajouter des tonnes et des tonnes d’émissions de CO2
    Benjamin Joyeux, conseiller régional Auvergne-Rhône-Alpes 

    Le conseiller régional Auvergne-Rhône-Alpes craint les répercussions locales du projet, mais pas seulement. Membre du parti Les Écologistes, il estime que la consommation d’énergie et les émissions de CO2 qui découlent du futur FCC sont une aberration : « Alors qu’on demande aux habitants de faire un effort pour baisser leurs émissions de gaz à effet de serre, le projet du CERN vient ajouter des tonnes et des tonnes d’émissions de CO2. »

    Un projet à plusieurs tonnes de CO2
    La suite : https://www.rts.ch/info/regions/geneve/2024/article/l-inquietude-de-la-population-qui-vit-sur-le-trace-du-futur-collisionneur-du-cer

    #béton #cern #scientifiques #co2 #artificialisation des #sols #destruction #atomes #suisse #recherche

  • Pomper le CO₂ de l’atmosphère, un nouveau défi dans la lutte contre le dérèglement climatique

    Pomper du CO2 sans trêve après l’avoir rejeté sans fin. Alors que la planète s’est déjà réchauffée de 1,2 °C depuis l’ère préindustrielle et que les records de chaleur sont battus mois après mois, les Etats doivent réduire drastiquement leurs émissions de gaz à effet de serre s’ils veulent éviter que la Terre ne se transforme en fournaise. Mais cela ne suffira pas. Il faudra aussi retirer de l’atmosphère des milliards de tonnes de CO2 déjà présentes, à grand renfort de technologies et de ressources naturelles. C’est ce que les scientifiques appellent les « émissions négatives », une forme d’oxymore qui dit bien la situation kafkaïenne à laquelle l’humanité est acculée.
    Des entreprises françaises entendent prendre leur part dans ce défi colossal. Début avril, trente start-up ont lancé l’Association française pour les émissions négatives (AFEN) afin de structurer une nouvelle filière. « La France a un rôle à jouer, mais elle accuse un retard important, explique Julie Gosalvez, la présidente de l’AFEN. Nous voulons répondre à un double objectif d’ambition climatique et de compétitivité économique. »

    [...]

    Depuis 2018, le #GIEC considère les #émissions_négatives comme indispensables pour garder une chance de limiter le réchauffement à 1,5 °C, l’objectif le plus ambitieux de l’accord de Paris. Ces technologies sont d’abord nécessaires pour atteindre la #neutralité_carbone, car certaines émissions résiduelles seront impossibles à éviter, dans l’agriculture, l’aviation ou l’industrie.

    [...]

    [Les membres de l’AFEN] plaident pour la création d’une stratégie nationale sur les émissions négatives, afin de donner une visibilité aux acteurs économiques et de ne pas rater la fenêtre de tir au moment où l’Hexagone planifie ses objectifs climatiques et énergétiques pour les prochaines décennies. Alors que le gouvernement doit soumettre à consultation la prochaine programmation pluriannuelle de l’énergie, les émissions négatives restent un « angle mort », regrette Sylvain Delerce. Or, ces dernières nécessiteront une forte augmentation de la production d’électricité décarbonée.
    https://www.lemonde.fr/planete/article/2024/04/16/climat-pomper-le-co-de-l-atmosphere-un-nouveau-defi-dans-la-lutte-contre-le-

    https://justpaste.it/dx4es

    #CO2 #climat #électricité_décarbonée #écologie_capitaliste

    • [...] tandis que la production de biochar, un charbon végétal, extrait le carbone des végétaux par pyrolyse afin de le stocker dans le sol pendant des centaines d’années, agissant en outre comme fertilisant des sols.

      Biochar... En français on dit du charbon de bois.

    • Les émissions négatives, si elles s’apparentent moins à de la science-fiction que par le passé, suscitent toutefois, encore, de la méfiance. Dans un avis prudent, publié en novembre 2023, le Haut Conseil pour le climat estime que l’usage du Beccs et du Daccs « doit pour l’heure être limité à sa contribution minimale nécessaire », tout en reconnaissant que ces technologies pourraient être utilisées « comme solution de dernier recours pour atteindre la neutralité carbone ».

      « Ces technologies posent encore des questions, notamment de faisabilité, de durabilité du stockage, et elles consomment beaucoup d’énergie, d’eau et de terres, pouvant entrer en concurrence avec d’autres usages », estime la climatologue Valérie Masson-Delmotte, l’une des membres du Haut Conseil pour le climat. Des risques dont les start-up de l’AFEN assurent être conscientes. « Les nouvelles générations de Daccs devraient consommer beaucoup moins d’énergie, et pour le Beccs, nous voulons récupérer le CO2 émis par les méthaniseurs, chaufferies et incinérateurs, qui ont utilisé des résidus de biomasse », détaille Karim Rahmani, le vice-président de l’AFEN et fondateur de la société Carbon Impact.

      Bon, c’est bien : ils ont déjà le « business model » ... Mais les technologies pour que des roches se « chargent » en CO2, c’est comment ? Et toute la chaîne logistique pour produire ces « centrales » à décarbonation ?
      je crois qu’il faut nous contenter du #business_model pour l’instant parce que ça fait circuler de ouf un gros paquet de monnaie. Pour le reste, patientons encore quelques décennies. On va bien finir par trouver le bouzin qui fait le job (ou pas). Mais en priorité : renvoyer l’ascenseur aux « investisseurs » qui eux n’ont pas trop de temps à perdre tout en étant conscients que ça ne marchera pas mais c’est pas vraiment leur problème.
      #baltringues
      #capitalisme_du_désastre (qui est un descendant direct du #capitalisme_fossile)

    • La France va stocker du carbone dans son sous-sol
      https://www.lemonde.fr/economie/article/2024/04/26/la-france-va-stocker-du-carbone-dans-son-sous-sol_6230125_3234.html

      Le ministère de l’industrie et de l’énergie a lancé, vendredi 26 avril, sa stratégie pour développer la capture et le stockage du CO₂ sur le territoire. Ce plan prévoit de reconvertir des puits d’hydrocarbures en #puits_de_carbone.

      [...]

      Parmi les cinquante sites industriels les plus émetteurs de CO₂ en France, les deux tiers estiment devoir capter et stocker leur #carbone résiduel (celui restant en bout de chaîne, qui n’a pu être supprimé par d’autres moyens techniques) s’ils veulent pouvoir respecter leur contrat de décarbonation signé avec le gouvernement en 2022. Ces industries lourdes (cimenteries, aciéries, alumineries, etc.) ont évalué leurs besoins en captage à environ 8 millions de tonnes de CO₂ en 2030 et à 16 millions en 2040.

    • A l’issue de l’appel à manifestation d’intérêt, d’ici au 26 juillet, une phase d’appel à projets sera ouverte jusqu’en décembre, pour évaluer les sites de stockage signalés par les entreprises et tester leur étanchéité. L’objectif est que « début 2025, le stockage du carbone soit testé dans quatre ou cinq endroits en France », indique le ministre. Un financement de soutien de ces projets de 20 à 30 millions d’euros est prévu par l’Etat, issu du plan France 2030.

      Donc sur cette période de 10 ans, ces industriels comptent sur les bienfaits de « l’état providence » pour pouvoir doubler leur capacité de stockage. Finalement, c’est plutôt fastoche d’émettre du CO2 en toute impunité avec de l’argent public.

      https://archive.ph/tN7Kz#selection-2303.0-2307.139

    • Un peu de documentation à propos des « BECCS » et des « DACCS » puisque :

      « Ces technologies posent encore des questions, notamment de faisabilité, de durabilité du stockage, et elles consomment beaucoup d’énergie, d’eau et de terres, pouvant entrer en concurrence avec d’autres usages », estime la climatologue Valérie Masson-Delmotte, l’une des membres du Haut Conseil pour le climat.

      https://www.foei.org/wp-content/uploads/2021/01/Amis-de-la-terre-international_BECCS_French.pdf

      Les bioénergies avec piégeage et stockage du carbone
      (en anglais « Bioenergy with Carbon Capture and
      Storage » - BECCS) sont non encore prouvées, coûteuses et
      dangereuses ; elles détournent l’attention des réductions
      massives d’émissions nécessaires de toute urgence si l’on
      veut éviter des changements climatiques catastrophiques.

      https://fr.wikipedia.org/wiki/Captage_du_dioxyde_de_carbone_dans_l%27air

      La captage du dioxyde de carbone dans l’air ou captage direct du dioxyde de carbone1, en anglais : direct air capture (DAC), est l’extraction du dioxyde de carbone (CO2) présent dans l’air ambiant.

  • Empreinte carbone : « Oui, on peut manger des bananes ! »
    https://reporterre.net/Empreinte-carbone-Oui-on-peut-manger-des-bananes

    Pour respecter nos engagements climatiques, nous devons réduire nos émissions de CO2 à 2 tonnes par an et par personne. Mais que faut-il changer en priorité ? Les réponses du chercheur Mike Berners-Lee, qui y a consacré un livre.

    Chaque Français émet en moyenne 9 tonnes d’équivalent #CO2 (eqCO2) par an. Or si on veut tenter de limiter le réchauffement climatique à + 1,5 °C d’ici 2100, il faudrait limiter nos émissions à 2 tonnes par an et par personne. Mais par quoi commencer ? Arrêter d’acheter des bananes ? Devenir végétarien ? Faire la vaisselle à la main ? Éteindre les lumières ? Passer à la voiture électrique ?

    Mike Berners-Lee, professeur à l’université de Lancaster au Royaume-Uni, répond à toutes ces questions et donne des clés de compréhension dans son livre Peut-on encore manger des bananes ? L’empreinte carbone de tout (ed. L’Arbre qui marche), publié le 14 mars 2024. Ce pionnier de la quantification carbone estime qu’on peut toutes et tous réduire notre empreinte carbone, sans forcément renoncer à tout.

    .... un cheeseburger (5,4 kg eqCO2) est finalement plus polluant que cinquante bananes ...

    #empreinte_carbone

    • Il y a une petite gentille question sur le fait que ya pas que le carbone dans la vie, mais ça reste toujours dans l’optique « il y a d’autres polluants universels mondiaux à prendre en compte ». Or si on reste dans l’exemple typique de la banane qu’ils utilisent, il y a plein d’autres choses à prendre en compte :
      – il y a en premier lieu les polluants locaux, comme le chlordécone à la bonne époque… de nombreux polluants ne sont pas « mondiaux », et pourtant détruisent la vie des gens localement ; il y avait eu des articles et livres là-dessus (Célia Izoard ? Fressoz ? je ne sais plus) qui expliquait qu’aussi bien pour les populations du passé où on a l’impression qu’ils n’étaient pas « écolos » parce qu’ils n’avaient pas conscience des polluants mondiaux comme l’excès de CO2, ou aussi les populations des quartiers populaires ou relégués… et bien ils sont pourtant aux premières loges de polluants locaux qui les font bien chier et détruisent leurs vies (c’est le cas pour les quartiers des noirs-américains aussi, je me souviens d’un reportage là-dessus)
      – il y a le problème majeur qu’une monoculture d’exportation, c’est la destruction totale des manières de vivre autonome, de la subsistance locale, qui est méthodiquement supprimé ; c’est une culture coloniale qui se fait majoritairement dans les anciennes colonies, pour exporter majoritairement dans les pays occidentaux riches… alors que dans ces pays, la priorité serait de virer tout ça et utiliser les terres pour nourrir directement les populations locales au plus près (qui ne se nourrissent majoritairement pas de bananes…)

      C’est la même chose pour l’autre exemple paradigmatique du numérique, de l’informatique, comme si ça ne posait que le problème des émissions CO2 d’une recherche google… et pas les guerres (coloniales aussi !) pour les minerais, les exploitations de gens pauvres pour la fabrication (cf Shenzhen, « La machine est mon seigneur et maître »), les montagnes de déchets irrécupérables balancés en Afrique ou en Asie à la fin, etc.

      Bref, la banane, le café, le chocolat, le sucre en partie (de canne), l’informatique, posent de nombreux autres problèmes tout aussi importants que « le carbone ».

      Carbone partout (dans les émissions et dans la monomanie de comptage des technocrates, capitalistes ou écolos), justice nulle part !

    • Ça commence grave à me faire braire tous ces articles qui barguignent sur le bilan carbone du moindre fait et geste du gueux de base. Non parce que savoir si c’est plus « safe » de manger sa banane sur son vélo électrique que de sniffer un rail de coke en faisant du jet ski, c’est pas trop ce qui me préoccupe en ce moment. Par contre, bombarder des hôpitaux à Gaza ou des centrales nucléaires en Ukraine, ça a l’air de passer crème en terme d’émissions de GES.
      Ah tiens j’en ai une autre et on n’en parle pas trop non plus. L’Union européenne va sortir de ses cartons un dispositif légal pour que soit autorisée la circulation des « méga camions ».

      Le Parlement européen a adopté le 12 mars 2024 la révision de la directive autorisant des méga-camions à circuler sur les routes européennes. Ces camions ("mégatrucks") avec deux remorques attachées peuvent mesurer jusqu’à 25 mètres et peser jusqu’à 60 tonnes contre 18,75 mètres et 44 tonnes actuellement.

      Le texte concernant l’augmentation du poids et des dimensions des véhicules routiers a été adopté par 330 voix pour, 207 contre et 74 abstentions. Toutefois, comme le signale Toute l’Europe, les différents pays de l’Union européenne (UE) doivent encore donner leur position en juin avant que ce dossier ne revienne au Parlement européen après les élections européennes du 6 au 9 juin 2024.

      Et on te dit que ce serait pour :

      Réduire les émissions du transport routier de marchandises

      https://www.vie-publique.fr/en-bref/293358-mega-camions-le-parlement-europeen-favorable-leur-circulation

      Désolé pour la mauvaise humeur mais je manque de sommeil. Faut dire aussi qu’il se passe des trucs qui aident pas trop non plus ...

    • Mais oui ! Le bilan carbone a été promu comme « équivalent général » écologique. Le type comptait le carbone pour les entreprises. La culpabilité individuelle de certains éco-anxieux (dont Reporterre est supposé politiser les inquiétudes ?) ouvre à un public plus large.

      N’empêche, moi qui suis fatigué d’entendre "mangue avion ! avocat avion ! " sur mon marché - où il est difficile de refuser les sacs plastiques, symboles de dignité et d’aisance- je trouve que l’exemple du burger avec viande plaide résolument pour les falafels et autres légumineuses.

      edit jouer les méga-camions contre le fret ferroviaire c’est une tuerie aussi en terme de coût d’entretien des routes.

    • Pour le “bilan carbone” des armées voir le rapport
      https://www.sgr.org.uk/publications/estimating-military-s-global-greenhouse-gas-emissions (2022)

      “[The] total military carbon footprint is approximately 5.5% of global emissions. If the world’s militaries were a country, this figure would mean they have the fourth largest national carbon footprint in the world — greater than that of Russia. (...) In 2019, the world’s passenger cars collectively emitted approximately 3,200MtCO2 during use — so our figure for the
      military footprint is about 85% of that.”

    • Bon alors du coup, on laisse nos bagnoles au garage pour que la soldatesque mondiale puisse se lâcher ? Vous me direz, on pourrait aussi « cancel » la Russie. Ça nous redonnerait une bouffée d’oxygène pour cramer de la poudre à canon.
      (Sinon, merci pour l’info @fil)

    • Recension : R. Felli, La grande Adaptation, 2016
      https://sniadecki.wordpress.com/2016/07/25/louart-felli

      « Quiconque veut parler de réchauffement climatique, ne peut donc s’en tenir aux émissions de CO2, au rôle de l’industrie pétrolière ou à la place de la voiture dans nos sociétés (même si ces éléments sont cruciaux). En se donnant l’illusion que la variable CO2 serait seule responsable du problème, nous faisons comme si nous pouvions contrôler, limiter ou faire disparaître le problème climatique. Mais plus que les émissions de gaz à effet de serre, c’est la façon particulière d’organiser la nature qui est en jeu dans la question climatique. »

  • The atlas of unburnable oil for supply-side climate policies | Nature Communications
    https://www.nature.com/articles/s41467-024-46340-6

    To limit the increase in global mean temperature to 1.5 °C, #CO2 emissions must be drastically reduced. Accordingly, approximately 97%, 81%, and 71% of existing coal and conventional gas and oil resources, respectively, need to remain unburned.

    #climats #énergies_fossiles

  • The COVID-safe strategies Australian scientists are using to protect themselves from the virus - ABC News
    https://www.abc.net.au/news/2024-01-21/covid-safe-strategies-australian-scientists-virus-infection/103335466
    https://live-production.wcms.abc-cdn.net.au/ad2eada4eaabdc63ab704f3797c8a95b?impolicy=wcms_crop

    Some commentators have described this situation — the crashing of wave after wave of COVID-19, a steady drip, drip, drip of death and mounting chronic illness — as the “new normal”. But other experts insist it doesn’t have to be, and that continuing on the current trajectory is unsustainable — especially in light of data showing that COVID has decreased life expectancy, will cost the global economy an estimated $US13.8 trillion by 2024, and is decimating the lives of millions of people who have developed long COVID.

    Meanwhile, studies continue to pile up showing COVID-19 can cause serious illness affecting every organ system in the body, even in vaccinated people with seemingly mild infections. It can cause cognitive decline and dysfunction consistent with brain injury; trigger immune damage and dysfunction; impair liver, kidney and lung function; and significantly increases the risk of cardiovascular disease and diabetes. Then there’s long COVID, a debilitating disease that robs fit and high-functioning people of their ability to think, work and exercise.

    All of this is why governments must invest in long-term strategies for managing COVID-19 into the future, experts say — particularly by introducing standards for indoor air quality. But until then, they say, Australians can and should take precautions against COVID-19 to reduce transmission and protect their health. And doing so is relatively simple: it just takes a little planning, preparation and common sense.

    Here, three of Australia’s leading COVID-19 experts share their personal COVID safety strategies and reflect on what must happen if we’re to blunt the growing health crisis the pandemic is causing — and prepare for the next one.

    • When the COVID-19 pandemic hit Australia in 2020, Associate Professor Stuart Turville had been working in the Kirby Institute’s level-three physical containment (PC3) lab, researching another well-known RNA virus: HIV. His team quickly pivoted to #SARS-CoV-2, capturing the virus and characterising it very quickly. Still today when the NSW Ministry of Health’s genomic surveillance unit identifies a new variant of interest, Dr Turville, a virologist, will use a swab from a positive case and grow the virus to understand its mutations and virulence.

      Scientists working in the PC3 lab must wear robust personal protective equipment primarily for respiratory safety. Before he enters the lab Dr Turville dons several layers of gear: a full-face Powered #Air Purifying Respirator (PAPR) mask, a collar with its own HEPA filter ("it’s like being in a scuba suit"), two pairs of gloves, a disposable Tyvek suit, a generic gown that is laundered after use, booties, gumboots and little plastic socks that go over the boots. “Not only could [getting infected] impact our research colleagues and the general community,” he says, “but we could also take the virus home.”

      For Dr Turville, the risk of taking #COVID-19 home was particularly serious. In 2020 he was caring for his elderly father who had heart problems and his mother was also at risk of severe disease. If he brought the virus into his dad’s aged care facility, it would be put into lockdown and “he would be eating cold meals in his room alone”. “So for me personally it was incredibly important to maintain that protection and ensure I remained negative,” he says. “I’ve still only got it once — I got it from undergraduate teaching, which will teach me.”

      As for how he protects himself outside the lab, day to day? For starters, “As a scientist I don’t get out much,” he jokes. He drives to work, avoiding crowded public transport. If he’s going on an overseas trip, he’ll plan to get a booster vaccine four weeks before he gets on a plane. “I know from the studies that we do and other people do that if you get a new formulation vaccine you’re going to encourage the mature B cells to generate better cross-reactive antibodies,” he says, “and so you’re going to have better protection if you’re exposed to [COVID-19].”

      A man wearing a green lab gown stands against the wall in a corridor, next to a blue clinical smock
      Political support for genomic surveillance work is “shrinking”, says Stuart Turville.(Supplied: Richard Freeman, UNSW)
      If someone in his family gets sick, he says, they immediately isolate themselves. “It’s only happened once or twice where one of us has been positive but they’ve generally been isolated to one room and wearing a P2 mask” to protect the rest of the household. “Another thing we’ve been doing, which has been somewhat of a side benefit of looking after my father in aged care, is RAT testing before going into those facilities — even though we might be asymptomatic,” he says. “I think it’s really a situation of common sense in the context: if you don’t feel well, you isolate, you keep germs to yourself.”

      Still, Dr Turville is acutely aware of the vitriol frequently directed at people who promote COVID-19 safety. Strangers will circulate photographs of him in his lab kit, particularly on social media, to mock him: “They’ll say, ’Oh, this guy is an idiot, why is he using that, he shouldn’t fear [the virus] anymore’.” This both puzzles and amuses him. “It’s my job; I’m not going to bring it home when I have a sick father — pull your head in,” he says. “Unfortunately there is a lot of negativity towards people who choose to protect themselves. We never really saw that in the HIV era — there was never really a pushback on condom use.”

      Then again, the differences between how the two pandemics — HIV/AIDS and COVID-19 — were managed in Australia are probably quite instructive, says Dr Turville. With HIV, experts and health ministers collectively built a strong public health strategy that they strove to protect from politics. “When we look at COVID, it was political from the start and continues to be,” he says. We also now lack a “mid to long-term plan to navigate us through” this next phase of COVID-19: “Some argue that we are no longer in the emergency phase and need to gear down or simply stop,” he says. “But should we stop, and if not, what do we gear down to as a longer-term plan?”

      Three scientists wearing white Tyvek suits and full face PAPR masks working in a physical containment lab
      Stuart Turville and his colleagues working in the Kirby Institute’s PC3 laboratory.(Supplied: Richard Freeman, UNSW)
      Perhaps one reason Australia lacks a long-term plan for managing COVID-19 is the complexity of instigating one in light of the community’s collective trauma. The first couple of years of the pandemic were stressful and frightening and as much as border closures, lockdowns and other restrictions saved tens of thousands of lives in 2020 and 2021, they are still resented by some people whose livelihoods or mental health suffered — and who now push back against precaution. This backlash is so fierce in pockets of the community that some seem to conflate any kind of protective action with lockdowns.

      “There might have been some things we went too hard with but I think we have to look at it in perspective,” Dr Turville says. “We didn’t have those really, really dark months in Australia — we never had the mass graves like we saw in Italy or New York. We got a scare during [the] Delta [wave] and that helped get us our really high vaccination rates … But my worry now is, are we stepping away too soon?”

      Aside from much of the general public abandoning measures like masking, he says, political support for genomic surveillance work is also now “shrinking”. And without the critical data it generates, he says, there’s a risk scientists like him will miss new, more dangerous variants. “I think there’s a lot of patting on the back at the moment — job well done. And that’s nice, but I think it’s somewhat job well done, there goes the rug,” he says. “I think it’s the apathy that’s the concern. And I think it’s coming top-down, it’s coming very much from the government. I just don’t understand why, like we had with HIV, there can’t be a mid-term strategy.”

      ’Air is out of mind until it’s a problem’

      Robyn Schofield, aerosol scientist at Melbourne University

      A woman with blue eyes, short dark hair and green earrings smiles as a busy city rushes around her
      Robyn Schofield is an atmospheric chemist and aerosol scientist at Melbourne University.(ABC News: Danielle Bonica)
      Associate Professor Robyn Schofield can rattle off data on the harms and benefits of clean indoor air as breezily as if she were reciting her own phone number. We breathe in about eight litres of air a minute. We consume 14 kilograms of air a day. Our lungs have the surface area of half a tennis court. Globally, nine million people die from air quality issues every year. In Australia, she says, it’s somewhere between 3,000 and 11,000 deaths — “way more than the road toll”. But people generally don’t know any of that, she says. “They don’t appreciate how important breathing is until it’s hard to do. It’s like the air: you can’t see it, so it’s out of mind until it’s a problem.”

      In 2020, the air became a massive problem. The main way COVID-19 spreads is when an infected person breathes out droplets or aerosol particles containing the virus — think about aerosols as behaving similarly to smoke, lingering in the air potentially for hours. An atmospheric chemist and aerosol scientist at Melbourne University, Dr Schofield quickly began working with respiratory specialists to understand how to reduce the risk of viral transmission by improving the ventilation and filtration of indoor air.

      What she still finds thrilling is that indoor air quality can be assessed with a battery-powered CO2 monitor; popular devices like the Aranet cost about $300 but some companies are developing tech to allow smartphones to do the same. And the investment is worth it, many argue, because it can help you avoid catching COVID-19. It’s also good for productivity, with studies showing higher CO2 levels decrease cognitive performance. If CO2 is 800 parts per million, Dr Schofield says, 1 per cent of the air being inhaled has been breathed out by someone else — and is therefore a good proxy for infection risk.

      A woman pulls a 3M Aura respirator and an Aranet CO2 monitor out of her black handbag
      Dr Schofield’s COVID-safety kit includes an N95 respirator and a CO2 monitor.(ABC News: Danielle Bonica)
      One of the findings from the past few years she finds “most exciting”, however, is the role of relative humidity in indoor spaces. When relative humidity is below 40 per cent, Dr Schofield says, the risk of catching COVID-19 increases. (A good sign of that, for those who wear contact lenses, is dry eyes, which she says is “a really good indication that you should get out!”) “Because you are becoming the moisture source. Your mucous membranes — which are protecting you from getting COVID or the doses you acquire — are giving up that moisture, and so it’s easier to be infected.”

      Dr Schofield is particularly concerned with preventing infection in healthcare settings. She bravely spoke out last year when, while being treated for breast cancer at Peter Mac in Melbourne, the hospital decided to relax its masking policy for patients. “COVID cases were actually rising at the time, so it was a bad call,” she says. “And it was then reversed.” But she was still “disgusted” and lost respect for the hospital’s leadership, she says: she expected that staff would understand the science of COVID-19 transmission and take steps to protect vulnerable patients.

      A woman wearing a black top prepares to put on a white N95 respirator as people dine at outdoor cafe tables behind her
      Dr Schofield chooses restaurants with outdoor dining areas when eating out.(ABC News: Danielle Bonica)
      Even before she was diagnosed with cancer, Dr Schofield was taking precautions — for starters, she knows where the “most risky settings” are. Trains, planes and automobiles are big red zones: “Buses are actually the worst,” she says, because they recirculate air without filtering it. She regularly uses nasal sprays, wears an N95 respirator when she’s indoors with other people — in meetings at work, for instance — and makes sure air purifiers are switched on. “If I walk into a space, I will also open windows. I just go around and open them,” she says. “Because actually, no one’s going to tell me not to.”

      When eating out, she chooses restaurants that have outdoor dining areas: a newly revamped boathouse in the Melbourne suburb of Kew is a favourite of hers, and Korean barbecue is “always excellent”, she says, because there are generally extractor fans at each table. It’s all about good ventilation — clean air. “I always take my Aranet [CO2 monitor] along, and if you sit close enough to the kitchen, the kitchen fans are very effective.”

      All of these issues point to an urgent need for governments to develop indoor air standards, Dr Schofield says — for air quality to be regulated and monitored, just like food and water are. Before the pandemic, in 1998, the economic cost to the Australian economy of poor indoor air was $12 billion per year — $21.7 billion in 2021 money. “So why aren’t we learning from that, and moving forward?” she says. “This is not about going back to 2019, it’s about having the future we deserve in 2030.”

      ’We’re living in a public health ’Barbieland’

      Brendan Crabb, chief executive of the Burnet Institute

      professor brendan crabb
      The lack of action against COVID is fundamentally a problem of a lack of leadership, says Brendan Crabb.(Image: Supplied by Burnet institute)
      Four years into the COVID-19 pandemic we’re living in a “public health Barbieland”, says Professor Brendan Crabb, director and chief executive of the Burnet Institute. Too many of us are playing “make-believe” that life has returned to “normal”, he says, and there’s an “enormous disconnect” in the community: a failure to grasp both the true scale of COVID circulating and the impact of infections on our health and longevity.

      Australia recorded more than 28,000 excess deaths between January 2022 and July 2023, he says. “These are unheard of numbers, people who wouldn’t have otherwise died, let alone the hundreds of thousands in hospital — we don’t know exactly because no one publishes the numbers.” Then there are the hundreds of millions globally with long COVID-19, the risk of which increases with each infection. “I find what we know about COVID concerning enough to call it an elevated public health crisis,” Professor Crabb says. “And we need sustainable solutions to that now and in the longer term.”

      Long COVID will take your health, your wealth — then it will come for your marriage
      Long COVID is not just destroying people’s health. Behind closed doors, in homes across Australia and abroad, it is irreversibly changing relationships — sometimes for the better, too often for worse.

      An illustration in blue and pink colours shows a woman sitting alone in a room looking out a window
      Read more
      The lack of action against COVID-19, Professor Crabb says, is fundamentally a problem of a lack of leadership. “The most common thing said to me is, ’Brendan, I really do trust what you and others are saying. But if there was a real problem the prime minister, the government, would be telling us that,’” he says. “I don’t think people are all of a sudden profoundly individualistic and don’t care about COVID anymore — that they’re suddenly willing to take massive risks and hate the idea of vaccines and masks. I just don’t think they’re being well led on this issue.”

      A crucial factor shaping Australians’ apathy towards COVID-19 in 2024, Professor Crabb believes, was Chief Medical Officer Paul Kelly’s statement in September 2022 that the virus was no longer exceptional. “It is time to move away from COVID exceptionalism, in my view, and we should be thinking about what we do to protect people from any respiratory disease,” Professor Kelly said at a press conference. Those comments, Professor Crabb says, have never been turned around. “If I’m right — and I say that was a profoundly wrong statement — then that has to be corrected by the same people.”

      He also points a finger at two unhelpful ideas. “There is a strong belief, I think, by the chief medical officer and many others that once we got vaccinated, infection was our friend,” he says. Australia’s vaccine program was highly successful, Professor Crabb says. Most people were inoculated against COVID-19 before large numbers were infected. “If we were the US, we’d have had 80,000 deaths … [instead] we had 1,744 deaths in the first two years,” he says. But while vaccination broadly protects against severe illness and death, it does not protect against (re)infection or the risk of acute and chronic health problems.

      The other idea is hybrid immunity, which holds that vaccination and infection provides superior protection against severe outcomes compared to immunity induced by vaccination or infection alone. For Professor Crabb, the concept is flawed: first, because it encourages infection, which he believes should be avoided, and second, because it does not work — at least not with the predictable emergence of new variants like JN.1 which are capable of evading population immunity. “Immunity is good,” he says. “But it’s not good enough.”

      A panel of participants at the Clean Air Forum in Parliament House, with air purifiers and a CO2 monitor around the room
      Brendan Crabb took his portable air purifier to the Clean Air Forum at Parliament House last year, where there were also large purifiers in the room and a CO2 monitor on the desk.(Supplied: Stuart Kinner)
      In a perfect world, Professor Crabb says, political leaders would speak regularly about the pressure on health systems, about deaths, and about the potential health consequences for children, which are often overlooked. “And then underneath that they’d set a blueprint for action around the tools we currently have being properly implemented: a vaccine program, a clean air program, advice around wearing masks when you can’t breathe clean air, and testing so you can protect those around you and get treated.” But who speaks matters, too: “If it’s not [coming from] the prime minister, if it’s not the premiers — if it’s not consistent — it’s probably not going to cut through.”

      In the meantime, he says, people can and should take precautions — they can be leaders in their community, and start conversations with their employers and kids’ schools. For him, in addition to getting current booster vaccines, it means using a toolkit he built with his wife who, as a paediatrician who works in a long COVID-19 clinic in Melbourne, comes face to face with the harm the virus is doing every day. The kit includes a well-fitted N95 mask, a CO2 monitor and a portable air purifier. “It’s another line [of defence],” he says. “If you’re in a restaurant, say, and … you’ve got a few people around you, putting one of those on the table, blowing in your face, is a good idea.”

      Masks, he adds, should be worn in crowded places or spaces with poor ventilation. Of course, the topic sometimes sparks heated debate. A Cochrane review which last year suggested masks do not work was later found to be inaccurate and misleading and subject to an apology. But the damage it did was significant. Since then a vicious culture war has raged, much to the dismay of respected scientists who continue to make the point: numerous studies show high-quality, well-fitted N95 and P2 respirators prevent infection when they’re worn correctly and consistently.

      Professor Crabb’s home is also as “airborne safe” as he can make it. An “enormous amount of transmission” occurs in homes, he says. And his analysis of excess deaths from COVID-19 between January 2022 and March 2023 paints a striking picture: Moving down the east coast from Queensland, excess deaths increase, with Tasmania recording the highest proportion — last year it was more than double that of Queensland. “There’s no way Queensland has better COVID strategies than Victoria,” he says. “So very likely it’s to do with less time spent in poorly ventilated indoor spaces.”

      Ultimately, strong evidence supporting the benefits of clean air is why Professor Crabb believes the future of COVID-19 — and other pandemics to come — is regulating indoor air quality: a responsibility for governments, public institutions and workplaces. “That’s where we are really headed, and that’s where I think there’s strong interest at a government level,” he says. “Of course everyone is stressed about what that will cost, but … let’s at least have the conversation. We have to move towards an airborne future. How you do that in economically sensible ways is a separate discussion — whether we do it or not should not be up for discussion, and the gains are enormous.”

      #santé #prévention #CO2 #masque #purificateur_d'air #purificateur_d'air_portable

    • Ultimately, strong evidence supporting the benefits of clean air is why Professor Crabb believes the future of COVID-19 — and other pandemics to come — is regulating indoor air quality: a responsibility for governments, public institutions and workplaces. “That’s where we are really headed, and that’s where I think there’s strong interest at a government level,” he says.

    • Oui, d’ailleurs, à propos de la « régulation de la qualité de l’air intérieur, responsabilité des gouvernements, institutions publiques et lieux de travail », à Davos, ils montrent l’exemple pour la deuxième année consécutive. Le capitalisme, ça vous gagne.

    • Me serais-je mal fait comprendre ? Les purificateurs ne sont pas partout, hélas. Juste dans des endroits « stratégiques » où les dominants protègent leurs intérêts et pérennisent leurs privilèges. Un air pur et exempt de tout agent pathogène, ça se « mérite ».

    • Oui, c’est bien ce dont je parle. L’année dernière, on avait vu les images accablantes de tous des dispositifs de purification d’air pour Davos, pendant que les autres grenouillent dans les miasmes.

      On a vu aussi que « Stan » avait eu une maousse subvention qui avait dû manquer aux actions sociales pour entièrement refaire son système de ventilation.

      Je me demandais donc si on avait de nouveau vu Davos se protéger consciencieusement perdant que les dirigeants racontent à leurs peuples respectifs que la pandémie, faut vivre avec.