• DPE : le coefficient énergie primaire de l’électricité revu à la baisse dès 2026 - Diagactu
    https://www.diagnostiqueur-immobilier.fr/technique/dpe-le-coefficient-energie-primaire-de-lelectricite-revu-a

    Une annonce majeure vient de tomber pour le secteur du diagnostic immobilier et de la rénovation énergétique. Le Premier ministre, François Bayrou, a officialisé ce 9 juillet 2025 la révision à la baisse du coefficient de conversion de l’électricité (CEP) dans le calcul du DPE. Une évolution qui entrera en vigueur dès le 1er janvier 2026, avec des impacts significatifs.

    Un coefficient abaissé à 1,9
    Le coefficient d’énergie primaire de l’électricité, actuellement fixé à 2,3, sera abaissé à 1,9 dès le 1er janvier 2026. C’est ce que viennent d’annoncer les services du Premier ministre, François Bayrou, dans un communiqué de presse diffusé le 9 juillet 2025. « Cette évolution permettra de mieux refléter la réalité du mix énergétique français, largement décarboné grâce au nucléaire, et de corriger une inégalité de traitement pénalisant jusqu’ici les logements chauffés à l’électricité, y compris lorsqu’ils ont fait l’objet de travaux de rénovation ». Une consultation publique sera lancée dans les prochains jours avant la publication d’un arrêté début septembre.

    850 000 logements vont sortir du statut de passoire thermique
    Pour Matignon, l’objectif de cette révision est de mieux cibler les aides à la rénovation sur les logements dont le chauffage dépend encore des énergies fossiles. Selon les estimations, 850 000 logements, principalement ceux chauffés à l’électricité, vont ainsi sortir de la catégorie de passoire énergétique. Selon Matignon, ces habitations étaient « excessivement pénalisées par la méthodologie antérieure ». Une aubaine pour les bailleurs sous la menace de l’indécence énergétique de leurs logements.
    « En réformant ce paramètre clé, le Gouvernement envoie un signal fort en faveur d’un DPE plus juste et plus cohérent avec nos objectifs énergétiques et de logements plus accessibles et durables pour tous », a déclaré François Bayrou.

    Encore de l’instabilité pour le DPE
    Cette évolution du DPE, qui doit permettre de lever les freins à l’électrification des usages, va soulever d’autres problèmes. Cette nouvelle modification des règles de calcul du DPE risque toutefois de brouiller encore plus l’image de ce diagnostic, son acceptation et sa compréhension par le grand public, et d’obliger les diagnostiqueurs à faire encore preuve d’une grande pédagogie auprès de leurs clients.
    On peut également s’interroger sur la validité des DPE qui seront réalisés avant la révision de ce coefficient, sur l’obligation d’effectuer des audits énergétiques sur des biens potentiellement plus concernés dans quelques mois, etc.

  • Sabotages sur la Croisette
    https://lundi.am/Sabotages-sur-la-Croisette

    Donc un geste à reprendre. Couper. Geste essentiel du cinéma. Le coupez du tournage comme le suggère le texte de revendication, mais aussi le geste du montage.

    « ET… COUPEZ ! La promotion du monde de substitution que vous fabriquez, avec vos séries et vos films, qui veut nous faire oublier la planète réelle, pourrie d’usines, d’autoroutes, de béton et de mines.

    ET… COUPEZ ! Le courant de vos industries militaires-technologiques. » (texte de revendication)

    ET … COUPEZ ! les prétentions politique de Juliette Binoche ou de Catherine Deneuve. Couper la bien-pensance et l’engagement qui ne coutent rien. Couper le « Festival de Cannes très politique mais sans éclat ». A côté des sabotages, la dénonciation et les signatures passent pour ce qu’elles sont : des engagements sans gestes, de la bien-pensance. Le monde va si mal. « Qui dénonce s’exempt » (le Comité Invisible)

    #Cannes #Nice #cinéma #sabotage #électricité

  • Sanctions Shift in Syria Could Unlock Lebanon’s Energy Imports
    https://en.al-akhbar.com/news/sanctions-shift-in-syria-could-unlock-lebanon-s-energy-impor
    Le Liban pourrait il bénéficier de la levée des sanctions américaines contre la Syrie pour enfin pouvoir importer du gaz naturel pour ses centrales et de l’électricité de Jordanie ?
    A priori pas de pb majeur pour l’électricité jordanienne sauf que la Syrie elle même va vouloir en importer et que la capacité de transit aux points d’interconnexion est limitée - il faut voir si les lignes haute tension en Syrie sont en état ou ont besoin de réparation.

    Furthermore, the plan involves routing Egyptian gas through the Arab Gas Pipeline, which passes through Syria and Jordan, all the way to northern Lebanon. This would enable the Deir Ammar power plant to produce an additional 450 megawatts, together with 450 megawatts from the Zahrani power plant, adding up to roughly 8 extra hours of daily electricity combined.

    Mais pour le gaz égyptien, il est de notoriété publique que les Egyptiens préfèrent l’exporter en Europe et qu’ils achètent du gaz israélien. Tout gaz venant par ce gazoduc a de forte chances d’être en fait israélien et non égyptien. Cela sera t il possible pour l’opinion publique libanaise ? Ce serait une forme de normalisation...
    De même les Jordaniens qui sont obligés d’importer trop de gza israéliens pourraient proposer d’en réexporter vers le Liban ? Mais est ce possible selon leur contrat avec Israël ? Et les Libanais accepteraient ils ?
    #énergie #Liban #Jordanie #Syrie #Israël #Egypte #Gaz #électricité #banque_mondiale

  • REPORTAGE. « On n’a rien fait, car on ne savait pas si on resterait l’exploitant » : les #barrages #hydrauliques en sursis face à l’impasse des #concessions
    https://www.francetvinfo.fr/environnement/energie/energies-renouvelables/reportage-on-n-a-rien-fait-car-on-ne-savait-pas-si-on-resterait-l-explo

    Publié le 4 mai 2025

    Pourquoi le développement des barrages est bloqué en France ? L’hydraulique, deuxième source d’#électricité en #France derrière le #nucléaire, est aussi la première source d’#énergie #renouvelable. De gros travaux permettraient d’augmenter la production, sans construire de nouveaux barrages. Cela s’inscrit pleinement dans les objectifs de la sortie des énergies fossiles. Mais ces projets sont à l’arrêt, depuis des années, en raison du régime juridique en vigueur, celui de la concession, et d’un bras de fer entre la France et la #Commission_Européenne.

    Ce régime de concession concerne plus de 340 barrages français, des sites qui pourraient produire plus, mais qui représentent déjà 90% de toute notre puissance hydroélectrique installée. Un mode de gestion propre aux plus grosses centrales, mais aussi aux plus petites, c’est le cas de la chute d’eau de Jarménil, au creux des Vosges, après le confluent de la Moselle et de la Vologne. Cette centrale est exploitée par Yves Dubief, 67 ans, patron de l’entreprise de textile Tenthorey.

    #edf

  • Retour sur la tempête de 1999, la plus sévère en France depuis 1980 France3 Régions - Vanessa Hirson *
    En Franche-Comté, trois personnes sont décédées. 91, dans toute la France. _

    Le 26, 27 et 28 décembre 1999, la France est balayée par deux tempêtes : Lothar et Martin. La Franche-Comté n’est pas épargnée. Des milliers de foyers sont privés d’électricité, les dégâts matériels sont considérables.

    3 millions de mètres cube de forêt abattus, plus de 78 000 foyers sont privés d’électricité pendant plusieurs jours. 700 communes touchées.

    Le vent est extrêmement violent (151 km/h à Métabief). Partout, les vitres sont brisées, les tuiles tombées, les voitures écrasées, les arbres arrachés.

    A Métabief, une centaine d’arbres s’est couché sur les télésièges et sur les routes. A Besançon, le chalet du marché de Noël s’est renversé.
    https://www.youtube.com/watch?v=3kgZi4dnkBU

    Le trafic SNCF est stoppé. En Haute-Saône, le train Paris-Bâle de 14h17 est arrêté en gare de Vesoul.

    Des 4 départements de Franche-Comté, aucun n’est épargné. Le Doubs est le plus touché.

    C’est d’ailleurs dans ce département, près de Morteau, qu’une première victime est constatée, écrasée dans sa voiture par un arbre.

    Les agents d’EDF sont mobilisés, sans relâche. Mais leur progression est difficile et ce malgré les moyens déployés, comme deux hélicoptères qui survolent les lignes au dessus des Vosges saônoises pour détecter les lieux de pannes. Les lignards, des monteurs voltigeurs, prennent ensuite le relais pour réparer les lignes.

    Trois jours plus tard, l’heure est au bilan. En Franche-Comté, trois personnes sont décédées. 91, dans toute la France. Les dégâts sont estimés à plusieurs dizaines de milliards de francs. Autre victime de la tempête, la forêt franc-comtoise : en deux jours, 3 millions de mètres cube ont été abattus. Ce sont près de 150.000 hectares de forêt qui sont à moitié dévastés. Les résineux sont les plus touchés.
    . . . . .
    Source et suite : https://france3-regions.francetvinfo.fr/bourgogne-franche-comte/retour-sur-la-tempete-de-1999-la-plus-severe-en-france-
    #Electricité #France #Blackout #histoire #énergie

  • La Sorcière Electricité : un siècle de maléfices
    https://www.piecesetmaindoeuvre.com/necrotechnologies/la-sorciere-electricite-un-siecle-de-malefices

    Ce 28 avril 2025, l’Espagne et le Portugal sont privés d’électricité suite à une panne géante. Trains et métros figés, avions cloués au sol et ascenseurs coincés en l’air, feux rouges éteints et méga bouchons, commerces fermés et congélateurs dévastés, centrales nucléaires à l’arrêt, téléphones et Internet muets, portes de garages et prisons bloquées, voitures électriques à plat, distributeurs de billets hors service : « cela ressemble déjà à un film de science-fiction », dit un Portugais. (…) #Nécrotechnologies

    https://www.piecesetmaindoeuvre.com/IMG/pdf/la_sorcie_re_electricite_n_p_avril_2025.pdf

  • « L’#hypocrisie des #puces_électroniques#made_in_France” »

    Relocaliser l’industrie numérique, telle que la production de puces électroniques, est un #leurre. #Quartz, #silicium, #cobalt... viennent du Sud global. « Le #numérique est une #technologie_impériale », résume notre chroniqueuse.

    C’était un mot qui faisait souffler un vent d’idéalisme, un mot de contre-sommet plus que de journal télévisé : « relocaliser ». Dans les années 2000, les altermondialistes voulaient « relocaliser l’économie ». Défendre la menuiserie de bois local contre la production mondialisée d’Ikea, soutenir l’agriculture paysanne contre la monoculture d’exportation. Le monde entier était devenu la base logistique des multinationales. Relocalisation et coopération s’opposaient à ce libre-échange impérial qui permet d’obtenir de l’huile de palme d’Indonésie ou du soja d’Amazonie cultivé sur les terres ancestrales des peuples autochtones.

    Mais en vingt ans, et plus encore depuis le Covid, « relocaliser » est devenu un mantra du patronat. Ce sont désormais les #multinationales qui demandent à l’État de les aider à rapatrier certaines activités « stratégiques ». Entre-temps, le sens du mot a complètement changé. Le but est aujourd’hui de « sécuriser les #chaînes_d’approvisionnement » : aider l’industrie à avoir sous le coude #matières_premières et #composants.

    Imaginez qu’un missile tombe sur Taïwan où se trouvent les principales fonderies de semiconducteurs, ces puces électroniques présentes dans le moindre objet du quotidien (Il y en a 160 dans un téléphone, plus de 3 500 dans une voiture hybride [1]). Voilà qui mettrait à l’arrêt la production de voitures, de drones, de satellites, d’objets connectés et d’armement (la France étant le deuxième exportateur d’armes du globe).

    Les multinationales n’ont pas subitement décidé qu’un autre monde était possible et qu’elles devaient exploser en millions de coopératives locales. C’est plutôt que, pour elles, la planète n’est plus cette base logistique commodément aménagée par les politiques de la Banque mondiale et du Fonds monétaire international. L’hégémonie occidentale est terminée. Il y a plusieurs empires en concurrence pour les ressources et les marchés. Tous veulent des #métaux, des #semiconducteurs, etc. pour produire peu ou prou les mêmes objets.

    #Dépendance à un vaste tissu économique mondialisé

    C’est dans ce contexte que les députés européens ont voté en juillet 2023 le #Chips_Act. Objectif : produire sur le continent 20 % de la demande européenne de semiconducteurs. À #Crolles, près de #Grenoble, l’État va consacrer 2,9 milliards du #Plan_France_Relance pour augmenter les capacités de l’usine #STMicroelectronics, un groupe franco-italien dont le siège est en Suisse.

    Une usine de semiconducteurs est-elle relocalisable comme la production de chaussettes, qu’on peut approvisionner en laine de brebis du causse d’à côté ? En quoi consiste la production de puces électroniques ? À cette question, le #collectif_Stop_Micro a consacré toute une enquête (https://stopmicro38.noblogs.org/post/2024/11/01/ce-que-signifie-relocaliser), publiée en amont des rencontres organisées à Grenoble du 28 au 30 mars avec Les Soulèvements de la Terre.

    Décrivant les étapes de la production d’une puce électronique, ce document d’une quarantaine de pages illustre « le degré de dépendance de l’industrie de la #microélectronique à un vaste tissu économique mondialisé ». « Les produits made in France de ST sont en réalité de purs produits de la #mondialisation capitaliste, et ne pourraient exister sans elle », conclut-il.

    Fondé en 2022, #Stop_Micro s’oppose à l’agrandissement des usines de puces électroniques, deux sites industriels situés en Isère qui consommeront bientôt plus d’#eau et d’#électricité qu’une ville de 200 000 habitants. Ces besoins colossaux s’expliquent par le degré de #miniaturisation des composants. Sur la moindre puce de quelques millimètres sont gravés des dizaines de milliards de #transistors dont chacun est « 10 000 fois plus fin qu’un cheveu humain », précise l’Esia, l’association européenne des semiconducteurs, dans une brochure. De l’#eau_potable ultrapure est nécessaire pour laver les plaquettes de silicium et les débarrasser de contaminants présents à l’échelle nanométrique.

    Milliards de #subventions_publiques

    Pourtant, malgré leur consommation de ressources, les usines de STMicroelectronics à Crolles et de #Soitec à #Bernin « ne produisent formellement même pas “des puces” », selon le collectif. En résumant beaucoup, disons qu’une puce électronique commence avec l’extraction de quartz dans une carrière puis sa transformation en silicium métal dans de hauts fourneaux. Pour atteindre le niveau de pureté de 99,9999999 % requis pour les semiconducteurs, il faut y ajouter de nombreuses étapes impliquant produits chimiques et hautes températures pour obtenir des lingots de silicium monocristallin ultrapur qui sont ensuite découpés en galettes très fines (#wafers).

    Ce n’est qu’à ce stade qu’interviennent les usines grenobloises. Elles reçoivent ces galettes pour y graver « par photolithographie (dans l’esprit d’une photo argentique mais en autrement plus complexe), des milliards de transistors et circuits miniatures ». À la sortie de ces usines, la puce n’existe pas encore comme objet séparé, précise Stop Micro. C’est dans d’autres sites en Asie qu’elles sont découpées, testées et préparées individuellement de façon à pouvoir être intégrées à des circuits électroniques. Ces usines « relocalisées » en Isère au moyen de milliards de subventions publiques ne sont donc qu’une étape parmi des dizaines d’autres, réparties sur toute la planète.

    Autre exemple : une minuscule puce peut contenir des dizaines de métaux différents : arsenic, tantale, titane, antimoine, gallium…. #Intel, le plus grand vendeur de semiconducteurs au monde, a travaillé pendant six ans pour retracer la provenance du #cobalt qu’il utilise afin de comprendre s’il est extrait dans des zones de guerre en République démocratique du Congo. L’entreprise n’y est parvenue qu’en partie, alors que le cobalt n’est qu’un seul de tous les métaux utilisés.

    Le fait que STMicro, à Crolles, ait plus de 6 600 fournisseurs directs donne une idée de la complexité des process mis en œuvre sur ce gigantesque site. « La fabrication de semiconducteurs est l’activité de fabrication la plus complexe que l’on connaisse actuellement », résume l’Esia. « Avant d’atteindre le stade du produit final, une puce peut faire 2,5 fois le tour du monde et traverser 80 frontières ».

    Des chaînes d’approvisionnement d’une complexité inouïe

    Il y a des technologies emblématiques de certaines formes politiques. Le métier à tisser mécanique, par exemple, cristallise le capitalisme industriel anglais du XIXe : le coton produit en Inde, les usines textiles de Manchester alimentées au charbon, les cotonnades vendues aux marchands d’esclaves africains. La puce de silicium, elle, est emblématique de l’hégémonie néolibérale des puissances occidentales des années 2000.

    Elle nécessite de maîtriser des chaînes d’approvisionnement d’une complexité inouïe, réparties sur des dizaines de pays. C’est la pax americana qui a rendu possible la Silicon Valley. Si cette domination mondiale n’avait pas existé, naturelle au point de passer pour « la fin de l’Histoire », si le monde n’avait pas été cet espace de libre-échange commodément organisé pour achalander les multinationales, il ne serait venu à l’idée de personne de numériser toutes les activités humaines.

    Car au fond, est-il bien raisonnable de rendre une société entière dépendante, pour sa survie, d’un objet qui repose sur l’activité de centaines de mines aux quatre coins du monde, qui franchit en moyenne 80 frontières avant d’atteindre le stade du produit final ? Le numérique est une #technologie impériale. Que devient-il quand l’empire vole en éclats ?

    Pour promouvoir l’activité de ses entreprises, l’Esia souligne que les semiconducteurs sont indispensables « aux soins médicaux critiques », « aux infrastructures d’eau », « à l’agriculture durable qui nourrit le monde ». Faut-il en conclure que tout doit être mis en œuvre pour trouver des terres rares, des galettes de silicium ou du cobalt ? Ou, au contraire, que l’hôpital, la distribution d’eau et l’agriculture devraient absolument pouvoir fonctionner sans informatique ? Qu’il est follement inconséquent de laisser les services essentiels à la merci de la moindre cyberattaque ou rupture d’approvisionnement.

    C’est tout ce qui sépare la quête d’#autonomie et de #sobriété, dont nous avons besoin pour nous protéger autant que pour rendre le monde plus juste, des politiques actuelles de « #souveraineté_industrielle » qui, en augmentant notre dépendance à des technologies impériales, nous condamnent à la guerre des ressources.

    https://reporterre.net/L-hypocrisie-des-puces-electroniques-made-in-France
    #puces #relocalisation #industrie

  • L’#IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

    Le risque premier avec l’#intelligence_artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

    La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

    Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux #centres_de_données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les #impacts_environnementaux de ces « #data_centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

    « Plus grand est le modèle, mieux c’est »

    L’ouverture au public de l’agent conversationnel d’#OpenAI, #ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’#IA_génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

    Ces #grands_modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

    Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les #données_personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de #données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

    Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur impact climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.
    Combien consomme une requête ChatGPT ?

    On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

    Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’#impact_carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

    Produire une #image, c’est pire. La startup #HuggingFace, à l’origine de l’#IA_Bloom, a été l’une des premières à estimer les #émissions_de_gaz_à_effet_de_serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

    Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman,, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

    En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

    En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

    De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

    Une explosion de la consommation d’électricité

    Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les #cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

    Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

    Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

    « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de Microsoft ont bondi de 29 % entre 2020 et 2023.

    Des investissements massifs aux dépens des populations

    Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

    Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

    Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
    Des engagements « durables » non contraignants

    Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

    Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

    Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

    https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

    #environnement #climat #changement_climatique #pollution #visualisation #infographie

    • Se contenter de « calculer » la consommation énergétique directe de l’IA, c’est omettre de « calculer » ses effets induits, ses conséquences systémiques, puisque « grâce » à l’IA, on peut faire plus de croissance générale. Sans même parler des effets rebonds tous azimuts... Par exemple, on peut utiliser l’IA pour produire un article de blog. Cette utilisation d’IA consomme une unité d’énergie mais elle a aussi permis d’augmenter le volume de contenu qui lui même consomme de l’énergie sur les serveurs.

  • #Vaches perturbées par l’#électricité : RTE devra verser plus de 450 000 euros à un éleveur
    https://reporterre.net/Vaches-perturbees-par-l-electricite-RTE-devra-verser-plus-de-450-000-eur

    Cette fois, la décision est définitive : la #ligne_à_haute_tension qui passait au-dessus de sa ferme est bien en lien avec les difficultés que Dominique Vauprès a rencontrées dans son élevage laitier. Le 13 mars, la Cour de cassation a rejeté le pourvoi formé par #RTE. Le gestionnaire du réseau électrique devra verser plus de 450 000 euros à l’#agriculteur en réparation du « préjudice d’exploitation » subi, comme le prévoyait la cour d’appel de Caen dans un arrêt du 2 juin 2022.

    « Cette décision exemplaire est l’aboutissement d’un long combat judiciaire mené par les éleveurs victimes d’installations électriques accompagnés », indique un communiqué publié sur le site du cabinet d’avocats TTLA & Associés, qui accompagne Dominique Vauprès. Ce dernier se battait depuis 2012 contre #RTE. Dès l’installation de la ligne, ses vaches avaient montré des troubles : baisse de la production, comportement anormal, #mammites à répétition, #surmortalité… De guerre lasse, il avait fini par déplacer son #cheptel dans une autre ferme située à 5 km de là. Tout était alors revenu à la normale.

  • Parution de L’Électron libre : L’autre journal de l’Exposition internationale de la Houille blanche et du Tourisme
    https://www.piecesetmaindoeuvre.com/necrotechnologies/parution-de-l-electron-libre-l-autre-journal-de-l-exposition-in

    L’Électron libre vient de paraître. Découvrez l’autre journal de l’Exposition internationale de la Houille blanche et du Tourisme (16 p. couleur, 5 €). En 2025, Grenopolis célèbre le centenaire de l’Exposition internationale de la Houille Blanche et du Tourisme. Conférences, projections, visites, publications glorifient les pionniers de l’hydroélectricité et leurs successeurs, désormais pilotes de la « transition ». Laquelle consiste, non à modifier la trajectoire de l’électrification, (…) #Nécrotechnologies

    • En 2025, Grenopolis célèbre le centenaire de l’Exposition internationale de la Houille Blanche et du Tourisme. Conférences, projections, visites, publications glorifient les pionniers de l’hydroélectricité et leurs successeurs, désormais pilotes de la « transition ». Laquelle consiste, non à modifier la trajectoire de l’électrification, mais à l’accélérer. Ce que cette célébration ne fait pas, c’est le bilan d’un siècle d’électrification. Que promettaient les technocrates de 1925 - ingénieurs, industriels, élus, banquiers - et qu’ont-ils réalisé ? Dans quel état ont-ils laissé la Terre et ses habitants ?

      L’Électron libre rappelle quelques évidences oubliées des festivités du centenaire et d’abord celle-ci : la croissance infinie est impossible dans un monde fini. Les lois physiques, notamment celle de l’entropie, produisent déjà leurs effets sur le milieu naturel dont dépend notre survie. Les ignorer relève de l’obscurantisme, de la folie suicidaire, et ni « l’électrification des usages », ni l’« intelligence » artificielle n’y changeront rien. Les faits sont définitifs.

      Pour les cent ans de l’Exposition, L’Électron libre revient sur le mythe du Progrès, martelé de génération en génération depuis l’avènement de la « Fée Électricité ». Où l’on découvre, grâce aux archives et aux historiens, qu’il y avait une vie et de l’activité dans nos montagnes avant l’arrivée des ingénieurs et des usines, et que nos aïeux n’ont pas accueilli l’électricité avec l’enthousiasme que leur prête cette « épopée ». D’où l’Exposition internationale : il y a un siècle déjà, les décideurs avaient des frais d’acceptabilité.

      #Histoire #électricité #électrification #Grenoble #science #critique_techno #anti-industriel #acceptabilité #exposition_internationale

  • Nucléaire : l’arrêt de l’#EPR de #Flamanville à nouveau prolongé
    https://reporterre.net/Nucleaire-l-arret-de-l-EPR-de-Flamanville-a-nouveau-prolonge

    L’EPR de Flamanville (Manche) n’aura pas fonctionné très longtemps. Son arrêt a été prolongé jusqu’au 30 mars à cause « d’aléas techniques », a indiqué #EDF vendredi 7 mars.

    Il avait déjà été mis sur pause le 15 février pour une intervention sur un circuit de refroidissement des équipements par l’eau de mer, un système utilisé en cas d’accident. L’arrêt avait été prolongé une première fois le 22 février, à cause d’une intervention à mener sur une sonde de température du circuit primaire principal (qui assure la transmission de la chaleur dégagée par le cœur du réacteur aux générateurs de vapeur), puis le 28 février pour un réglage par anticipation du groupe turbo alternateur, qui transforme l’énergie thermique de la vapeur en #électricité.

    Heureusement qu’on va fabriquer des EPR2 qui auront bénéficié des retours d’expérience des EPR1 (ChatGPT : une expérience qui ne fonctionne pas, constitue-t-elle un retour d’expérience ?)

  • #Intelligence_artificielle : les 7 choses qu’on ne vous dit pas

    Du 10 et 11 février, la France accueille le Sommet mondial sur l’Intelligence Artificielle. Au programme  : une vitrine sur l’avenir qui n’exposera pas les #dangers de l’IA. Bien que ces technologies offrent des avancées réelles - dans le domaine de la médecine par exemple - elle présente aussi des dangers sérieux pour les droits humains. Avec plusieurs organisations de la société civile, nous listons ici les faces cachées de l’IA qui ne seront pas présentées au sommet.

    En organisant à Paris le sommet mondial sur l’Intelligence artificielle (IA), Emmanuel Macron souhaite que «  la France ne passe pas à côté de cette révolution. » Sous couvert d’innovation, c’est la course à la productivité et au profit qui est en jeu. Au rythme foudroyant à laquelle l’IA se développe, les dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux que posent ces nouvelles technologies. Pourtant, l’un des plus grands enjeux est là.

    Développer l’IA pour continuer d’obtenir des avancées majeures dans des domaines comme la médecine oui, mais développer l’IA en mettant en péril des droits : c’est non. Les droits humains et la justice environnementale doivent être placés au cœur de la régulation de l’intelligence artificielle.

    Et parce que les dangers de l’IA ne figureront pas au programme officiel du Sommet mondial, nous vous les rappelons ici.

    1. L’IA perpétue le #racisme

    Pour fonctionner, l’IA s’appuie sur des #bases_de_données qui intègre les #préjugés et #biais des personnes qui l’ont créé. L’IA perpétue donc les #stéréotypes et accentue les #discriminations déjà existantes.

    ➡️Aux États-Unis, la police utilise une IA pour prédire la récidive criminelle. C’est le fait qu’une personne accusée va potentiellement commettre un nouveau un délit. Cette IA cible deux fois plus les accusés Noirs que les accusés Blancs.

    2. L’IA accentue le #sexisme

    L’intelligence artificielle s’impose comme un miroir de nos sociétés  : elle reflète, aussi, ses biais et accentue les #inégalités_de_genre. 

    ➡️En Autriche, des #algorithmes utilisés dans des outils d’accès à l’emploi ont écarté les femmes des secteurs informatique.

    3. L’IA permet la #cybercriminalité

    Les montages perçus les plus crédibles générés par IA sont un réel danger pour les femmes et les enfants.

    ➡️Les #deepfakes sont massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.

    4. L’IA impacte la planète

    ➡️D’ici 2027, l’IA générative nécessitera une alimentation en #électricité équivalente à celle de l’Argentine, cinq fois la France en superficie.

    Les pays du Sud sont les premiers impactés par les ravages écologiques de l’IA : les #data_center y pullulent, l’extraction de #minerais comme le #cobalt (utilisé pour la fabrication des #batteries) met en péril la santé des populations et entraîne la #pollution des eaux et des terres.

    Les émissions de CO2 des "géants de la Tech” ont augmenté de 30 à 50% en 2024 suite au développement fulgurant de l’intelligence artificielle.

    5. L’IA désinforme

    Beaucoup d’outils d’intelligence artificielle permettent et participent à la #désinformation  :

    ➡️Des «  #bots  », ces robots qui imitent l’activité humaine sur les réseaux sociaux pour manipuler l’information, en spammant du contenu, en renforçant la notoriété de comptes ou en diffusant de fausses informations.

    ➡️Montage photo généré par l’IA. Lors de la campagne américaine, Donald Trump a relayé une photo générée par IA montrant Kamala Harris de dos en leader communiste face à une foule de partisans. Une image vue 82 millions de fois.

    ➡️Les deepfakes, ces fausses vidéos de célébrité qui prolifèrent sur les réseaux sociaux, outil notamment utilisé lors de campagnes présidentielles pour attribuer de faux propos aux candidats en lice.

    À la vitesse laquelle se développe l’IA, il va devenir de plus en plus difficile de déceler le vrai du faux. 

    6. L’IA surveille

    Les systèmes d’IA sont aussi utilisés à des fins de #surveillance contre certaines populations. En témoigne les pratiques de la Chine, dotées d’outils dopées à l’IA pour surveiller la population ouïghoure. Et bien souvent, ces technologies sont développées par les pays occidentaux.

    ➡️L’IA est d’ailleurs déjà utilisée aux #frontières européennes à des fins de surveillance contre les personnes exilées. Parmi les outils  : des #détecteurs_de_mensonge et d’émotions sont utilisés pour contrôler les frontières. Baptisé #iBorderCtrl, le projet est financé par l’Union européenne et déjà testé dans 3 pays  : Hongrie, Grèce et Lettonie.

    7. L’IA peut tuer

    L’IA, c’est aussi ça  : des drones et autres armes sophistiquées capables de choisir leurs propres cibles et de les attaquer sans contrôle humain. Des robots-tueurs, décidant via leurs algorithmes de qui vit et de qui meurt, se développent et se vendent déjà sur le marché.

    ➡️À Gaza, l’armée israélienne a utilisé une IA appelée Lavender, censée cibler des terroristes mais qui ont provoqué la mort de milliers de civils gazaouis.

    https://www.amnesty.fr/actualites/intelligence-artificielle-les-sept-choses-qu-on-ne-vous-dit-pas

    #IA

    • TRIBUNE | « L’IA contre les droits humains, sociaux et environnementaux »

      Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles Attac, La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde » (https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj), qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?
      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.
      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux États-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.
      Premiers signataires

      David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      https://france.attac.org/actus-et-medias/salle-de-presse/article/l-ia-contre-les-droits-humains-sociaux-et-environnementaux

  • Dam plan busted? World’s biggest hydropower project in the balance

    Driving the news: The #Grand_Inga_Dam, envisioned as the world’s largest hydropower project on the #Congo River, faces significant delays and obstacles despite decades of planning
    • With a projected $80 billion cost, the dam promises to generate twice the electricity of China’s Three Gorges Dam
    • However, concerns over governance, funding challenges, environmental harm, and equitable energy distribution have stalled progress

    🔭 The context: Planned to power much of Africa, the Grand Inga Dam has attracted global partners like the World Bank, which recently re-engaged after withdrawing in 2016, but also lost major backing from China’s Three Gorges Corporation
    • Critics argue the project disproportionately benefits foreign buyers and mining companies over the 80% of Congolese citizens lacking electricity
    • Previous projects, Inga I and II, suffered from neglect and caused displacement without compensation

    🌍 Why it matters for the planet: If realized, the Grand Inga Dam could contribute significantly to renewable energy goals and electrify vast areas of Africa
    • However, the environmental and social costs, including biodiversity loss and forced relocations, pose serious sustainability challenges
    • Addressing these issues will be critical to achieving equitable climate benefits

    ⏭️ What’s next: The project’s future hinges on securing funding and resolving governance and coordination issues among stakeholders
    • Environmental impact assessments and displacement mitigation plans are required but remain underfunded
    • Construction could begin by 2026 if barriers are overcome, but the timeline remains uncertain

    💬 One quote: “The Grand Inga is like a serpent—it is up, down, visible, not visible,” - José Ángel González Tausz, a partner in the project

    📈 One stat: The Grand Inga Dam is expected to generate up to 40,000MW of electricity—enough to power New York City during summer

    https://illuminem.com/illuminemvoices/dam-plan-busted-worlds-biggest-hydropower-project-in-the-balance

    #énergie #électricité #hydroélectricité #barrages_hydroélectriques #rivière_Congo #extractivisme #banque_mondiale #Afrique

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • #Neutralité_carbone et #libéralisation ferroviaire : aux origines de la schizophrénie

    D’ici 2050, l’Union européenne vise la neutralité carbone. D’ici 2050, l’Union européenne vise également l’ouverture à la #concurrence dans le domaine du ferroviaire. Depuis des décennies, elle exerce une pression croissante sur l’État français pour qu’il mette à bas le #monopole de la #SNCF. Dans La révolution ratée du transport ferroviaire au XXIe siècle (Le bord de l’eau, 2024), Chloé Petat, co-rédactrice en chef du média Le temps des ruptures, analyse ce processus et met en évidence son incompatibilité avec la #transition_écologique. Extrait.

    Le #fret, levier incontournable de la transition écologique

    L’Union européenne et la France se sont fixés d’importants objectifs de réduction des gaz à effet de serre : pour la France, atteindre la neutralité carbone en 2050 avec une réduction de 37,5% de ses émissions d’ici 2030. L’Union européenne, quant à elle, avec le plan « Ajustement à l’objectif 55 » souhaite réduire de 55% ses émissions de gaz à effet de serre d’ici 2030 par rapport aux niveaux de 1990. Elle va même plus loin dans le Green Deal avec un objectif de fin des émissions nettes de gaz à effet de serre d’ici 2050. L’Union européenne souhaite devenir le « premier continent neutre pour le climat ».

    Pour ce faire, l’Union se fixe plusieurs objectifs de réduction dans un certain nombre de secteurs. Les transports, qui représentent aujourd’hui 30% des émissions de gaz à effet de serre au niveau mondial, sont forcément dans son viseur : « la #décarbonation du secteur des transports est essentielle pour atteindre les objectifs climatiques de l’Union européenne ». Parmi les différents transports, toujours au niveau national, 72% des émissions sont attribuables au transport routier, alors que le transport ferroviaire n’est responsable que de 1% des émissions totales.

    En effet, en comparaison, un #TGV émet cinquante fois moins de CO² par kilomètre que la voiture, vingt-cinq fois moins qu’en covoiturage et huit fois moins qu’en bus. Un train de fret émet dix fois moins de CO² par kilomètre que le nombre de poids lourds nécessaire pour transporter le même total de marchandises. Toutefois, les trains roulant majoritairement à l’#électricité, les émissions dépendent fortement du mix énergétique du pays et de sa décarbonation.

    Du fait de son faible impact écologique, l’Union s’est fixé comme objectif d’augmenter, voire de doubler la part modale actuelle du transport ferroviaire. Cet objectif est nécessaire pour permettre les mobilités tout en réduisant leur impact écologique. Pour autant, l’Union et la France ne se donnent pas réellement les moyens de réduire les émissions dans le secteur des transports.

    Au-delà de ses impacts climatiques, le transport routier est source de nombreuses externalités négatives dont la collectivité paie le coût : bruits, pollution, accidents routiers, embouteillages etc. Selon l’Alliance 4F, groupement qui réunit les acteurs du fret ferroviaire, sur la période 2021-2040, ces externalités coûteront entre 16 et 30 milliards d’euros. En Europe, ce coût est estimé à 987 milliards par an, dont 19% est imputable au transport de marchandises. Il faut aussi mentionner la destruction des surfaces agricoles, pour pouvoir y réaliser des infrastructures routières : le réseau ferroviaire occupe 2% des surfaces de transport, quand la route en occupe 70% au niveau européen.

    Autre élément majeur à prendre en compte : la consommation d’énergie. Nous vivons dans une société où le coût de l’énergie ne cesse d’augmenter, comme en témoignent les augmentations successives auxquelles nous faisons face depuis plusieurs années. Nous devons également, dans une perspective écologique, réduire notre dépendance aux énergies fossiles.

    Le secteur des #transports est très énergivore, surtout le transport routier : pour un kilogramme équivalent pétrole, un camion peut transporter une tonne de marchandises sur 50 kilomètres, alors que le ferroviaire peut en transporter 130. En effet, le train dispose d’une capacité de transport plus importante, et le réseau français est majoritairement électrifié. Un nouvel avantage du ferroviaire, vers lequel nous devons tendre : l’électrification des secteurs, grâce à un mix énergétique décarboné, permettrait une réduction importante de l’impact carbone, et de la dépendance aux énergies fossiles. Pour autant, il faudra paradoxalement produire davantage d’énergie : il faut donc pouvoir adopter le bon mix énergétique en réduisant la part des énergies fossiles, tout en capitalisant, augmentant à la fois la part de l’énergie nucléaire et des énergies renouvelables, en adéquation avec les besoins réels.

    Aux origines du #démantèlement

    Un autre scénario serait de réduire nos déplacements, réduisant ainsi les émissions de gaz à effet de serre liées aux transports. Cette option est utopique. Même si les déplacements des pays occidentaux se réduisaient, nous ne pourrions empêcher la mobilité croissante des autres pays du monde, notamment ceux en développement. Cela semble d’autant plus utopique au regard des prévisions démographiques : le Conseil général des Ponts et Chaussées indique qu’un Français parcourait 14 000 kilomètres par an en 2000, et 20 000 en 2050. Comment conjuguer l’augmentation de la demande de transports et nos objectifs de réduction de gaz à effet de serre ? Dans le secteur des transports, le ferroviaire est le meilleur candidat.

    Depuis les années 1950, alors qu’elle était majoritaire, la part modale du fret ferroviaire dans le total des échanges de marchandises n’a fait que baisser en France et en Europe. L’ouverture à la concurrence, effective totalement depuis 2005/2006, n’a fait qu’accentuer ce déclin, contrairement aux tendres rêveries de nos dirigeants français et européens.

    Aujourd’hui, le bilan est sans appel : c’est un fiasco et la part modale du #transport_de_marchandises par train est de 9% contre 89% pour la route.

    Pire, #Fret_SNCF est aujourd’hui accusé par la Commission européenne d’avoir bénéficié de subventions allant à l’encontre du principe de la concurrence libre et non faussée. Afin de la satisfaire, Clément Beaune a annoncé en mai 2023 la prochaine réforme de Fret SNCF1, qui va lui porter un coup de grâce et causer la banqueroute de notre entreprise nationale, synonyme également de plus de camions sur la route.

    L’Union souhaite que la part modale du fret atteigne 30% d’ici la fin de la décennie en cours : c’est effectivement ce qu’il faut viser, mais la stratégie de l’Union européenne pour y arriver est inadaptée. Il faut se rendre à l’évidence : aucune des réformes de ces vingt dernières années n’est allée dans ce sens. A commencer par l’ouverture à la concurrence du fret, bien que présentée comme une solution miracle par l’Union européenne.
    Le fret se rapproche du ravin

    La #Commission_européenne a ouvert en janvier 2023 une procédure d’examen à l’encontre de Fret SNCF. L’entreprise est accusée d’avoir bénéficié d’aides financières de l’Etat français allant à l’encontre du principe de la libre-concurrence en ne respectant pas l’article 107 du TFUE : on parle de l’annulation de la dette de l’entreprises en 2019, d’un montant d’environ 5 milliards d’euros, ou encore de sommes versées en 2019 pour permettre la recapitalisation de l’entreprise. D’autres entreprises ferroviaires, comme la DB Cargo, filiale de la DB, sont aussi dans le viseur de la Commission. Le verdict n’a, en date de mai 2024, pas encore été rendu2.

    Comment l’#Union_européenne peut-elle se donner de tels objectifs de réduction de gaz à effet de serre dans le domaine des transports, tout en lançant des enquêtes, dont les sanctions aboutissent au démantèlement du fret et à un report modal énorme vers le routier ?

    Pour faire passer la pilule à la Commission, le gouvernement en la personne de l’ancien ministre délégué des Transports, Clément Beaune, a annoncé un grand plan de refonte de Fret SNCF. Un plan qui est censé, encore une fois, rendre ses titres de noblesse à l’entreprise. Quand on analyse son contenu, on se rend compte qu’il va plutôt contribuer à pousser Fret SNCF dans le ravin, qui n’en est d’ailleurs pas très loin. Ce plan n’est rien d’autre qu’un coup de massue.

    L’idée principale est de diviser Fret SNCF en deux entités, une en charge de la gestion du trafic, l’autre de la maintenance des matériels, rassemblées dans un groupe holding (Rail Logistics Europe) mais toujours rattachées à la maison-mère SNCF. Le capital de l’entreprise serait également ouvert à des acteurs privés, bien que la proportion n’ait pas été communiquée. Pour la gestion du trafic, encore faut-il que cette société puisse se coordonner avec SNCF Réseau, responsable de l’allocation des sillons. Le plan reste flou sur la répartition exacte des missions.

    Enfin, autre élément majeur du plan : il propose de déposséder Fret SNCF de ses activités les plus importantes et rentables financièrement. Au total, 23 des lignes les plus rentables que l’entreprise exploite aujourd’hui seraient ouvertes obligatoirement à la concurrence. La nouvelle entreprise « new fret » ne pourrait pas candidater aux appels d’offres pour ces lignes pendant 10 ans. Ces flux représentent plus de 100 millions d’euros et permettent à Fret SNCF de garder aujourd’hui la tête hors de l’eau. Les employés seraient les premiers à en subir les conséquences, du fait des réduction d’emplois et des réallocations des travailleurs vers les sociétés privées.

    Comment Fret SNCF peut-il survivre à une telle réforme ? C’est tout à fait impensable, l’entreprise n’étant déjà pas viable financièrement.

    Le rapport de la commission d’enquête du Sénat publié en 2023, précédemment cité, dénonce fortement ce plan, qui n’empêchera d’ailleurs pas la Commission de prendre des mesures pénalisantes, lorsqu’elle aura rendu les conclusions de son enquête. Le souhait du gouvernement de développer la part modale du transport ferroviaire d’ici 2030 semble encore davantage un horizon inatteignable. […]

    D’autres solutions s’offrent à nous. Face au libéralisme à toute épreuve, nous devons faire preuve de pragmatisme et penser de nouvelles réformes ambitieuses, au risque de voir le secteur ferroviaire s’effondrer. Pour répondre aux grands enjeux de notre temps : la transition écologique, le désenclavement des territoires, la réduction du coût des transports pour les foyers, ou encore le respect du droit aux vacances et à l’accès aux mobilités. La France et l’Union européenne doivent changer de cap. Des solutions existent : coûteuses oui, mais ce sont des investissements à amortir sur le long terme et qui seront suivis d’effets considérables pour la collectivité en matière écologique. Ce livre propose de nombreuses solutions, qui sont à notre portée : il ne reste plus qu’à.

    Notes :

    1 Cette réforme va finalement entrer en vigueur en janvier 2025.

    2 Cette réforme va entrer en vigueur en janvier 2025 et va séparer FRET SNCF en 2 entités, et ouvrir à la concurrence 23 de ses flux les plus rentables.

    https://lvsl.fr/neutralite-carbone-et-liberalisation-ferroviaire-aux-origines-de-la-schizophren
    #train #transport_ferroviaire

    • La révolution ratée du transport ferroviaire au 21e siècle

      A l’heure du réchauffement climatique, le transport ferroviaire apparaît comme une alternative permettant de réduire considérablement les gaz à effet de serre liés aux transports et aux échanges. Pourtant, l’ouverture à la concurrence imposée par l’exécutif et Bruxelles semble contre-productive à son développement. Cela est d’autant plus étonnant au regard des objectifs stricts fixés par l’Union européenne en matière de réduction de gaz à effet de serre d’ici 2030. Au-delà de cet aspect, le transport ferroviaire pourrait avoir un impact fort sur le désenclavement des territoires, être un facilitateur des mobilités, dans un monde où les flux ne feront que s’accentuer.

      D’autres solutions s’offrent à nous. Face au libéralisme à toute épreuve, nous devons faire preuve de pragmatisme et penser de nouvelles réformes ambitieuses, au risque de voir le secteur ferroviaire s’effondrer. Pour répondre aux grands enjeux de notre temps (transition écologique, désenclavement des territoires, réduction du coût des transports pour les foyers, etc.) la France et l’Union européenne doivent changer de cap.

      https://www.editionsbdl.com/produit/la-revolution-ratee-du-transport-ferroviaire-au-21e-siecle

      #livre

  • La #Chine approuve un projet de #barrage géant au #Tibet

    Le barrage de #Motuo, dont les autorités chinoises viennent d’approuver la construction sur le haut plateau tibétain, aurait une capacité de 60 gigawatts, soit le triple du barrage des Trois-Gorges, actuellement le plus puissant du monde.

    Haut sur le plateau tibétain, là où le fleuve #Brahmapoutre s’appelle encore #Yarlung_Tsangpo, la Chine ambitionne de construire un imposant et complexe barrage, possiblement le plus puissant de la planète. L’agence #Chine_nouvelle a annoncé, mercredi 25 décembre, l’approbation par le gouvernement de ce projet évoqué depuis plusieurs années, un pas de plus dans la course chinoise à la construction de #retenues_hydroélectriques sur le haut des grands fleuves d’Asie.

    La Power Construction Corporation of China estimait dès 2020 que cet ouvrage, le #barrage_de_Motuo, pourrait avoir une capacité de 60 gigawatts, soit le triple du barrage des Trois-Gorges, actuellement le plus grand du monde. « Il s’agit d’une contribution majeure à la transition de la Chine à une #énergie_verte et bas carbone », faisait valoir, mercredi, l’agence officielle.

    Le fleuve prend sa source dans la région autonome du Tibet qu’il traverse d’ouest en est. Il forme le plus profond #canyon du monde, d’où l’intérêt de la Chine pour sa pression hydraulique, en particulier sur une section où il perd 2 000 mètres de dénivelé sur une distance de seulement 50 kilomètres. C’est là, alors que le fleuve effectue un virage majeur, que les ingénieurs chinois creuseraient des tunnels d’une vingtaine de kilomètres de long à travers une montagne, le sommet himalayen #Namcha_Barwa haut de 7 782 mètres, pour détourner la moitié du courant vers des turbines et retrouver le cours plus bas. Le fleuve, le plus haut du monde, pénètre ensuite en Inde dans l’Etat d’Arunachal_Pradesh dont une zone est contestée entre Pékin et Delhi, avant de traverser l’Assam et d’arriver au Bangladesh.

    Politique du fait accompli

    La Chine ne donne pas de calendrier précis ni de détails clairs sur le projet, un flou de communication qui n’est pas anodin. L’évocation du projet dès 2020 avait suscité de vives réactions de la part de l’#Inde s’inquiétant du contrôle chinois sur des eaux vitales pour le sous-continent indien. Pékin se garde donc d’en dire trop avant que ses chantiers ne soient bien avancés, pratiquant une politique du fait accompli.

    Ce projet n’en est qu’un parmi une longue série sur les fleuves prenant leur source sur le Toit du monde, à l’heure où la Chine, encore dépendante à un peu moins de 60 % du charbon pour sa production d’#électricité, accélère ses investissements dans les #énergies_renouvelables. « La Chine considère que l’#hydroélectricité issue de cette zone et transférée ensuite vers l’est du pays est un des moyens de réduire sa dépendance aux #énergies_fossiles, même si les populations locales s’en trouvent affectées », constate Amit Ranjan, un chercheur spécialisé dans la géopolitique des cours d’eau en Asie à l’université nationale de Singapour.

    Dans un rapport rendu public le 5 décembre, l’organisation de défense des Tibétains International Campaign for Tibet relève 193 barrages construits ou en projet dans les zones tibétaines sous contrôle chinois depuis l’an 2000, dont 80 % sont de grande ampleur. Avec des risques d’exposition aux séismes, aux glissements de terrain et aux inondations, une menace pour les écosystèmes et le débit des cours d’eau et des #déplacements_de_populations tibétaines des zones concernées.

    #Répression

    Championne de l’ingénierie et des infrastructures, la Chine envisage aujourd’hui des barrages dans des zones montagneuses plus hautes, plus reculées et plus complexes alors que ses projets passés, à l’image des Trois-Gorges, quoique massifs, étaient situés plus bas sur des fleuves tels que le Yangzi et le Mékong. « La Chine a accumulé beaucoup de savoir-faire et elle est désormais convaincue de sa capacité à lancer des projets qui par le passé ne paraissaient pas envisageables », explique Dechen Palmo, une experte des barrages chinois au Tibet Policy Institute, situé dans le nord de l’Inde.

    Cette accélération inquiète les Tibétains des régions concernées. Le 14 février, plusieurs centaines de résidents s’étaient rassemblés devant le siège du gouvernement local à Dege, une région tibétaine de la province du Sichuan, pour demander la suspension du chantier de barrage de 1 100 mégawatts de #Gangtuo (Kamtok en tibétain) sur la rivière #Jinsha. Il s’agit de l’une des treize retenues prévues sur ce cours d’eau, qui n’est autre que le haut #Yangzi. Plus de 4 000 personnes doivent être déplacées. Les locaux craignent la disparition d’au moins deux communes et de six monastères, dont celui de Wontoe avec ses fresques murales datant du XIIIe siècle.

    Sur les vidéos des mobilisations de début 2024, on voit des Tibétains s’agenouiller pour implorer les officiels de suspendre le chantier. Mais sur le plateau tibétain, l’expression d’inquiétude de la population, qui ailleurs en Chine pourrait être perçue comme légitime, sur l’environnement ou la situation des personnes affectées, n’est lue qu’au prisme de la sécurité nationale, donc vivement réprimée. Des centaines de personnes ont été détenues durant les semaines qui ont suivi. Dans une lettre adressée en juillet, plusieurs rapporteurs spéciaux des Nations unies sur les droits fondamentaux s’inquiétaient des violents coups subis au cours de ces détentions policières et de constater que tous les détenus n’avaient pas été libérés.

    https://www.lemonde.fr/planete/article/2024/12/27/la-chine-approuve-un-projet-de-barrage-geant-au-tibet_6469838_3244.html
    #barrage_hydro-électrique #transition_énergétique #résistance

  • Octopus_Energy : surfacturation de ma consommation

    Apparition d’un bonus sur la facture, au bout d’une année.
    #Curieux ! Octipus appelle cela une cagnotte.

    Donc, Octopus_Energy m’a sur facturé ma consommation (presque un mois de facturation) pour un an !
    A ce qu’il parait, c’est pour encourager ma légère baisse de consommation.

    Quelle qu’en soit l’explication fournie, je la trouve #inadmissible .
    Le blablabla sur l’électricité verte afin de justifier ce carottage est injustifiable.

    #énergie #France #électricité #facture

  • #Électricité, #eau, #minéraux, #CO2 : on a tenté de mesurer l’#empreinte_écologique de #ChatGPT

    GPT la planète ? L’#impact_environnemental de l’incontournable outil d’intelligence artificielle est souvent insoupçonné et sous-estimé, et risque bien d’empirer dans les années à venir. Décryptage.
    On peut l’utiliser pour tout : trouver des idées de repas, préparer un programme de sport, vérifier une info, mener une séance de thérapie gratuite… En deux ans, ChatGPT est devenu un outil du quotidien pour plus de 200 millions d’utilisateur·ices régulier·es. Mais l’essor de ce modèle d’intelligence artificielle (IA) générative, développé par l’entreprise américaine Open AI, va de pair avec une empreinte environnementale croissante.

    « ChatGPT n’est pas intrinsèquement écologique, mais son impact environnemental dépend de divers facteurs, comme l’énergie utilisée pour le faire fonctionner et la source de cette énergie. Bien que l’utilisation de ChatGPT ait une empreinte environnementale, des efforts sont en cours pour rendre ces systèmes plus durables », promet l’outil quand on l’interroge sur le sujet.

    Malgré tous les efforts des expert·es du secteur, cette empreinte demeure très compliquée à estimer. La faute à des modèles qui évoluent très vite et rendent caduques les estimations, ainsi qu’à des effets volontairement sous-documentés par les entreprises du secteur. « Le problème principal, c’est qu’il n’y a aucune transparence des acteurs sur le sujet », relève Lou Welgryn, spécialiste de l’IA et coprésidente de l’association Data for good, qui cherche à mettre la tech au service du climat.
    Une consommation électrique qui monte en flèche

    L’impact énergétique est le plus évident et varie selon la source d’électricité utilisée pour alimenter les centres de données – cela n’aura pas les mêmes conséquences en France, où l’électricité est majoritairement décarbonée, qu’aux États-Unis, où elle est encore fortement alimentée par les fossiles.

    L’intelligence artificielle représente environ 10 à 20% de l’électricité utilisée dans les centres de données, un pourcentage qui pourrait grandir tous les ans de quelque 70% dans les prochaines années. D’ici à 2027, l’IA générative pourrait utiliser autant d’électricité que l’Espagne en 2022, anticipe la banque américaine Morgan Stanley dans une étude (https://vert.eco/wp-content/uploads/2024/11/MSNA20231222338642.pdf).

    Des modèles assoiffés

    Les programmes d’intelligence artificielle sont très gourmands en eau pour produire les composants des serveurs qui font tourner les modèles, mais aussi pour les refroidir. ChatGPT ne fait pas exception : en 2023, une étude américaine a estimé que le modèle ChatGPT-3 consomme 500 millilitres d’eau pour quelques dizaines de requêtes – un chiffre sûrement déjà obsolète depuis le passage à ChatGPT-4, encore plus avide en eau. Et si l’on pense au nombre de requêtes réalisées au quotidien, les calculs deviennent vite vertigineux.
    Des besoins en minéraux

    Comme tous les usages du numérique, l’intelligence artificielle nécessite des composants fabriqués à partir de minéraux (cuivre, lithium, cobalt, etc.). L’extraction de ces minéraux entraîne son lot de conséquences (pollution de l’eau, déforestation, violation de droits humains, etc.) dans les pays concernés. Autant de matériaux qui ne pourront pas être utilisés dans des secteurs critiques de la transition, comme la fabrication de voitures électriques ou la production d’énergies renouvelables.
    Une empreinte carbone de plus en plus conséquente

    Pour se faire une idée de l’empreinte carbone de ChatGPT, nous nous sommes basés sur un comparateur créé par l’association Gen AI impact et l’application Ecologits. Une courte conversation (quelques interactions) avec le dernier modèle de ChatGPT émet environ 0,27 kilogramme d’équivalent CO2 (eqCO2), soit près d’une tonne de CO2 par an pour dix échanges par jour. C’est la moitié de ce que l’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.

    À rebours de ce que l’on pourrait penser, on note une aggravation de l’impact avec l’évolution des modèles, toujours plus émetteurs en CO2 et demandeurs en eau et en électricité. Un échange rapide avec ChatGPT-4 émet cent fois plus de CO2 que le modèle précédent (ChatGPT-3,5). Or, lorsque ChatGPT-4 a été développé, les abonné·es payant·es du programme sont automatiquement passé·es à cette nouvelle version. « Quand Open AI décide d’un coup de basculer des millions d’utilisateurs sur la version ChatGPT-4, on a un effet rebond absolument effrayant », souligne Lou Welgryn.
    Problème : un usage normalisé au quotidien

    ChatGPT s’est si profondément ancré dans les habitudes des internautes qu’elles et ils sont nombreux·ses à le préférer à Google. Un choix qui n’est pas anodin, puisqu’une requête sur ChatGPT utilise entre six et dix fois plus d’énergie qu’une recherche traditionnelle sur internet, d’après de récentes projections.

    « La question n’est pas tant le nombre d’utilisateurs que le nombre de requêtes réalisées au quotidien. Or, les gens se mettent à utiliser ChatGPT plutôt que Google pour la moindre demande. On prend l’habitude d’avoir recours à une solution compliquée pour une requête simple », décrypte Amélie Cordier, spécialiste de l’IA et fondatrice de Graine d’IA, qui accompagne les entreprises pour un usage responsable de l’intelligence artificielle. « Alors certes, c’est très marrant de lui demander de réciter la météo à la manière de Shakespeare, mais ça ne sert à rien », balaie l’experte.

    « Si les utilisateurs avaient conscience de l’impact concret de leurs requêtes, ils se serviraient sûrement bien différemment de ChatGPT », veut-elle croire. Malheureusement, il est d’autant plus complexe pour les utilisateurs de s’en rendre compte que ces impacts sont complètement invisibles pour ces derniers. « Il est difficile de comprendre l’étendue des impacts environnementaux de l’IA compte tenu de la distance entre là où vous l’utilisez et là où cette interaction a été générée. La plupart du temps, les modèles tournent via des centres de données situés très loin de leurs utilisateurs », explique Sasha Luccioni, informaticienne et chercheuse experte de l’intelligence artificielle, dans un article très complet sur l’empreinte écologique de l’IA.
    Conflits d’usage et renoncements

    « On estime que la demande d’électricité liée à l’IA va être multipliée par deux d’ici à 2030. Le problème, c’est que cela croît plus vite que notre capacité à développer des énergies renouvelables », soulève Lou Welgryn de Data for good. Au risque de générer des conflits d’usage critiques, et de ralentir la nécessaire transition énergétique. L’électrification des usages aujourd’hui dépendants des énergies fossiles (comme le chauffage, les transports, etc.) est un levier incontournable pour permettre à la France d’atteindre la neutralité carbone en 2050 – c’est-à-dire l’équilibre entre le carbone émis et celui qui est absorbé. « Les Big Tech peuvent-elles décider d’utiliser de l’électricité propre pour verdir leur bilan carbone, tandis que le reste du monde doit utiliser des énergies carbonées ? », interroge Lou Welgryn.

    La croissance du secteur de l’IA est tellement effrénée qu’elle met déjà à mal les ambitions climatiques de géants de la tech, comme Google ou Microsoft. Les émissions de CO2 de Microsoft ont bondi de 30% entre 2020 et 2024, et ce, alors que l’entreprise américaine s’est engagée à atteindre la neutralité carbone dès 2030. Chez Google, ce saut dans les émissions s’est élevé à 48% entre 2019 et 2023. Dans les deux cas, l’essor de l’IA et sa place grandissante dans les centres de données sont en cause.
    L’IA, un outil « qui dope notre monde carboné »

    En matière d’IA, il y a le modèle mais aussi ce qu’il permet de produire. Par exemple, il peut aider des entreprises fossiles à accélérer la production de secteurs polluants (le textile, la tech, etc.). Or, cet élément est quasiment impossible à prendre en compte lorsque l’on calcule l’impact de ces outils. « L’intelligence artificielle dope notre monde carboné, nous rend plus productifs. Et il faut dire les choses clairement : devenir plus efficace dans un monde carboné, ça crée juste plus de carbone », résume Lou Welgryn.

    Bien sûr, l’intelligence artificielle peut aussi être un outil très utile pour l’environnement : elle peut améliorer la modélisation climatique, optimiser l’usage des ressources, détecter des fuites de méthane et globalement réduire les émissions de gaz à effet de serre de certaines activités. Elle peut aussi favoriser la connaissance citoyenne sur ces sujets via un outil comme « Climate Q&A », qui permet d’interroger les rapports scientifiques sur le climat (notre article).
    Un DPE de l’intelligence artificielle ?

    Mais la question se pose moins avec ChatGPT, qui est un produit d’appel majoritairement destiné aux particulier·es. D’autant plus que les modèles généralistes « fourre-tout » comme ChatGPT sont peu efficients d’un point de vue énergétique : ils ont été entraînés avec un nombre incalculable de données – un processus long et polluant. « Si on veut utiliser l’IA générative pour explorer des articles scientifiques de médecine, on n’a a priori pas besoin d’un modèle qui dispose par ailleurs de connaissances approfondies sur la pêche à la mouche », illustre la spécialiste.

    Elle suggère d’instaurer une sorte de « DPE » [diagnostic de performance énergétique, utilisé pour classer les bâtiments et logements selon leur impact écologique, NDLR] des différents modèles d’IA : « Cela serait une vraie révolution qui forcerait les entreprises du secteur à s’améliorer et qui nous aiderait en tant qu’utilisateur à faire des choix plus pertinents ». Et ainsi peut-être utiliser l’intelligence artificielle générative pour des usages plus vertueux que simplement connaître la météo du coin.

    https://vert.eco/articles/electricite-eau-mineraux-co2-on-a-tente-de-mesurer-lempreinte-ecologique-de-ch
    #IA #intelligence_artificielle #impact

  • Malgré le déploiement de Linky, les fraudes aux compteurs électriques explosent
    https://www.latribune.fr/climat/energie-environnement/malgre-le-deploiement-de-linky-les-fraudes-aux-compteurs-electriques-explo

    « Avant 2014 et le déploiement des compteurs Linky, les PNT [pertes non techniques] représentaient de l’ordre de 12 térawattheures. Un des objectifs du déploiement de #Linky visait à réduire ces PNT de 3 TWh sur la période 2021-2024. Depuis, les pertes ont diminué de l’ordre de 1 TWh à fin 2021 (source CRE). Mais la tendance s’est inversée courant 2023 sous l’effet d’une recrudescence des fraudes », complète #Enedis dans un mail adressé à La Tribune. Ainsi depuis 2022, « 150.000 compteurs ayant fait l’objet d’une intervention frauduleuse ont été identifiés de façon quasi-certaine », relève le rapport de la Cour des comptes.

    Des offres clefs en main promues sur les réseaux sociaux

    Comment expliquer ce boom ? Sur le principe, les compteurs jaunes fluos étaient censés décourager les auteurs de ces pratiques grâce à une détection plus rapide et facile des actes frauduleux, entraînant systématiquement, dans les cas avérés, un signalement au procureur et un dépôt de plainte. Mais cet avantage reste « difficile à constater », pointent les magistrats du palais Cambon, car largement contrebalancé par un contexte de hausse des prix de l’électricité conduisant à un accroissement de « l’intérêt à frauder en France », explique l’institution financière. Un phénomène également constaté dans d’autres pays européens. Selon Enedis, cette pratique s’est même structurée avec l’apparition sur les réseaux sociaux, principalement sur Snapchat, TikTok, Facebook et Instagram, de différentes offres clés en main proposant de mettre en place ces dispositifs frauduleux.

    « Il s’agit principalement d’effectuer une #dérivation sur le tableau électrique, contournant ainsi le compteur de manière à ce qu’il ne puisse plus détecter tout ou partie de la consommation de leurs appareils électriques. C’est un acte dangereux et illégal. Les principaux dangers incluent les risques d’électrocution et d’électrisation », rappelle le gestionnaire.

    #zouiller_le_compteur #électricité #dérivation_amont

    • Zouiller, c’est sans doute une expression en perte de vitesse. Ce qui est notable ici, c’est que loin du DIY, il s’agit semble-t-il de prestations tarifées (un peu comme de payer l’accès à un squat, chose glauque au possible).
      Il est vrai que les méthodes anciennes, déplomber et bloquer le compteur en le replombant lors des relevés après l’avoir laissé tourner suffisamment pour que ce soit crédible, utiliser un aimant pour ralentir la roue, demandaient peu de technicité, et/ou un minimum de socialisation, pas toujours accessible malgré les brochures réalisées en ce sens.
      Poser une dérivation sur l’alimentation en amont du compteur, cela s’est toujours fait, mais cela demande des précautions indispensables pour ne pas s’électrocuter. D’où un possible marché pour la réalisation de la bricole.
      J’ai ni cherché ni regardé les offres, mais elles supposeraient pour être efficaces une formation des clients afin qu’ils sachent brancher/débrancher le compteur, car l’absence de conso relevée est une (quasi) preuve de détournement, avec emmerdes à la clé.

  • #Suisse : Faillite de Prime Energy : entre la fausse promesse « 100% vert » et la rémunération de bertrand piccard RTS

    Alors que des centaines d’épargnants romands avaient été séduits par l’investissement dans le photovoltaïque promis par l’entreprise PrimeEnergy, aujourd’hui en faillite, Mise au Point révèle qu’un sixième de leur argent serait en fait allé dans l’immobilier. L’émission lève aussi le voile sur la rémunération de bertrand piccard, ambassadeur de l’entreprise pendant près de dix ans. Un montant de 100’000 francs par an était prévu, ainsi que des parts dans la société.

    La faillite a frappé comme un éclair dans un ciel a priori sans nuages. Depuis 2011, PrimeEnergy Cleantech (PEC) avait tout de la « success story ». Son credo : des énergies renouvelables crédibles, fiables et rentables. Elle vendait des obligations vertes aux particuliers pour financer l’installation de centrales photovoltaïques en Suisse et en Europe.


    Au total, elle a récolté quelque 122 millions de francs auprès d’environ 2000 investisseurs et investisseuses, principalement en Suisse romande, certains plaçant une bonne partie de leur retraite dans la société, notamment rassurés par la présence de bertrand piccard dans l’aventure, et le label décerné par sa fondation, Solar Impulse.
    Mais en octobre, contre toute attente, les dividendes ne tombent plus. La direction de l’entreprise informe ses clients et clientes d’une crise de liquidités. Une procédure de faillite est ouverte, menaçant d’emporter avec elle les économies des investisseurs.
    . . . . . .
    Source et suite : https://www.rts.ch/info/economie/2024/article/faillite-de-prime-energy-entre-la-fausse-promesse-100-vert-et-la-remuneration-de

    #bertrand_piccard #électricité #énergie #renouvelables #prime_énergy #PrimeEnergy #investissements #argent #solar_impulse

  • $221 million in electricity damage
    https://al-akhbar.com/Politics/387731

    $221 million in electricity damage

    Direct damage occurred to 15 main transformer stations out of 65, or 23% of the stations.

    #destruction de stations de transformation, plusieurs régions sans #électricité, pertes dans la collecte... même si les forces israéliennes ont moins systématiquement visé les infrastructures électriques qu’en 2006 sont néanmoins importants et leur réparation sera longue et couteuse, pour un pays où la situation sous cet angle était déjà catastrophique

  • Autoconsommation collective d’électricité et #justice énergétique : des usagers vulnérabilisés ?
    https://metropolitiques.eu/Autoconsommation-collective-d-electricite-et-justice-energetique-des

    Le développement de l’autoconsommation collective d’électricité véhicule l’image d’un consommateur doté d’une plus grande capacité d’actions. L’article montre que, du fait des zones d’ombre laissées par le #droit, cette plus grande liberté d’action peut aller à l’encontre de la #justice_énergétique. L’atténuation du changement climatique commande le recours aux sources d’énergie renouvelables et de récupération (ENR&R). Présentes sur l’ensemble du territoire, elles permettent une maîtrise locale et #Essais

    / justice, justice énergétique, #Europe, droit, #consommation, électricité, #énergie

    #électricité
    https://metropolitiques.eu/IMG/pdf/met-lormeteau.pdf

  • Toute la Guadeloupe privée d’électricité en raison d’un « incident électrique généralisé », annonce EDF
    https://www.lemonde.fr/outre-mer/article/2024/10/25/toute-la-guadeloupe-privee-d-electricite-en-raison-d-un-incident-electrique-

    « On ne sait pas combien de temps le démarrage va prendre », a précisé EDF, vendredi, dans un contexte de conflit social opposant la branche énergie de la CGTG et la direction d’EDF Production électrique insulaire (PEI).

  • Petite révolution au Royaume-Uni : le train va redevenir public
    https://reporterre.net/Le-Royaume-Uni-veut-renationaliser-ses-trains

    Quelques semaines après l’annonce :

    Le Royaume-Uni nationalise l’opérateur de son réseau électrique
    https://www.francetvinfo.fr/monde/royaume-uni/le-royaume-uni-nationalise-l-operateur-de-son-reseau-electrique_6779920

    Tout ça reste modeste mais bon, on dirait que les britanniques suivent un cap depuis le brexit...

  • Compteurs Linky : désinformation orchestrée par l’AFP et reprise par de trop nombreux médias
    http://refus.linky.gazpar.free.fr/refus-linky-pas-amendes.htm

    Contrairement à une rumeur qui circule ces derniers jours et qui a été évoquée par divers médias, les citoyens lucides et courageux qui persistent à refuser les compteurs communicants #Linky - il reste près de 4 millions de compteurs ordinaires en service en France ! - vont continuer à rester parfaitement dans la légalité et ne vont en aucun cas « payer des amendes ».
     
    Simplement, comme prévu par une directive de la Commission de régulation de l’énergie (CRE) dès mars 2016, les gens non dotés d’un Linky pourraient se voir appliquer à partir de la mi-2025 (date évoquée dans les courriers d’Enedis) une simple facturation - et non une amende - en vue de financer la relève visuelle de leur consommation, dite aussi « relève à pied ». En effet, alors que les compteurs Linky envoient automatiquement l’index par les fils électriques, il reste nécessaire de visualiser la consommation sur les compteurs ordinaires.
     
    Notons déjà que la concrétisation de cette facturation est très incertaine dans la mesure où, pour pouvoir l’appliquer, Enedis va devoir effectuer réellement les dites relèves visuelles et, pour ce faire, rembaucher du personnel. Or, le #licenciement de tous les #releveurs, effectif à ce jour, était un des principaux objectifs du programme Linky afin d’améliorer la rentabilité d’Enedis (seule filiale d’EDF à gagner de l’argent) pour en préparer la privatisation, projet délétère que la macronie n’a bien heureusement pas pu mettre en œuvre à ce jour.
     
    Les gens qui refusent le Linky ne le font pas seulement pour protéger leurs libertés (les Linky étant de véritables « mouchards à domicile ») et leur sécurité (incendies, ondes, etc), ils agissent aussi en faveur de l’emploi et pour la perpétuation des valeurs du service public, sérieusement mises à mal par les politiques libérales du gouvernement et des dirigeants d’Enedis.
     
    Par ailleurs, à supposer que la dite facturation prenne réalité, il est notable que son montant - 64 euros par an - reste très inférieur aux brutales augmentations de factures et d’abonnements subies par des millions de ménages suite à la pose des compteurs Linky. Même en payant cette facturation, la grande majorité des « sans-Linky » resteront largement gagnant.
     
    Pour finir, nous rappellerons le véritable matraquage de désinformation infligé aux citoyens par les dirigeants politiques et industriels pendant des années suivant le lancement du programme Linky en décembre 2015 : prétendus « intelligents », ces compteurs devaient en particulier permettre aux citoyens de « faire des économies » et de « maitriser leur consommation ». Une véritable blague.
     
    Outres de brutales « factures de rattrapage » infligées à la pose des Linky, chacun a pu constater que les factures et abonnements n’ont cessé d’augmenter. D’autre part, par le biais de décrets gouvernementaux, c’est au contraire #Enedis et le gouvernement qui peuvent désormais prendre la main sur la consommation des citoyens « Linkysés », en particulier en leur coupant l’#électricité à distance. Seuls les « sans-Linky » restent à l’abri de ces déconvenues.

    Non, nous n’avons pas à payer
    9,04 euros tous les deux mois !
    http://refus.linky.gazpar.free.fr/menace-facturation.htm

    2) Vous pouvez facilement faire vos auto-relèves chez Enedis, au choix :
    – sur le site web d’Enedis : https://www.enedis.fr/faire-le-releve-en-ligne
    – par téléphone au 0970 831 970 (du lundi au vendredi de 8h à 17h)
    On peut recommander de le faire deux fois par an, mais vous pouvez aussi le faire plus souvent si ça vous chante...
    N’oubliez pas de télécharger la preuve (en pdf) de votre autorelève, et de la classer soigneusement pour la retrouver si nécessaire.

    http://refus.linky.gazpar.free.fr

    #compteurs_communicants #désinformation