• Marseille : la ruée vers l’or numérique écrase l’opposition locale

    Après une dizaine de #data_centers en autant d’années, #Marseille sature. Les projets se tournent alors vers l’arrière-pays avec une taille toujours plus importante. Dans un contexte politique très favorable, difficile pour les opposants de faire bouger les lignes.

    https://synthmedia.fr/politiques/marseille-la-ruee-vers-lor-numerique-ecrase-lopposition-locale

    Un schéma classique dans la région : déplacer ce qui pollue, au nord-ouest, vers l’étang de Berre.

    #nuisances
    #numérique

  • Carte des data centers, des projets et des contestations en France

    Nous publions une carte participative répertoriant les data centers existants, les projets et les oppositions qui s’organisent en France autour de ces infrastructures. Notre objectif est de favoriser l’émergence ou la consolidation de contestations partout où ces bases du numérique dominant se prévoient.
    Nous avons cartographié 348 data centers déjà existants et 45 data centers actuellement en cours de déploiement à travers la France : 27 annoncés, 11 en cours d’instruction par les services de l’état et 8 en cours de construction.
    À cela il faut ajouter les 63 sites « clés-en-main » proposés par le gouvernement aux industriels de la tech pour faciliter l’implantation et la construction de nouveaux data centers - dont seulement 26 localisations précises sont publiques à ce jour. #RTE et #EDF mettent également 8 sites à disposition des promoteurs avec des procédures de raccordement électrique accéléré.
    Il est important de noter que le nombre de data centers ne permet pas de se faire une idée adéquate de l’accroissement des infrastructures. Les technologies impliquées sont en forte mutation, et la consommation énergétique des data centers ou le nombre de serveurs qu’ils abritent donne une indication plus ajustée des évolutions du secteur. Ainsi, les data centers actuels peuvent avoir une consommation énergétique jusqu’à plusieurs milliers de fois plus importante que les data centers historiques. Et les serveurs qu’ils abritent sont toujours plus nombreux et intenses en technologies.
    Nous avons recensés une quinzaine d’oppositions locales à ces déploiements, menées par des collectifs, des individus ou des associations.

    https://lenuageetaitsousnospieds.org/articles/2025-12-11-carte-des-data-centers-des-projets-et-des-conte
    La carte :
    https://umap.openstreetmap.fr/fr/map/carte-des-data-centers-des-projets-et-des-contesta_1289485?scaleControl=false&miniMap=false&scrollWheelZoom=true&zoomControl=true&editMode=disabled&moreControl=true&searchControl=null&tilelayersControl=null&embedControl=null&datalayersControl=true&onLoadPanel=none&captionBar=false&captionMenus=true#6/47.747/2.593

    #cartographie #visualisation #data_centers #France #localisation #centres_de_données #cartographie_participative #résistance #infrastructure

    • Data centers : une carte exclusive des sites en projet

      La France se rêve en Eldorado de l’intelligence artificielle, mais les centres de données qu’elle attire ont un impact important. Un collectif marseillais publie la carte inédite de ces projets XXL et des oppositions locales.

      Au Bourget, un centre de données de 35 000 m² pourrait bientôt consommer le double de l’électricité de toute la ville. En Alsace, ce sont 35 hectares de terres agricoles, dont 11 cultivés en bio qui vont être bétonnés pour faire tourner des serveurs Microsoft.

      Les centres de données dédiés à l’intelligence artificielle sont des projets industriels d’un genre nouveau, encore largement méconnus malgré leur croissance rapide partout en France.

      Le collectif marseillais Le nuage était sous nos pieds, qui lutte contre les impacts sociaux, écologiques et politiques des infrastructures du numérique, a identifié 348 data centers existants et 45 data centers actuellement en cours de déploiement à travers la France : 26 annoncés, 11 en cours d’instruction par les services de l’État et 8 en cours de construction.

      Ce travail de cartographie, qui a nécessité de croiser les différentes sources ouvertes (communiqués de presse, cadastre, documents légaux déposés lors des enquêtes publiques), n’avait jamais été fait avec ce niveau de détail.
      Des centres de plus en plus voraces en électricité

      Ce n’est pourtant pas la communication qui manque autour de ces projets présentés comme une aubaine pour l’attractivité et la souveraineté de la France. Le gouvernement déploie des efforts importants pour attirer sur son sol la nouvelle génération de centres de données, appelés « hyperscales », de plus en plus gros et de plus en plus voraces en électricité.

      Un article de la loi simplification de la vie économique, en attente d’un vote définitif au parlement, prévoit ainsi d’accélérer les délais des enquêtes publiques et de sortir les centres de données de la comptabilisation des surfaces artificialisées, en leur attribuant d’office le statut de projets d’intérêt national majeur.

      63 sites favorables à l’implantation de centres de données ont également été identifiés par le gouvernement. Pour accélérer le raccordement au réseau électrique, qui peut prendre plusieurs années, certains seront livrés « clé en main » — c’est-à-dire déjà branchés — aux géants de l’informatique (en orange sur la carte).
      1,7 fois la consommation électrique de la France

      Mais cette abondante communication s’accompagne d’une forte opacité sur les détails et l’implantation précise de ces infrastructures XXL. Pour 37 des centres « clé en main », le gouvernement continue de tenir leur localisation secrète, dénonce le Nuage était sous nos pieds.

      Leur impact n’est pourtant pas négligeable. Alimenter et refroidir les serveurs nécessitent beaucoup d’électricité. « Les centres de données sont parmi les infrastructures les plus concentrées spatialement et intensives énergétiquement », écrit l’agence de la transition écologique (Ademe) dans une étude publiée le 6 janvier à ce sujet.

      L’intelligence artificielle consomme déjà dans le monde autant d’énergie que la Bretagne et pourrait avoir besoin, dans à peine cinq ans, d’une quantité d’électricité équivalente à 1,7 fois celle de la France.

      « Il n’est plus rare de recevoir des demandes à hauteur de 100 à 200 MW, soit une fourchette équivalente à celle de la consommation électrique entre la ville de Rouen et la ville de Bordeaux », écrivait RTE, le gestionnaire du réseau électrique, en mai. Les demandes de raccordement reçues par l’organisme représentent une puissance équivalente à 7 réacteurs nucléaires (9 GW).
      Une énergie captée aux dépens de la transition

      « Si rien n’est fait, la consommation électrique des centres de données pourrait être multipliée par 3,7 en France d’ici 2035 et multipliée par 4,4 si on tient compte de leur consommation importée pour répondre aux usages des Français », écrit l’Ademe dans son étude. La consommation pourrait même être 10 fois supérieure à aujourd’hui en 2050 [1].

      Pour l’heure, l’électricité est abondante en France. Les besoins n’ont pas augmenté aussi vite que prévu, à cause du retard pris par la transition des énergies fossiles vers l’électricité dans le domaine des transports, du chauffage résidentiel ou l’industrie.

      Mais l’IA risque de capter une grande partie de l’électricité nécessaire à la transition énergétique. « Les trois data centers installés dans le grand port de Marseille utilisent l’électricité qui aurait pu servir à l’électrification des navires de croisière à quai et aux bus électriques », dénonce le collectif Le Nuage était sous nos pieds.

      L’autre enjeu qui a fait naître localement plusieurs mobilisations, c’est la taille de ces centres et la bétonisation des sols qu’ils engendrent. Ils s’installent en périphérie des villes, là où le foncier est peu cher. Ils privilégient les anciens sites industriels en reconversion, car ils sont déjà raccordés au réseau électrique. Mais les 26 sites « clés en main » dont la localisation a été révélée par les médias Contexte et Politico en juin 2025 « couvrent plus de 1 100 hectares répartis à travers la France, dont 827 hectares sur lesquels il n’y a pas encore de construction », écrit le collectif.

      Les mouvements d’oppositions se forment localement en coalition, autour de France Nature Environnement, du Mouvement national de lutte pour l’environnement, de riverains, élus ou associations écologistes.

      « Il y a différents types de luttes, parce qu’on peut s’emparer du problème sous différents angles. Certaines associations s’inquiètent de l’impact territorial direct des data centers, d’autres dénoncent leur consommation en eau ou le risque de pollution atmosphérique. D’autres encore s’en saisissent pour ce qu’ils représentent, les usages qu’ils permettent ou l’extractivisme minier induit par la construction de serveurs », explique Max, du Nuage était sous nos pieds.

      Le collectif dénonce des « infrastructures de la domination, au service de puissances impérialistes ». L’IA est financée et développée par un petit nombre d’entreprises privées, les seules suffisamment armées financièrement pour construire ces gigantesques usines à serveurs informatiques.

      « Ce sont les débuts d’une industrie. Il y a beaucoup de laisser-faire et aucun réel débat, même si l’explosion des besoins en électricité rend désormais visibles les enjeux. Il y a urgence à réagir car les choses vont très vite », dit le collectif à Reporterre.

      Parmi les cinq scénarios étudiés par l’Ademe, l’un vise à imaginer ce que seraient des « politiques publiques de rupture » capables de faire baisser la consommation des centres en France d’ici à 2050.

      Elles consisteraient, selon l’agence, à réserver l’intelligence artificielle à des domaines critiques comme la santé, le climat, la défense ou la recherche ; revenir à « une numérisation raisonnée » grâce à des alternatives basses technologies (comme les guichets physiques pour les démarches administratives ou une mutualisation du matériel informatique). Mais aussi à une réduction des écrans publicitaires et des réseaux sociaux et à un moratoire sur la construction de centres de données.

      https://reporterre.net/Un-data-center-construit-pres-de-chez-vous-La-reponse-en-carte

  • Comment l’#IA dévore la planète

    L’incroyable essor de l’intelligence artificielle, technologie particulièrement vorace en énergie, en eau et en terres rares, interroge à l’heure où les géants du secteur sont lancés dans une course au gigantisme.

    Derrière les réponses presque magiques de ChatGPT, les vidéos imaginaires sans limites de Sora ou les images synthétiques bluffantes de Grok ou Gemini, l’intelligence artificielle (IA) a une empreinte bien réelle sur le monde. Dans une industrie du numérique énergivore, cette technologie se distingue par l’intensité de la puissance de calcul qu’elle nécessite pour chaque requête. Cela se reflète dans l’explosion inédite des investissements des géants de l’IA dans les data centers : 620 milliards de dollars (529 milliards d’euros) en 2026, selon la banque Morgan Stanley, soit déjà près de quatre fois plus qu’en 2023.
    Cette course au gigantisme – Meta a ainsi un projet de data center grand comme la moitié de l’île de Manhattan et puissant comme cinq réacteurs nucléaires – a de nombreux impacts tout au long de la chaîne de valeur de l’IA.
    Cette absorption de ressources fait craindre des pénuries ou des conflits d’usage locaux avec d’autres besoins essentiels tels que l’agriculture, l’électrification des transports ou de l’industrie. L’IA doit-elle donc être développée à tout prix ? Il convient de la piloter « avec sobriété », en choisissant « le juste niveau de technologie au service d’un besoin réel », met en garde l’Agence de la transition écologique (Ademe) dans une étude publiée début novembre. Et le 8 décembre, plus de 230 ONG ont demandé un moratoire sur la construction de nouveaux centres de données aux Etats-Unis.

    Pour évaluer l’impact sur la planète de ces cartes,des chercheurs ont démantelé et broyé l’une des plus utilisées au monde, la Nvidia A100. Ils y ont trouvé plus d’une vingtaine de métaux différents, dont des terres rares.

    L’essor de l’IA donne un coup de fouet à l’industrie des semi-conducteurs, qui pourrait doubler en cinq ans. Le marché des GPU et autres puces destinées à l’IA domine la croissance et devrait dépasser les 280 milliards de dollars d’ici à 2029.

    Or, ce secteur est gourmand en eau, énergie, métaux et produits chimiques. Et ce alors que, pour augmenter la puissance de calcul, les éléments de base doivent être de plus en plus petits, et donc de plus en plus purs, ce qui nécessite l’utilisation de toujours plus de produits toxiques.

    Dans les usines du taïwanais TSMC, plus important industriel du secteur, la production d’un seul « wafer » de 12 pouces, où sont gravées les puces, requiert plus de 7 000 litres d’eau. Le groupe – qui indique recycler 88 % de l’eau qu’il utilise – en fabrique l’équivalent de 16 millions par an.

    Artificialisation des sols
    L’expansion de l’IA nourrit une croissance inédite des dépenses dans les data centers : les géants du secteur, d’OpenAI à Meta, en passant par Google, Amazon ou Microsoft, vont investir 470 milliards de dollars dans ces infrastructures en 2025 et même 620 milliards en 2026, selon la banque Morgan Stanley. Soit près de quatre fois plus qu’en 2023.

    Il n’existe pas de recensement mondial du nombre de kilomètres carrés aujourd’hui occupés par les data centers. Mais, aux Etats-Unis, les montants investis dans la construction de ces infrastructures sont sur le point de dépasser ceux des bureaux traditionnels.

    Et d’immenses chantiers ont été lancés : Stargate, d’OpenAI, situé dans la petite ville d’Abilene, au Texas, comptera huit bâtiments sur une zone de près de 4,5 kilomètres carrés – plus vaste que Central Park à New York. Le patron de Meta, Mark Zuckerberg, a annoncé que le méga data center Hyperion, prévu en Louisiane, pourrait couvrir l’équivalent d’« une partie importante de la superficie de Manhattan ».

    En France, le gouvernement a annoncé avoir identifié 35 sites « favorables » à l’installation de centres de données pour un total de 12 km² – soit 1 680 terrains de foot.

    Consommation d’électricité
    Cette course au gigantisme s’illustre par leur puissance électrique exponentielle. Les plus gros sites en construction prévoient désormais d’égaler ou de dépasser une capacité électrique de 1 gigawatt (GW). Soit environ l’équivalent de la puissance d’un réacteur nucléaire.
    Et les objectifs sont encore plus démesurés : xAI sera « le premier à mettre en fonctionnement 10 GW, 100 GW, 1 TW [térawatt]… », a affirmé sur X Elon Musk, en septembre.

    L’augmentation de la puissance installée des data centers devrait en conséquence faire bondir leur consommation électrique annuelle liée à leur utilisation. Celle-ci pourrait tripler d’ici à 2030.

    Pour le moment, l’électricité alimentant les data centers ne représente qu’environ 1,5 % de la consommation mondiale, selon l’AIE. Mais aux Etats-Unis, cette part pourrait passer de 4,4 % à entre 7 % et 12 % en 2028, selon le ministère de l’énergie américain. En Europe, les data centers pourraient peser 7,5 % de la consommation électrique d’ici à 2035, contre 2,5 % aujourd’hui, selon le Shift Project, le cercle de réflexion présidé par Jean-Marc Jancovici.

    Consommation d’eau
    L’IA n’est pas seulement vorace en énergie, elle est aussi insatiable en eau. En 2023, les prélèvements associés aux centres de données auraient déjà dépassé les 5 000 milliards de litres, selon les calculs de l’Agence internationale de l’énergie (AIE). Soit l’équivalent de toute l’eau potable puisée en France en une année.

    Une partie de cette eau est recyclée, c’est pourquoi la part réellement consommée – notamment en raison de l’évaporation – représente environ 560 milliards de litres.

    A l’avenir, l’AIE s’attend à ce que la consommation d’eau associée aux centres de données soit multipliée par deux d’ici à 2030, pour atteindre environ 1 200 milliards de litres par an.
    Les conséquences d’un même prélèvement sur les nappes et les rivières varient selon les territoires. A titre d’exemple, 14 % de l’eau utilisée par Google viennent de zones à risque « élevé » de pénurie, selon les documents de l’entreprise.

    Emissions de CO2
    Aujourd’hui, l’électricité des data centers provient pour plus de la moitié d’énergie carbonée.

    La croissance des émissions de gaz à effet de serre des data centers devrait doubler, voire tripler, selon les scénarios établis par le Shift Project.

    Les data centers, dont une partie sert à l’IA, émettent plus de gaz à effet de serre que la France : 369 millions de tonnes en équivalent CO₂, en 2024, selon le ministère de la transition écologique.

    https://www.lemonde.fr/economie/article/2025/12/26/comment-l-ia-devore-la-planete_6659449_3234.html
    #AI #visualisation #statistiques #extractivisme #eau #énergie #terres_rares #ChatGPT #Sora #Gemini #Grok #empreinte #puissance_de_calcul #data_centers #centres_de_données #investissements #Meta #ressources #conflits #pénurie #extractivisme #mines #cartes_graphiques #GPU #graphics_processing_unit #serveurs #impact #Nvidia_A100 #métaux #semi-conducteurs #puces #produits_chimiques #toxicité #TSMC #wafer #artificialisation_des_sols #OpenAI #Google #Amazon #Microsoft #chiffres #statistiques #Stargate #Abilene #Texas #Hyperion #France #CO2 #gaz_à_effet_de_serre #infographie

  • IA : data centers vs climat ?

    L’IA jouera-t-elle un rôle crucial dans la lutte contre le dérèglement climatique comme l’assurent les géants de la tech ? Plusieurs rapports soulignent au contraire le poids insoutenable de la trajectoire actuelle de hausse de la #consommation_électrique des data centers. Derrière des promesses de pratiques durables, les besoins énergétiques colossaux de ces #infrastructures sont en train de bouleverser les stratégies de #transition_énergétique.

    https://www.arte.tv/fr/videos/121620-111-A/ia-data-centers-vs-climat
    #énergie

    #centres_de_données #data_centers #IA #AI #intelligence_artificielle #climat #changement_climatique #film #vidéo #documentaire

  • Le Département et la Région suspendent leur coopération avec le Mucem à Marseille
    Par Victor Tillet | Publié le 12/12/25
    https://www.laprovence.com/article/culture-loisirs/16297158671168/le-departement-et-la-region-suspendent-leur-cooperation-avec-le-mucem-a-

    Dénonçant respectivement « l’importation du conflit » israélo-palestinien et « le diktat antisémite », Martine Vassal et Renaud Muselier ont annoncé sur X cette décision. Elle fait suite à la rupture du partenariat entre le musée national et Digital Realty.

    C’est le début d’une tempête autour du Mucem. Ce jeudi 11 décembre, le musée national annonçait la rupture de son partenariat avec un de ses mécènes : l’entreprise américaine Digital Realty, qui exploite quatre centres de données à Marseille. Et est par ailleurs associée à la compagnie israélienne d’immobilier Mivne Real Estate, qui porte de son côté des projets dans des colonies israéliennes situées en Cisjordanie et dans le Golan syrien. La coalition de collectifs marseillais « Divest from Digital Realty » l’accuse ainsi de soutenir la colonisation de ces territoires.

    En marge de cette annonce, Ariel Kenig, responsable des mécénats au Mucem, justifiait ainsi la fin du partenariat entre le Mucem et Digital Realty : « Cette décision a pour but de permettre au musée de poursuivre ses missions de service public et d’accueil des artistes dans un contexte apaisé. » Sauf que quelques heures plus tard, dans la soirée de jeudi, la sphère politique a vite mis à mal cette quiétude recherchée.
    Sur le réseau social X, Renaud Muselier et Martine Vassal ont annoncé chacun à leur tour la suspension de toute coopération avec le Mucem. Premier à dégainer, le président de la Région écrivait : « Quelle tristesse pour ce musée dont je fus le président du jury… La paix durable au Proche-Orient doit être l’objectif commun, et cette décision est une soumission au diktat antisémite ! Dès lors, la Région Sud suspend toute coopération potentielle avec cet établissement. »

    De son côté, la présidente du Département et de la Métropole Aix-Marseille-Provence, pointait : « Quand le militantisme antisémite s’infiltre dans l’un des emblèmes de Marseille. Importer le conflit du Proche-Orient au Mucem est insupportable et inadmissible. Le Département et la Métropole suspendent toute collaboration . » (...)

    • Victoire : le Mucem ne renouvelle pas son partenariat avec Digital Realty, complice de la colonisation israélienne en Palestine
      12/12/25
      https://www.bdsfrance.org/victoire-le-mucem-ne-renouvelle-pas-son-partenariat-avec-digital-realty

      (...) La campagne BDS France accueille avec une grande satisfaction l’annonce d’une victoire importante obtenue après plusieurs mois de mobilisation de la part de collectifs militants et associatifs, écologiques et d’artistes : le Mucem – Musée des Civilisations de l’Europe et de la Méditerranée, à Marseille – ne renouvellera pas en 2026 son partenariat de mécénat avec le géant étasunien des data centers, Digital Realty, mis en cause pour sa complicité avec la colonisation israélienne. (...)

      #BDS

    • – Je pense que la critique du génocide israélien, ainsi que la mise en scène d’un soutien hystérique à Israël, sont désormais les marqueurs les plus nets de la fracture politique entre la gauche et la droite (et la bourgeoisie barbarisée). Même plus que l’opposition entre soutiens et opposants aux « grands hommes artistes » accusés de violer des femmes. Donc la radicalisation des imputations d’antisémitisme à chaque fois qu’il s’agit d’Israël, ça va devenir industriel.

      – Mais au-delà, je me demande à quel point ça n’est pas ici un élément de la culture war de la droite contre toutes ces institutions (musées, centres culturels, associations…) qu’elle accuse d’être un peu trop « woke » à son goût. Le Mucem promeut une vision de la Méditerranée qui ne correspond vraiment pas au bon gros suprémacisme françaouis et anti-islam qui fleurit par ailleurs dans la région. Son approche critique de l’histoire coloniale scandalise régulièrement la droite nostalgique de l’Empire.

      Sur TripAdvisor, la lecture des mauvaises notes est un vrai bonheur : ça te me dénonce le marxisme culturel qui critique la colonisation (qui n’est pas un crime, je te le rappelle, contrairement à ces Européens qui pratiquent l’àpoilisme hippie).

      The typical discourse of cultural Marxism against the colonizing company of Europe, truffled in some interesting detail, but an eye to the bundle, an exhibition completely dedicated to naturism! Not to the “natural spaces” as we thought when we entered the room but “naturist spaces”, that is, hippie communities of people who go in balls. It was going into the room and out. I suppose it will be a phenomenon of great importance in the development of Mediterranean culture and in my ignorance I cannot see it.

      Our visit was the day after the opening of the Olympic Games. We were on notice. We were not surprised at all to see this display of moral and artistic decline in a France lost to the cause.

      Je me demande donc à quel point cette imputation soudaine d’antisémitisme, ça n’est pas un moment pratique, tout à fait trumpien, pour régler ses comptes avec un musée qui devrait un peu plus célébrer l’œuvre civilisatrice de la colonisation française tout autour de la Méditerranée.

    • Ce racisme est pas « simplement » pro-israélien. Il a ici plus qu’ailleurs ses propres raisons d’être anti Arabe. Marseille, c’est une « ville arabe » (oui, elle est aussi juive, corse, comorienne, etc.). Ce que vilipendent droite et extrême droite (autant dire département et région), pendant que d’autres, Arabes ou pas, apprécient Marseille aussi pour son arabité, ou/et la place prise par des minorités (d’écart en écart, la dernière en date, de plus en plus visible, pourrait être dite queer d’allure).

      Quant au superbe Mucem, c’est vrai qu’il a quelque de gauche, et de national. C’est l’étalon du musée de la pédagogie à la papa, au risque de rester fermé à la création et à la pensée en train de se faire. L’été dernier, pénultième muséification de Di Rosa, de l’art issu et inspiré du populaire, avec sa touche locale, ancrée et... paternelle (les appelants à canards fabriqués par le père pour l’étang de Thau). Oui, ça se veut pas colonial, un peu écolo, anti-discrimination. la charte Netflix, mais comme à l’époque où Netflix avait pas les budgets d’HBO et ne pouvait que se faire doubler.

      Pour sa part, la ville avait monté, hors les murs, sur le Vieux Port, une expo qui documentait les rafles et destructions de 1943 que j’avais aimé.
      https://www.marseille.fr/mairie/les-vieux-quartiers-apres-destruction

      Avec un musée national, des feuilletons en prime time, la CGA CGM, des vedettes du show biz, Marseille reste "la verrue de l’Europe" (©NSADP) ?

      #Marseille #diktat_pro_israélien

    • A Marseille, le MuCEM lâché par plusieurs collectivités territoriales, sur fond de conflit israélo-palestinien
      https://www.lemonde.fr/culture/article/2025/12/16/le-mucem-lache-par-plusieurs-collectivites-territoriales-sur-fond-de-conflit

      La région #PACA, le département des Bouches-du-Rhône et la #Métropole_Aix-Marseille-Provence protestent contre la rupture par le musée d’un contrat avec un mécène, #Digital_Realty, accusé d’avoir des activités liées aux colonies en Cisjordanie. Une prise de position qui prend un tour politique à quelques mois des élections municipales.

      Siégeant au conseil d’administration du MuCEM sans voix délibérative, les collectivités ne sont pas des financeurs de premier plan de l’établissement, dont le budget s’élève à 22 millions d’euros. Elles font valoir, pour justifier leur prise de position, leur participation financière à hauteur de 40 % lors de la construction du musée et, depuis son ouverture, une aide de 550 000 euros en dix ans de la région et la mise à disposition des panneaux d’affichage électronique de la Métropole valorisée à hauteur de 100 000 euros. (...) Pour les observateurs marseillais, la #droite locale chercherait avant tout à reconquérir une communauté juive phocéenne de plus en plus courtisée par le Rassemblement national sur fond de montée de l’antisémitisme. Ni Renaud Muselier, président du conseil régional de PACA, ni Martine Vassal, présidente du département et de la Métropole, ni la mairie de Marseille n’ont donné suite à nos sollicitations.

      (...) Face à l’escalade [des actions de scandalisation de ce mécénat], la direction de l’établissement a interrogé Digital Realty sur la nature de ses intérêts dans les territoires palestiniens. Elle a aussi saisi le ministère de la culture, sa tutelle, qui lui a confirmé que les activités de cette société américaine ne contreviennent pas à la charte de mécénat des musées nationaux.

      [...]
      Le musée et son mécène ont fini par acter la fin de leur partenariat. « Cette décision vise à ce que le musée poursuive ses missions de service public dans un contexte apaisé », fait savoir un représentant de Digital Realty France. Le calcul, il est vrai, est rapide : si le soutien financier de la société américaine – environ 100 000 euros par an – n’est pas négligeable, il reste marginal au regard des 22 millions de budget de l’établissement. De son côté, Digital Realty, qui a déjà investi 400 millions dans quatre centres de données à Marseille, et prévoit d’en créer un cinquième pour un investissement de 300 millions d’euros, a préféré couper court à une polémique susceptible de ternir son image et de peser sur ses affaires.

      [...]

      ... la direction du MuCEM a répondu au CRIF : il ne s’agit pas d’une rupture, mais d’une « décision conjointe » du musée et du mécène. « Elle n’est ni unilatérale, ni brutale, ni idéologique », surligne Pierre-Olivier Costa, rappelant que, depuis huit mois, les activités du musée sont régulièrement interrompues par des militants, « sans d’ailleurs que le CRIF ne s’en soit ému à l’époque ».
      « Comme vous le voyez, ajoute le président du MuCEM, nous n’avons en rien cédé à la pression venant de groupes d’activistes. » Mais lorsque artistes et chercheurs menacent de boycotter le musée, ce dernier n’a pas d’autre choix. « Nous touchons là au cœur même de la mission qui est la nôtre : faire dialoguer artistes, chercheurs et publics dans la sérénité, la sécurité et la confiance. »

      https://justpaste.it/dhosb

      #Mucem #mécénat #RN #français_juifs #élections

  • Les #data_centers d’#Amazon vont boire 29,1 milliards de litres d’#eau par an d’ici 2030

    Les data centers d’Amazon devraient consommer 29,1 milliards de litres d’eau par an d’ici 2030. Soit 11 600 piscines olympiques. C’est ce que révèle une note stratégique de l’entreprise étasunienne, datée de 2022, dévoilé par le Guardian et Source Material. Jusqu’à aujourd’hui, la multinationale de Jeff Bezos n’avait jamais divulgué publiquement la quantité d’eau consommée par les fermes de ses serveurs.

    Selon les deux médias, Amazon a élaboré une stratégie pour garder secrète l’étendue réelle de l’utilisation de l’eau par ses centres de données. Dans le document divulgué, les dirigeants d’Amazon ont averti que la transparence était « une porte à sens unique » et ont conseillé de garder ses projections confidentielles, tout en craignant d’être accusés de dissimulation dans la presse.

    Lors de la conception d’une campagne sur son usage de l’eau, #Amazon_Web:Services (#AWS), la division qui supervise les centres de données, a noté qu’il serait plus difficile d’atteindre sa cible d’économie d’eau interne si leurs calculs comprenaient l’utilisation « secondaire », c’est-à-dire l’eau utilisée dans la production d’#électricité pour alimenter ses centres de données.

    À la place, les responsables d’Amazon ont choisi d’utiliser uniquement le chiffre relativement plus petit de l’utilisation primaire, soit 7,7 milliards de gallons (29,1 milliards de litres d’eau), craignant la mauvaise publicité qu’entrainerait la révélation de l’ampleur de sa #consommation_d’eau.

    Interrogé sur cette note stratégique, Amazon l’a décrit « obsolète » et a déclaré qu’il « dénature complètement la stratégie actuelle d’utilisation de l’eau d’Amazon ». Interrogée par les deux médias, la porte-parole de l’entreprise n’a pas précisé quels éléments du document étaient « obsolètes ».

    https://reporterre.net/Les-datacenter-d-Amazon-vont-boire-11-600-piscines-olympiques-en-2030
    #AI #IA #intelligence_artificielle #centres_de_données

  • L’#Île-de-France claque aussi la porte à #Microsoft : place aux solutions 100 % françaises pour ses 550 000 élèves

    Et si les données personnelles de nos enfants n’appartenaient plus, par défaut, aux géants américains de la tech ? C’est le pari que s’apprête à tenir la Région Île-de-France en organisant la sortie de Microsoft de ses lycées. Une décision politique et technique lourde de sens, qui pourrait bien faire des émules.

    Dès la rentrée 2025, la Région Île-de-France mettra fin à l’utilisation des solutions Microsoft pour centraliser et traiter les informations de ses quelque 550 000 lycéens. Ce n’est pas une simple migration technique, mais bien un acte politique fort en faveur de la souveraineté numérique.

    L’Île-de-France abandonne Microsoft pour ses 550 000 lycéens

    Au cœur de cette décision se trouve une préoccupation majeure : la #protection_des_données face à l’extraterritorialité du droit américain, incarnée par le fameux #Cloud_Act. Cette loi permet en effet aux autorités américaines de réclamer des données stockées sur les serveurs d’entreprises américaines... Même lorsque ces serveurs se trouvent à l’étranger.

    Une perspective jugée inacceptable par l’exécutif régional pour des informations aussi sensibles que les notes, les emplois du temps ou les communications entre élèves, professeurs et parents.

    Le projet consiste donc à fédérer plusieurs briques logicielles souveraines au sein d’une plateforme unique. Pour cela, la Région s’appuie sur un consortium d’acteurs français dont les premiers noms se précisent. La bascule la plus significative, déjà engagée depuis septembre, est la migration des comptes #Microsoft_365 vers le cloud de #Leviia, dont les #data_centers sont situés en France.

    Pour la brique de vie scolaire, le nom de #Docaposte est avancé, la filiale numérique du Groupe La Poste qui a racheté la société #Index_Éducation, éditeur du logiciel #PRONOTE. À terme, l’ensemble de ces services sera intégré dans la plateforme commune MonLycée.net pour les 550 000 lycéens et professeurs.

    Si la transition s’annonce progressive et ne concerne pas, pour l’heure, tous les services informatiques de la collectivité, elle constitue un signal très puissant. L’initiative francilienne n’est d’ailleurs pas un cas isolé puisque la ville de Lyon a déjà amorcé un virage similaire en se tournant vers des alternatives libres comme #OnlyOffice, #Linux ou #PostgreSQL pour remplacer les solutions de la firme de #Redmond.

    https://www.lesnumeriques.com/societe-numerique/l-ile-de-france-claque-aussi-la-porte-a-microsoft-place-aux-solutions
    #arrêt #abandon
    –-

    ajouté à la Métaliste sur les institutions et municipalités qui claquent les portes à #Microsoft :
    https://seenthis.net/messages/1143366

  • #Désescalade_numérique

    « Depuis 20 ans, à rebours de toutes les promesses qui accompagnent la #numérisation, le recours massif à internet, au smartphone et aux réseaux sociaux accélère l’effondrement du lien social et la fascisation de la société. Porté par des multinationales hégémoniques, le numérique a servi à démanteler et privatiser les services publics, à accélérer les flux de marchandises et à disqualifier bon nombre de savoir-faire. Nous assistons à une captation des cerveaux et des liens communautaires au bénéfice de ces entreprises. Les soirs d’élections, nous en sommes réduits à croiser les doigts pour que les capacités de surveillance orwelliennes développées ces deux dernières décennies ne tombent pas, prêtes à l’emploi, entre les mains d’un gouvernement d’extrême droite.

    Au niveau de ses chaînes d’approvisionnement et de ses impacts écologiques, l’industrie numérique planétaire, avec sa croissance exponentielle, est une bombe climatique et toxique. Des mines aux data centers en passant par la production de semi-conducteurs, elle asservit une main-d’œuvre précaire, siphonne des quantités colossales d’eau et d’énergie, accumule des montagnes de déchets. En démultipliant et en accélérant toutes ces tendances, le déploiement de l’intelligence artificielle (IA) promet des lendemains plus sombres encore. En deux mots : la société numérique d’aujourd’hui est insoutenable, celle qui vient s’annonce cauchemardesque.N’attendons plus : il devient urgent de freiner.

    Des #propositions : Pourquoi ? Pour qui ?

    Les menaces que fait peser l’#industrie_numérique sur le vivant, l’emploi ou les libertés fondamentales peuvent sidérer en donnant le sentiment de phénomènes planétaires insaisissables. Pourtant, agir à l’échelle locale, à partir des communautés dans lesquelles nous vivons, est non seulement possible, mais décisif. C’est l’échelle plus efficace pour sortir de l’impuissance et recréer des liens fragilisés par le déferlement technologique. Pour se donner les moyens, progressivement, de reprendre la main sur les objets qui nous entourent et sur nos besoins fondamentaux. C’est dans cette perspective qu’est rédigée cette #boîte_à_outils pour une désescalade numérique. Elle vise à nourrir la réflexion des élu.es et des candidat.es qui élaborent leur programme en vue des prochaines élections municipales. Ce travail inédit est le fruit d’une réflexion collective menée depuis un an par une trentaine d’associations et collectifs spécialisés dans l’analyse des impacts de ces technologies. Nous espérons que ces propositions inspireront votre équipe, que vous y puiserez librement pour composer votre programme, tout en respectant l’esprit d’urgence écologique et de justice sociale qui les anime.

    Des propositions concrètes

    Nous avons cherché des mesures immédiates et applicables qui puissent emporter l’adhésion du plus grand nombre. Certaines d’entre elles visent simplement à limiter la dépendance à l’informatique pour rétablir une sécurité élémentaire face au risque de cyberattaques et de pannes des réseaux (d’électricité, de télécommunication...).D’autres visent à garantir l’accès aux droits sociaux et aux services publics sans numérique. D’autres encore servent à valoriser l’humain et à construire des emplois pérennes à l’échelle des communes. D’autres, enfin, veulent contribuer à limiter les dégâts écologiques et sanitaires du numérique.Certains points de ce programme permettent de réaliser des économies parfois substantielles, d’autres propositions appellent des investissements. Elles nécessitent, de toute façon, d’être adaptées à la taille et aux spécificités de votre commune. »

    https://www.desescaladenumerique.org
    #municipales_2026 #service_public #emplois #travail #vidéo-surveillance #sécurité #écrans_publicitaires #publicité #école #airbnb #data_centers #centres_de_données #exposition_électromagnétique #antennes-relais #sobriété #gafam #dégafamisation

    ping @karine4

  • AI #Data_Centers Are an Even Bigger Disaster Than Previously Thought

    “No wonder my new contacts in the industry shoulder a heavy burden — heavier than I could ever imagine. They know the truth.”

    In August, the founder of hedge fund Praetorian Capital Harris “Kuppy” Kupperman penned an essay on the absurd #finances behind AI data centers (https://pracap.com/global-crossing-reborn). While the tech industry has likened data centers (https://www.nasdaq.com/articles/power-grids-data-centers-overlooked-winners-ai-gold-rush) — or more specifically, the expensive semiconductor chips that power them — as the “shovels” of the AI gold rush, Kupperman’s napkin math found that AI data centers have an impossibly short runway to achieve profitability (https://futurism.com/data-centers-financial-bubble).

    In short, this is because data center components age rapidly, either made obsolete through rapid advances in technology, or broken down over years of constant, high-powered usage.

    After publishing his initial findings, Morningstar reports that Kupperman got an earful from anxious professionals in the data center industry. Thanks to those conversations, the investment manager realized he made a crucial mistake — and that because of it, his grim prediction may not have been cynical enough.

    “I clearly hit a nerve in the industry, when judging by the number of individuals who reached out to chat,” he wrote in an followup blog post. “In total, I’ve spoken with over two-dozen rather senior people in the datacenter universe, and there was an interesting and overriding theme to our conversations; no one understands how the financial math is supposed to work. They are as baffled as I am, and they do this for a living.”

    Kupperman’s original skepticism was built on a guess that the components in an average AI data center would take ten years to depreciate, requiring costly replacements. That was bad enough: “I don’t see how there can ever be any return on investment given the current math,” he wrote at the time.

    But ten years, he now understands, is way too generous.

    “I had previously assumed a 10-year depreciation curve, which I now recognize as quite unrealistic based upon the speed with which AI datacenter technology is advancing,” Kupperman wrote. “Based on my conversations over the past month, the physical data centers last for three to ten years, at most.”

    In his previous analysis, Kupperman assumed it would take the tech industry $160 billion of revenue to break even on data center spending in 2025 alone. And that’s assuming an incredibly generous 25 percent gross margin — not to mention the fact that the industry’s actual AI revenue is closer to $20 billion annually, as the investment manager noted in his previous blog.

    “In reality, the industry probably needs a revenue range that is closer to the $320 billion to $480 billion range, just to break even on the capex to be spent this year,” Kupperman posited in his updated essay. “No wonder my new contacts in the industry shoulder a heavy burden — heavier than I could ever imagine. They know the truth.”

    Kupperman called that gulf between tech industry spending and actual revenue in 2025 “astonishing.” However, it doesn’t even begin to scratch the surface. For example, how does it all shake out when we account for 2026, when hundreds of new data centers are expected to pop up?

    “Adding the two years together, and using the math from my prior post, you’d need approximately $1 trillion in revenue to hit break even, and many trillions more to earn an acceptable return on this spend,” he writes.

    “If the economics don’t work, doing it at massive scale doesn’t make the economics work any better — it just takes an industry crisis and makes it into a national economic crisis,” he concludes.

    Overall, the pessimists broadly agree: it’s no longer a matter of if AI is massively overhyped, but when the whole thing comes crashing down.

    https://futurism.com/future-society/ai-data-centers-finances
    #IA #AI #intelligence_artificielle #centres_de_données #financement #semi-conducteurs #investissement #coût

  • Épisode 1/4 : Electricité partout, sobriété nulle part

    Sobriété et #électrification sont les mots d’ordre de la #transition. Mais, c’est sans compter cette nouvelle infrastructure énergivore qui est en train de se déployer à travers le monde : celle du numérique, de l’#IA et des #data_centers.

    Avant de parler d’énergie, il nous faudra faire un feu, sans allumettes ni briquet - rejouer cette scène primitive - pour mieux comprendre ce qui est à l’oeuvre. La flamme qui jaillit d’un morceau de bois que l’on chauffe c’est surnaturel, immédiatement séduisant. A nous qui sommes des chimères singe-feu, elle emporte les imaginaires. Cette flamme-là vient rappeler que l’énergie, avant d’être une affaire de kWh, est une métaphysique, un lieu de #fantasmes et d’#histoires qu’on se raconte.

    Le vol du feu aux dieux pour en faire don aux hommes, le geste inaugural de Prométhée s’est traduit en Occident par le projet d’une #émancipation fondée sur la maîtrise et la #possession de la #nature perçue comme un ensemble de #ressources à exploiter. Nous pensons aujourd’hui que ce feu mythique a disparu de nos vies. Nous avons tort : il est partout. Dans les voitures, dans les usines, dans les champs, dans les maisons. Notre monde repose sur la combustion. Des milliards de feux invisibles circonscrits dans des machines, brûlent une #biomasse vieille de millions d’années, et apportent #chaleur et #mouvement. L’équivalent énergétique pour chacune et chacun d’entre nous de centaines d’esclaves humains à notre service.

    "Le choix du feu c’est le choix d’une #économie_fossile qui, dès lors, ne repose plus sur les énergies naturelles anciennes - l’eau, le vent, la force musculaire des êtres vivants et le bois - qui imposaient des contraintes et des limites à la #puissance". (F. Jarrige, historien)

    Le choix du feu est aujourd’hui synonyme de catastrophe climatique, et d’#urgence, il faut rendre le feu aux dieux. Dans le langage courant, nous appelons ça « faire une transition ». Le défi est inédit et colossal. 80 % de l’énergie utilisée dans le monde provenant encore du #pétrole, du #gaz et du #charbon. Miser sur des économies d’énergie et sur une électrification massive des usages en produisant une électricité dite décarbonnée, voilà les axes principaux de cette transition. Pour autant :

    "La #transition_énergétique n’est pas une notion scientifique sérieuse. On ne passe pas d’une énergie à une autre. Historiquement ça n’est pas ce qui s’est passé. L’histoire de l’énergie est celle de l’expansion symbiotique de toutes les énergies et de toutes les matières". (JB. Fressoz, historien)

    La France, dont 25% de la consommation d’énergie s’appuie aujourd’hui sur l’électricité, reste dépendante à plus de 60% aux #énergies_fossiles. Sa stratégie de long terme prévoit, à l’horizon 2050, une diminution de 40% de cette #consommation_d’énergie tout en amenant la part de l’électricité à plus de la moitié de son mix énergétique. Néanmoins, la direction qui est en train d’être prise semble contredire cette feuille de route, comme en témoigne le développement effréné de l’#industrie_du_numérique.

    "On a jamais fait moins de 15% de croissance par an en 25 ans. Ca va un peu mieux que l’économie française". (Fabrice Coquio, président de Digital Realty France)

    Dans une odeur de brûlé, à l’heure du #tout_numérique et de la mise en #données du monde, c’est un nouveau prodige qu’on demande à #Prométhée d’accomplir : d’une main tremblante, rendre le feu fossile, et de l’autre, plus assurée, s’emparer des électrons.

    https://www.radiofrance.fr/franceculture/podcasts/lsd-la-serie-documentaire/electricite-partout-sobriete-nulle-part-5983160

    #électricité #sobriété #podcast #audio #intelligence_artificielle #AI

  • #IA : un rapport alerte sur le #risque de #conflit_d’usage de l’#électricité

    Les projets de #centres_de_données numériques sont si nombreux et si énormes que leur consommation d’électricité pourrait être multipliée par quatre d’ici dix ans en France, selon un #rapport du Shift Project (https://theshiftproject.org/app/uploads/2025/09/RF-PIA-1.pdf). Au risque de menacer la #décarbonation des transports et de l’industrie.

    Faudra-t-il bientôt instaurer en France un #moratoire sur les demandes de centres de données, ces bâtiments regroupant des installations informatiques chargées de stocker des données ? La question ne figure pas en toutes lettres dans le rapport que le #Shift_Project, une association d’expertise sur la #transition_énergétique, a publié mercredi 1er octobre sur les #infrastructures du numérique. Mais à sa lecture, elle semble inévitable. Car les estimations chiffrées de cette étude donnent le tournis.

    Le problème est simple : les estimations de consommation en électricité des centres de données ne cessent de croître. Elle pourrait être multipliée par quatre en France d’ici dix ans, et atteindre 7,5 % de la demande totale de courant électrique, soit plus du double de la part des transports aujourd’hui – contre 2 % actuellement.

    Or ce qui se passe à l’international invite à la plus grande vigilance. En #Irlande, un moratoire sur les nouvelles demandes d’implantation a été décidé en 2021 pour la région de Dublin, où se concentrent la plupart des centres de données. Ils avalent déjà 20 % de l’électricité disponible et pourraient monter à 30 % en 2028. Aux #Pays-Bas, le gouvernement a gelé les autorisations jusqu’en 2035 autour d’Amsterdam, afin d’éviter l’engorgement du système.

    Dérive climatique

    Aux États-Unis, le #Texas a voté une loi pour couper l’approvisionnement des centres de données en cas d’urgence et éviter un black-out. Et le gestionnaire de l’immense réseau desservant les #Grandes_Plaines (#Kansas, #Oklahoma, etc.) demande le même type de mesures. Quant à l’administration Trump, ouvertement climatosceptique, elle vient de publier un plan de relance du charbon pour renforcer la production d’électricité : « Nous voulons que des centres de données s’installent chez nous », a résumé le secrétaire à l’énergie, Chris Wright.

    La part de l’intelligence artificielle (IA) générative dans l’explosion de la demande en électricité du numérique est « considérable » selon le Shift Project : son utilisation « à grande échelle et façon indifférenciée » joue « un rôle central » dans la détérioration du #bilan_carbone du #numérique, et donc dans la dérive climatique.

    Or, les projets d’investissements affluent en #France, chaudement encouragés par l’Élysée. En février, lors du #Sommet_pour_l’action_sur_l’intelligence_artificielle, 109 milliards d’euros d’investissements dans les centres de données et l’IA ont été annoncés.

    Emmanuel Macron s’en est délecté, avec un slogan choc : « Plug, baby, plug » (« Branche-toi, chéri, branche-toi »), en miroir du fameux « Drill, baby, drill » (« Fore, chéri, fore ») de Donald Trump. Quelques mois plus tard, à l’occasion du sommet #Choose_France, 26 milliards d’investissements ont été confirmés par des géants du secteur : #Brookfield, #Digital_Realty et le fonds émirati #MGX.

    Abondance sans garantie

    Certaines de ces infrastructures atteignent une dimension inédite et réellement monstrueuse, dépassant même le seuil d’un gigawatt (GW) – mille mégawatts, une puissance qui s’approche de celle d’un réacteur nucléaire historique en France.

    Ainsi, le petit village de #Fouju (Seine-et-Marne), avec ses 631 habitant·es, pourrait se retrouver doté d’un centre de données de 1,4 GW – une concertation préalable s’ouvre le 13 octobre. À #Cambrai (Nord), une énorme installation de 1 GW est promise par #Data4, une filiale du fonds canadien #Brookfield. #Fluidstack, une plateforme cloud d’IA, a annoncé en février la signature d’un protocole d’accord avec le gouvernement français pour la construction d’un gigantesque supercalculateur pouvant fournir jusqu’à 1 GW de puissance de calcul.

    Pour Emmanuel Macron, « l’électricité est disponible, vous pouvez vous brancher, elle est prête ! ». Sa petite phrase au sommet de l’IA, début 2025, avait fait rire l’assistance. De fait, en 2024, la production d’électricité en France a atteint son plus haut niveau depuis cinq ans, avec 536,5 térawattheures (TWh), bien au-dessus de sa consommation. Ce qui lui a permis d’en exporter 89 TWh, un record historique et un apport substantiel à la balance commerciale nationale. De quoi disposer de larges réserves à vendre sans restriction aux opérateurs des centres de données ? C’est le discours confiant affiché par l’exécutif.

    La réalité est plus inquiétante, et c’est tout l’intérêt du rapport du Shift Project que de la documenter. D’abord, « les centres de données dont le raccordement se valide aujourd’hui verront leurs pics de consommation en 2035 », explique Pauline Denis, ingénieure de recherche numérique au sein de l’association. Autrement dit, l’abondance en énergie aujourd’hui ne garantit pas qu’il y aura suffisamment de courant pour les alimenter dans dix ans.

    Ensuite, la demande en électricité des centres de données va inévitablement entrer en concurrence avec d’autres besoins, au vu des volumes nécessaires : de 15 % à 23 % de l’électricité supplémentaire prévue par RTE, le gestionnaire de réseaux, en 2035. C’est vraiment beaucoup. Or, la décarbonation de certains secteurs industriels aussi émetteurs de CO2 que les transports, la production d’acier ou de carburants passe nécessairement par l’#électrification.

    « En France il existe un grand risque de conflit d’usage avec les #transports ou le #chauffage, prévient Pauline Denis, conserver la dynamique actuelle de centres de données rendrait caducs les objectifs de décarbonation de ces secteurs pour 2030 et 2050. »

    Les autrices et auteurs du rapport en concluent que « cette concurrence doit être accompagnée et arbitrée, afin de ne pas laisser le déploiement massif des centres de données mettre en péril d’autres transformations sans s’en rendre compte ». Car au niveau local, les centres de données les plus gourmands en électricité, et en particulier les monstres de plus de 1 GW, risquent à terme d’empêcher l’implantation de sites industriels, et donc leurs emplois.

    Quels emplois et pour qui ?

    À #Marseille, un des principaux hubs du pays, autorités et industriels se sont mis autour d’une table pour trouver une zone favorable au raccordement des de centres de données « qui n’entre pas en concurrence avec d’autres projets locaux, comme l’alimentation électrique des navires à quai dans le port, ou l’aménagement du quartier #Euroméditerranée », précise RTE. C’est notamment le cas au nord de la ville, dans la zone de #Plan_de_Campagne, où le foncier semblait plus facilement disponible.

    Maxime Efoui-Hess, coordinateur du programme numérique du Shift Project, met les pieds dans le plat : « Si on préempte la majorité de l’électricité pour l’usage des centres de données, elle va manquer à la décarbonation. » Les contrats d’approvisionnement actuellement signés avec les centres de données dans les Hauts-de-France « ne serviront pas à décarboner la sidérurgie de Dunkerque ». C’est donc autant un enjeu social qu’une alerte climatique : quelles activités énergivores, pour quel type d’emplois, les territoires choisissent-ils ?

    Et « quelle peut-être la réaction citoyenne à la préemption de telles capacités de production électrique pour les centres de données ? », interroge le rapport. Qui se demande aussi « quelle crédibilité auraient des politiques d’encouragement à la sobriété dans le logement si l’électricité dégagée est utilisée pour des centres de données ? »

    Sollicité par Mediapart, le gestionnaire du réseau français, #RTE, se montre moins inquiet : « L’offre d’électricité bas carbone est aujourd’hui abondante en France, le système électrique français possède des marges et est prêt à accueillir les nouveaux usages. » Concernant les besoins des infrastructures du numérique, « nous sommes en train de réactualiser nos trajectoires en tenant compte des annonces sur l’IA mais aussi en tenant compte du fait que la montée en puissance des centres de données est souvent assez lente ».

    En attendant, à Marseille comme à #Wissous en Essonne, où #Amazon construit un autre gros centre de données, des collectifs d’habitant·es se forment et dénoncent « l’accaparement » de leur territoire par les infrastructures numériques.

    https://www.mediapart.fr/journal/ecologie/011025/ia-un-rapport-alerte-sur-le-risque-de-conflit-d-usage-de-l-electricite
    #data_centers #intelligence_artificielle #AI

    • L’IA, dévoreuse d’énergie, pourrait entraîner une pénurie d’électricité aux Etats-Unis
      https://www.lemonde.fr/idees/article/2025/10/02/l-ia-devoreuse-d-energie-pourrait-entrainer-une-penurie-d-electricite-aux-et

      Depuis qu’Elon Musk a quitté Donald Trump, il est retourné à son #messianisme_futuriste, pour conquérir Mars mais aussi développer xAI, son entreprise d’intelligence artificielle (IA). Le multientrepreneur a construit, en 2024, un supercalculateur baptisé « Colossus », à Memphis, dans le Tennessee, pour entraîner son modèle Grok. Six milliards de dollars d’investissements (5,1 milliards d’euros), 350 000 puces ultrasophistiquées GPU et 260 mégawatts de puissance, soit un quart de réacteur nucléaire. Et ce n’est qu’un début. « De même que nous serons les premiers à mettre en ligne un gigawatt de calcul d’entraînement, nous serons également les premiers à mettre en ligne 10 GW, 100 GW, 1 TW, … », a posté l’homme le plus riche du monde sur X, le 22 septembre.

      Les puissances sont délirantes, un térawatt équivalant à 1 000 réacteurs nucléaires. On aurait tort de ricaner : l’Amérique est lancée dans une folie de consommation énergétique. Ainsi, le 22 septembre, le géant des microprocesseurs Nvidia et OpenAI, la firme qui a créé ChatGPT, ont annoncé des investissements de 100 milliards de dollars pour construire des centres de données consommant 10 gigawattheures, soit dix centrales nucléaires. « Il s’agit du plus grand projet d’infrastructures d’IA de l’histoire », a déclaré, ce jour-là, Jensen Huang, PDG de Nvidia.

      A moins que ne survienne une révolution susceptible de faire des économies d’énergie, l’IA s’annonce comme un véritable trou noir engloutissant l’électricité. Pour Elon Musk, ce n’est pas bien grave, l’énergie étant, selon lui, une ressource inépuisable, grâce au solaire, couplé aux batteries. « La Terre reçoit en une heure la même énergie du Soleil que ce que l’humanité consomme en un an », a-t-il écrit avant de préciser que « l’énergie solaire est de toute évidence l’avenir pour quiconque sait faire des mathématiques élémentaires ».

      https://justpaste.it/8p7vm

  • « On est un peu les sacrifiés de la Data City ! » : à Marseille, les data centers colonisent les quartiers populaires - L’Humanité
    https://www.humanite.fr/social-et-economie/numerique/on-est-un-peu-les-sacrifies-de-la-data-city-a-marseille-les-data-centers-co


    Les conflits de l’eau devraient être plus rapides.

    Le collectif cartographie les fermes de données marseillaises, mais mène aussi des actions d’éducation populaire, par le biais de balades organisées notamment. « Le data center est l’incarnation matérielle d’une certaine forme de capitalisme, poursuivent les militants. Il résume de nombreux enjeux contemporains : l’impérialisme américain, le technocapitalisme, l’extractivisme, la course à l’intelligence artificielle… »

    L’écolo Sébastien Barles, qui fut l’un des tout premiers à se mobiliser, ne dit pas autre chose : « À Marseille, c’est une forme de prédation à la fois foncière et énergétique, pour des retombées économiques très contestables. Un data center crée en moyenne dix fois moins d’emplois qu’une industrie manufacturière classique ! Pour des conflits d’usage en matière d’électricité qui sont évidents. »

    Au cours des dix prochaines années, l’ensemble des data centers de la région devraient avoir besoin de 1 200 MW d’électricité supplémentaires, selon les données officielles. Cela représente autant d’électricité qu’il en faudra pour décarboner toute l’industrie régionale et six fois plus que pour l’aménagement urbain et les hôpitaux. « Il est évident que nous aurons besoin de plus de puissance électrique, convient Sébastien Barles. Mais il faudrait réfléchir en termes d’utilité sociale : bien souvent, les data centers servent à alimenter l’essor des transactions financières, du bitcoin ou de la pub imposée. »

    • Enquête : à Marseille comme ailleurs, l’#accaparement du territoire par les infrastructures du numérique

      Depuis fin 2023, le collectif marseillais Le Nuage était sous nos pieds enquête, analyse et lutte contre les impacts sociaux, écologiques et politiques des infrastructures du numérique à Marseille, en particulier des câbles sous-marins et des data centers. Ce collectif est composé d’habitant·es de Marseille, affilié·es à au moins trois entités : le collectif des Gammares, collectif marseillais d’éducation populaire sur les enjeux de l’eau, Technopolice Marseille, qui analyse et lutte contre les technologies de surveillance policière et La Quadrature du Net, association de défense des libertés fondamentales dans l’environnement numérique. Dans cet article, nous restituons une partie de l’enquête menée par le collectif sur les infrastructures numériques à Marseille, leur impact socio-environnemental et le monde délétère qu’elles représentent, enquête que nous élargissons au delà du territoire marseillais, inspiré·es notamment par les échanges lors du festival « Le nuage était sous nos pieds » qui a eu lieu les 8, 9 et 10 novembre dernier à Marseille.

      Arrivent à Marseille aujourd’hui environ seize câbles sous-marins intercontinentaux qui atterrissent, transitent et relient l’Europe et la Méditerranée à l’Asie, au Moyen Orient, à l’Afrique, aux États-Unis. Ce sont ces câbles intercontinentaux qui permettent à l’information numérique de circuler, en particulier sur le réseau Internet, et aux services numériques déployés dans ce qu’on appelle « le cloud », d’apparaître sur nos écrans : mails, réseaux sociaux, vidéos et films en streaming. Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés en surchauffe renferment des milliers de serveurs qui rendent possible le technocapitalisme et ses données numériques invisibles : la collecte massive de données personnelles, servant à l’analyse de nos comportements constamment traqués et traités à des fins marketing, la publicité numérique qui pollue nos cerveaux, la vidéo-surveillance policière et plus largement la gouvernance et la surveillance algorithmiques dopées à l’intelligence artificielle qui discriminent et sapent nos libertés fondamentales. Derrière ces infrastructures, ce sont également l’accaparement des terres et des ressources en eau, mais aussi la pollution de l’air, la bétonisation de nos villes réchauffées, et les réalités tachées du sang de l’extractivisme numérique colonial que les puces des serveurs qui peuplent ces data centers renferment. Et ce sont encore une fois des industries peu scrupuleuses qui, aidées par des politiques honteuses, s’accaparent nos territoires et nos vies.

      Data centers et #câbles_sous-marins transcontinentaux

      La présence de ces 16 câbles sous-marins intercontinentaux attire à Marseille les gestionnaires de data centers, ces entrepôts géants où s’empilent des serveurs par milliers, appartenant en grande majorité à Google, Amazon, Microsoft, Meta, Netflix, Disney+, Capgemini, Thalès, etc. Des serveurs qui stockent et font transiter des données, des serveurs qui rendent possibles les services numériques et les échanges de données décrits plus haut. Depuis une dizaine d’années, et de façon accélérée depuis 2020, une douzaine de data centers ont été construits un peu partout dans Marseille intra muros, et plusieurs nouveaux sont en chantier ou annoncés dans la ville et aux alentours. On y trouve ainsi cinq data centers de Digital Realty, un géant américain d’investissement immobilier coté en bourse, spécialisé en gestion de data centers dits neutres ou de colocation. Cette entreprise construit, aménage et gère le fonctionnement du bâtiment, et loue ensuite les emplacements de serveurs à d’autres sociétés, telles Microsoft, Amazon, Google, Netflix ou d’autres. Ces data centers de colocation sont bien implantés en France, mais dans d’autres pays et territoires, Amazon, Microsoft, Google et autres géants du numérique construisent leurs propres bâtiments de data centers et toute l’infrastructure nécessaire à leur fonctionnement : postes électriques de transformation du courant, réseaux fibrés terrestres, câbles sous-marins transcontinentaux, etc.

      À Marseille, le géant Digital Realty, un des trois leaders mondiaux de data centers de colocation, possède quatre data centers MRS1, MRS2, MRS3, MRS4 et est en train d’en construire un cinquième, MRS5, tous sauf MRS1 situés dans l’enceinte du Grand Port Maritime de Marseille (GPMM). Les autres data centers marseillais sont souvent situés dans le nord de la ville. Dans le quartier de Saint-Henri notamment, où un data center de colocation de Free Pro est actuellement en cours d’agrandissement pour doubler de taille, se partageant l’espace avec un data center de Telehouse. Dans le quartier de Saint-André, un projet de data center surdimensionné de Segro viens d’être annoncé. Tandis qu’à la Belle-de-Mai un data center de Phocea DC est en construction. Il y a même eu un projet de data center flottant dans le Grand Port, par l’entreprise Nautilus ! Hors des limites municipales, à Bouc-Bel-Air, Digital Realty a également un projet de construction d’un sixième data center, bien plus grand que les précédents, baptisé MRS6.

      Marseille n’est pas la seule ville concernée. La France, avec ses plus de 300 data centers, se situe aujourd’hui au 6ème rang mondial des pays en accueillant le plus, après les États-Unis, l’Allemagne, le Royaume-Uni, la Chine et le Canada. En Île-de-France, premier territoire d’implantation française avec plus de 160 data centers en 2023, juste devant Lyon (18), puis Marseille (12), Digital Realty y possède 2 hubs d’un total de 17 data centers (et plusieurs autres en construction), concentrés pour la plupart en Seine-Saint-Denis. Equinix, autre géant du top 3 mondial des data centers de colocation en possède 10, tandis que Data4, Scaleway ou Free Pro, OVH, Telehouse, Verizon, Zayo et autres acteurs se partagent les 72 restants.

      Les seize câbles sous-marins intercontinentaux qui arrivent aujourd’hui à Marseille sont répertoriés par Telegeography, une entité qui maintient Submarine Cable Map, une des cartes mondiales de référence de ce type de câbles. Ils sont construits et déployés au sein de consortiums internationaux regroupant plusieurs entreprises et multinationales du numérique. On y retrouve en premier lieu les géants du numérique — Google, Facebook/Meta, Microsoft et Amazon — qui sont désormais les premiers financeurs et les acteurs principaux des projets de déploiement de ces câbles sous-marins intercontinentaux. On y retrouve également des entreprises de télécommunications telle que Orange, mais aussi des opérateurs internationaux, qui seront souvent en charge de l’atterrissement des câbles sur les plages, ainsi que des stations ou centres d’atterrissement de ces câbles, permettant la transition entre les infrastructures sous-marines et le réseau câblé terrestre. On y retrouve également des entreprises qui fabriquent et déploient ces câbles en mer, comme Alcatel Submarine Networks qui vient d’être racheté par l’État français, et qui est un des trois leaders mondiaux dans ce domaine avec TE SubCom (Suisse) et NEC Corporation (Japon).

      Mainmise des géants du numérique

      Ces câbles sous-marins et leurs centres d’atterrissements sont aujourd’hui des infrastructures stratégiques, avec des enjeux géopolitiques mondiaux importants, mais où la domination des géants numériques est, là aussi, en passe de devenir la norme. Ainsi à Marseille, la plupart des nouveaux câbles sous-marins construits ou en cours de construction ces dernières années ont pour principal acteur Facebook (2Africa), Google (Blue), et Microsoft (SeaMeWe-6). Parmi les opérateurs télécoms et fournisseurs d’accès à Internet du monde entier que la présence de câbles sous-marins intercontinentaux attire également à Marseille, on retrouve la multinationale française Orange, qui possède dans la ville au moins un data center pour ses propres besoins et plusieurs centres d’atterrissements de câbles sous-marins. On retrouve aussi Verizon, opérateur américain de télécommunications avec un data center couplé à un centre d’atterrissement de câbles sous-marins, Omantel, la compagnie nationale de télécommunications d’Oman qui en possède également un — pour ne citer que les opérateurs identifiés par le travail d’enquête et de cartographie des infrastructures numériques à Marseille réalisé par le collectif Le Nuage était sous nos pieds. Vous pouvez retrouver ce travail de cartographie mené sur le terrain, sur la carte libre et collaborative OpenStreetMap, et de façon condensée sur cette carte élaborée lors de cette enquête.

      On retrouve également à Marseille la présence de plusieurs Internet Exchange Points (IXP), ou points d’échange d’Internet, des infrastructures physiques où opérateurs télécom, fournisseurs d’accès à internet (FAI) mais aussi entreprises offrant leurs services numériques, se branchent et s’échangent du trafic sans coûts à travers des accords mutuels. Ainsi, comme l’explique Stéphane Bortzmeyer dans L’interconnexion pour les nuls, un client de Sfr qui envoie un mail via sa connexion gérée par son opérateur, donc via des infrastructures terrestres de Sfr, peut interagir avec d’autres clients que ceux de Sfr et même accéder à tout internet. Cette interconnexion, qui se fait essentiellement au sein des IXP, s’appelle aussi le « peering », et constitue, selon l’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse en France), « une relation technico-économique au fondement de l’Internet ». L’avantage des IXP réside dans le fait que ce sont des infrastructures souvent gérées de façon non commerciale et neutre, souvent par des structures associatives (comme FranceIX en France parmi d’autres) et qui permettent ainsi l’interconnexion des réseaux sans surcoûts, en optimisant les coûts d’échange, mais aussi la latence et la bande passante. Ces IXP sont très souvent localisés physiquement dans les data centers.

      Il y a au moins 6 points de présence IXP aujourd’hui à Marseille comme on peut le voir sur cette base de données européenne accessible librement. Les IXP marseillais semblent tous localisés dans les data centers de Digital Realty, et on peut voir pour chacun d’eux (onglet Points of Presence) la liste des acteurs numériques qui y sont branchés : TikTok, Google Cloud, Amazon Web Services, Disney+, Netflix, Zoom, la liste des géants habituels est longue. La proximité de ces IXP avec les câbles sous-marins transcontinentaux à Marseille permet une latence et une bande passante optimales, tandis que leur présence au sein même des data centers, au plus près des services numériques qui y exploitent l’espace, est également un argument commercial supplémentaire pour ces derniers. Au niveau national, Paris, avec sa douzaine d’IXP, est avec Marseille le territoire où se trouvent la plupart des IXP, devant Lyon et d’autres grandes métropoles. On trouve les emplacements et les spécificités des IXP dans le monde sur une carte maintenue par Telegeography.

      L’ensemble des câbles sous-marins intercontinentaux, les points d’échanges Internet et les data centers hébergeant les nombreux services numériques des entreprises dominantes mondiales du secteur font de Marseille le deuxième hub numérique français après Paris, et le 7ème au rang mondial, en passe dit-on de devenir le 5ème.
      Data centers : une implantation territoriale opportuniste et des politiques d’État accueillantes

      Partout dans le monde, l’implantation des data centers se fait de façon opportuniste, tirant avantage des spécificités de chaque territoire. Ainsi, à Marseille c’est la présence des câbles sous-marins de liaison Internet transcontinentales, ainsi que celle des grands acteurs des télécoms et des points d’échange Internet. Mais c’est également une opportunité foncière peu chère au sein du territoire du Grand Port Maritime de Marseille (GPMM), cet établissement public placé directement sous la tutelle de l’État, ayant des missions de service public administratif et de service public à caractère industriel et commercial. En réalité le GPMM est géré comme une entreprise, et ses dirigeants nommés directement par l’État, trouvent dans ces projets d’entrepôts de données numériques une opportunité de mutation lucrative pour son patrimoine immobilier, autrefois occupé par des activités portuaires en déclin. Comme aime à le souligner Christophe Castaner, président du conseil de surveillance du GPMM, le « French smartport de Marseille-Fos […] ouvre la voie au concept de hub maritime des données », et est un port entrepreneur qui « craint avant tout sa désindustrialisation ».

      En Île-de-France, l’implantation des data center se fait essentiellement dans le département de Seine-Saint Denis, en particulier à La Courneuve, Aubervilliers et Saint-Denis, membres de l’établissement public territorial de Plaine Commune, en charge de leur aménagement et développement économique, social et culturel. Autrefois territoire agricole alimentant les Halles de Paris, ces zones sont devenues progressivement industrielles dans les années 60 – 70, se désindustrialisant brutalement à partir des années 90. Les anciennes friches industrielles, à bas prix malgré leur proximité immédiate avec Paris, deviennent alors une opportunité foncière peu chère pour de nouvelles industries telle les data centers et les opérateurs télécoms qui s’y installent en masse depuis les années 2010. On retrouve donc là encore des dynamiques foncières et économiques, poussées par des politiques d’État, similaires à celles de Marseille.

      Mais de façon générale, comme aime le dire l’association France Datacenters, la plus grande association de lobbying en la matière, la France est « la destination idéale », une véritable « data centers nation ». En effet, détaille l’association dans cette vidéo promotionnelle, la France possède des secteurs économiques solides et diversifiés, tels ceux du numérique et des télécommunications, de la finance, de l’automobile ou de l’aéronautique, secteurs moteurs des data centers. Le gouvernement français a, poursuit-elle, lancé de nombreuses initiatives et des financements dédiés à la numérisation des industries (10 milliards dédiés au secteur numérique au cours des dernières années), permettant au secteur des data centers une croissance multipliée par deux entre 2016 et 2021, avec un milliard d’euros d’investissement annuel. Mais aussi et surtout, un foncier peu cher et facilement accessible, une énergie électrique à bas coût (la deuxième la moins chère en Europe, avec une moyenne de 84 euros le mégawattheure en 2020) et à faibles émissions carbone (car majoritairement nucléaire). L’infrastructure réseau de la France, avec son réseau fibré, sa 5G et ses câbles intercontinentaux, est également présentée comme un atout majeur à bas coût d’accès. L’infrastructure électrique française est présentée comme très développée et solide, ayant un coût de maintenance infrastructurelle gratuit pour les data centers, car maintenue par les entreprises publiques RTE et Enedis, qui ont promis un investissement de plus de 100 milliards d’euros d’ici 2035 sur cette infrastructure. Cette vidéo souligne de plus que les industries disposent en France de nombreux avantages fiscaux, et même de financements régionaux pour leur implantation.

      Le lobby des data centers de France peut en effet compter sur des politiques favorables. En 2018, l’Assemblée nationale a voté, sur proposition du député Bothorel, une aide fiscale pour les data centers, consistant à appliquer un tarif réduit à la taxe intérieure de consommation finale d’électricité (TICFE), d’ordinaire de 22,5 euros par mégawattheure (MWh), qui sera alors divisée par 2 pour les data centers, soit 12 euros par mégawattheure, au-delà du premier GWh consommé. En 2019, l’ancien ministre de l’économie Bruno Le Maire, lors de l’inauguration à Pantin d’un data center d’Equinix hébergeant, parmi des géants américains, Docaposte (groupe La Poste) et les serveurs de la SNCF, déclarait :

      Notre ambition c’est que la France soit la première terre d’accueil de data centers en Europe. […] L’installation sur le territoire national de data centers est une nécessité pour accélérer l’accès des entreprises aux outils de la transformation numérique et un enjeu de souveraineté pour maintenir sur le territoire national les données sensibles des entreprises.

      Deux ans plus tard, en 2021, le ministre, accompagné de Cédric O, alors secrétaire d’État chargé du numérique, lançait, dans le cadre du Plan « France Relance », la stratégie nationale d’accélération pour le Cloud :

      Doté de 1,8 milliard d’euros, dont 667 millions d’euros de financement public, 680 millions d’euros de cofinancements privés et 444 millions d’euros de financements européens, […] vise à renforcer le soutien à l’offre de la filière industrielle de cloud française et mise sur l’innovation et les atouts de l’écosystème français du Cloud, […] accélérant le [en gras dans le texte] passage à l’échelle des acteurs français sur les technologies critiques très demandées, telles le big data ou le travail collaboratif […]

      Ce plan a surtout servi les GAFAM et leur implantation plus profonde dans nos territoires. Ainsi, peu après, les français OVH et Dassault Systems concluent un partenariat avec les clouds de Google et Microsoft, que le gouvernement approuve sous couvert de leur localisation dans des data centers en France, pour accueillir des données sensibles. C’est ce qui permettra au Health Data Hub, ce projet de privatisation des données de santé des français, que nous dénoncions en 2021, de continuer à être hébergé par Microsoft en France jusqu’au moins en 2025, malgré de nombreuses contestations de la société civile et d’associations. Orange, quant à lui, a conclu dès 2020 un accord avec le cloud AWS d’Amazon pour « accélérer la transformation numérique des entreprises vers le cloud AWS ». Google, suite à l’annonce du plan stratégique cloud en 2021, déclare alors commencer son plan d’implantation en France, qui est désormais terminé avec succès. Plus récemment, sur le site de l’Élysée, on peut lire l’annonce du dernier plan d’investissement de Microsoft (4 milliards d’euros en France) pour étendre son infrastructure cloud dédiée à l’IA, « le plus important à ce jour dans le pays, pour soutenir la croissance française dans la nouvelle économie de l’intelligence artificielle » salué par Emmanuel Macron qui s’est déplacé pour l’occasion jusqu’au siège français de l’entreprise. On peut y lire :

      Microsoft a ainsi dévoilé l’extension de son infrastructure cloud et IA en France avec l’expansion de ses sites à Paris et Marseille qui doteront le pays d’une capacité allant jusqu’à 25 000 GPU de dernière génération d’ici fin 2025, et l’ouverture de nouveaux sites pour héberger des centres de données de nouvelle génération dans les agglomérations de Mulhouse et de Dunkerque.

      À Mulhouse, le data center dédié IA de Microsoft a déjà commencé à être construit à Petit-Landau, village de 800 habitants, qui possède ironiquement, la distinction de Commune Nature, pour ses « actions orientées vers la préservation de la biodiversité et l’amélioration de la qualité des eaux du bassin Rhin-Meuse ».

      Les data centers : ces mega-ordinateurs bétonnés en surchauffe aux multiples dangers environnementaux

      Un data center, infrastructure pilier de ce qu’on a appelé le « cloud », n’a rien de nuageux, de léger ou de vaporeux. Au contraire, ces grands entrepôts sont des bâtiments bétonnés de plusieurs étages, aux planchers et parois fortifiés, lourds et massifs, pour pouvoir supporter sans risques d’effondrement le poids conséquent des milliers de serveurs qu’ils abritent. Ces serveurs, qui tournent en permanence, utilisent de grandes quantités d’électricité. Ils sont dotés chacun de nombreuses puces et composants électroniques tels des processeurs et cartes graphiques, qui génèrent de la chaleur en quantité. Ces serveurs ont besoin, pour garder un fonctionnement optimal et éviter les pannes, de bénéficier d’une température d’air ambiant ne dépassant pas les 28 degrés Celsius. Bien souvent, par précaution, les data centers ne souhaitent pas dépasser les 23 – 25 degrés. C’est pourquoi ils sont toujours équipés de systèmes de climatisation et de refroidissement de la température ambiante. Il s’agit de systèmes classiques basés sur l’air climatisé par fluides frigorigènes, ou de circuits de refroidissement utilisant la fraîcheur de l’eau. Parfois les deux types de systèmes, par air conditionné et eau, cohabitent dans un data center.

      Les data centers consomment de grandes quantités d’électricité et d’eau. Pour satisfaire ces besoins, ils sont raccordés en France au réseau d’électricité national, et bien souvent aux circuit d’eaux potable de la ville ou des territoires sur lesquels ils se trouvent. C’est le cas par exemple de PAR08, le data center de Digital Realty à la Courneuve, dont le directeur France Fabrice Coquio, surfant lui aussi sur la vague du marketing olympique, aime dire qu’il a été très important à l’occasion des Jeux Olympiques de Paris 2024. Construit au sein d’un complexe de quatre data centers surnommé le « vaisseau spatial », avec une surface totale de 40 000 m² de salles machines (correspondant à 7 terrains de football) et 120 Megawatt de puissance électrique, ce data center est aujourd’hui le plus grand de France. Dans ce rapport de la Direction régionale de l’environnement, de l’aménagement et du logement (DREAL) d’Île-de-France, PAR08 est pointé du doigt pour son utilisation annuelle massive de 248 091 m3 d’eau, provenant directement du circuit d’eau potable de la ville de Saint-Denis, dans une zone sujette aux sécheresse répétées depuis 2003, comme le pointait cette étude de l’OCDE (Organisation de coopération et de développement économiques) en 2023 sur « la gestion du risque de raréfaction de la ressource en eau liée au changement climatique dans l’aire urbaine fonctionnelle de Paris ». Cette eau est utilisée par le data center pour son système de refroidissement adiabatique, mais aussi pour la vaporisation des espaces qui doivent garder une hygrométrie optimale. Outre le besoin excessif en eau, le rapport pointe le manque de plan d’aménagement de l’usage de l’eau en cas de crises de sécheresse, obligatoire dans de telles circonstances. Mais la priorité est encore une fois ici politique et économique, et non pas environnementale, ce data center ayant profité du contexte lié aux JOP 2024.

      Ces systèmes de refroidissement à eau sont désormais privilégiés par les constructeurs de data centers dans le monde entier. D’abord parce que les systèmes de refroidissement purement électriques, comme ceux qui opèrent par fluides frigorigènes, sont très énergivores et ont donc un coût économique important. Ensuite, parce que l’eau n’est pas une ressource qui rentre dans le calcul des impacts usuels des data centers sur l’environnement, celui-ci étant en général basé sur la consommation d’électricité et le Power Usage Effectiveness (PUE), ou indicateur d’efficacité énergétique.

      Parfois, ces systèmes de refroidissement, quand ils ne sont pas reliés au réseau d’eau potable du territoire les accueillant, captent directement l’eau potable de nappes phréatiques, de fleuves ou de lacs à proximité. C’est le cas par exemple du data center de Facebook situé sur la ville espagnole de Talaveira de la Reina, dans la région de Castilla-La Mancha en Espagne, que le collectif Tu Nube Seca Mi Rio (« Ton nuage assèche ma rivière ») dénonce, entre autre pour son utilisation de plus de 200 millions de litres d’eau par an, équivalent à la consommation de 4 181 habitant⋅es de la région. Il s’agît ici d’un data center dit « hyperscaler », aux grandes dimensions et capacités de stockage et de traitement des données, sans qu’il y ait un consensus sur la définition. D’une puissance de 248 Megawatt, étendu sur plus de 300 000 m2 de terrain, ce data center géant bénéficie d’un soutien politique national et local. Bien que la zone de son implantation connaisse un fort stress hydrique permanent depuis des décennies, d’abord de par sa situation géographique et son climat quasi désertique, et désormais par la crise environnementale qui l’aggrave, le coût du litre d’eau y est faible. Ici encore, l’implantation des data centers sur le territoire est régie par des impératifs avant tout économiques, et non par des critères sociaux ou environnementaux, car comme le déplore Aurora Gomez du collectif « Ces entreprises extérieures s’imposent et accaparent les ressources. C’est du technocolonialisme ! […] Les autorités restent sourdes à nos alertes et font semblant de ne pas nous voir. ».

      Pour assurer une électrification continue des serveurs, les data centers disposent d’une triple alimentation en énergie. En plus d’être raccordés au réseau électrique, ils disposent également de groupes électrogènes et de leurs cuves de fioul prêts à prendre la relève en cas de coupure d’électricité, et de batteries et autres accumulateurs d’énergie censés assurer les quelques secondes de passage entre réseau électrique et groupes électrogènes. L’ensemble de ces dispositifs (serveurs, refroidissement, cuves de fioul, batteries) est potentiellement dangereux pour l’environnement et les riverain·es : fluides frigorigènes qui sont susceptibles de polluer l’air en cas de fuites, mais aussi nuisances sonores, que ce soit à l’intérieur du bâtiment, du fait des milliers de serveurs qui tournent en permanence avec chacun plusieurs ventilateurs, mais aussi du bruit extérieur et des vibrations causées respectivement par les systèmes réfrigérants placés sur les toits ou par les sous-stations de transformations électriques et les systèmes de générateurs au fioul qui sont testés plusieurs heures par mois. Ces nuisances sonores sont réglementées en France, et les data centers classés ICPE sont toujours concernés et font l’objet d’obligations et de contrôles en la matière, et ont par le passé fait l’objet de plaintes de riverains.
      Une autre source de nuisances environnementales sont les cuves de fioul et les locaux à batteries lithium qui constituent des risques de pollution des nappes phréatiques pour le premier, et des risques d’incendies dans les deux cas. En particulier, les feux de ces batteries au lithium ne sont pas des feux ordinaires : ils sont bien plus difficiles à éteindre et ont une durée bien plus longue, comme l’explique cet article de Reporterre qui relate l’effort démultiplié des pompiers pour éteindre ce type de feu, ou comme l’illustre l’incendie récent d’un data center de Digital Realty à Singapour, lequel rappelle également l’incendie de deux data centers d’OVH à Strasbourg en 2021.

      C’est en raison de tous ces risques que les data centers sont le plus souvent qualifiés d’« Installation classée pour la protection de l’environnement » (ICPE). D’après le site du ministère de la Transition écologique, de l’Énergie, du Climat et de la Prévention des risques, ce label ICPE recense les établissements « susceptibles de créer des risques pour les tiers-riverains et/ou de provoquer des pollutions ou nuisances vis-à-vis de l’environnement ». Du fait de ce classement, les data centers sont réglementairement soumis à un certain nombre d’obligations et de contrôles de la part du ministère, entre autres à travers les services déconcentrés que sont les DREAL, Direction régionale de l’environnement, de l’aménagement et du logement, placées sous l’autorité du préfet de région et des préfets de départements.
      Data centers de Digital Realty : fuites répétées de gaz fluorés à fort potentiel de réchauffement climatique

      De nombreuses irrégularités ont été observées par les inspections de la DREAL de Provence-Alpes-Côte d’Azur s’agissant des data centers MRS2, MRS3 et MRS4 de Digital Realty à Marseille. Ces éléments passés sous les radars, révélés récemment par le journal indépendant Marsactu, sont pourtant documentés dans les rapports d’inspections consultables sur la base de données Géorisques.

      L’irrégularité la plus préoccupante concerne le data center MRS3 : depuis 2021, ce dernier fait l’objet de fuites répétées de gaz fluorés, ainsi rejetés dans l’atmosphère. Les services de l’inspection de la DREAL ont demandé à plusieurs reprises au géant américain de prendre les mesures nécessaires pour arrêter ces fuites. Faute de réaction, cela a abouti en octobre 2023, trois ans après les premiers constats de fuites, à une mise en demeure de la société Digital Realty (ex-Interxion) par un arrêté préfectoral n°2023-215-MED. Voici un extrait de cette mise en demeure (consultable en intégralité ici) :

      « Considérant que la société Interxion France [ancien nom de Digital Realty] est autorisée à exploiter un data center, dénommé MRS3, situé sur la commune de Marseille ;
      Considérant que lors de la visite du site en date du 3 mars 2023, l’inspecteur de l’environnement a constaté que les équipements ne sont pas équipés d’un dispositif de détection de fuite fonctionnel ;
      Considérant que ce constat constitue un manquement aux dispositions de l’article 5 du règlement européen n°517/2014 du 16 avril 2014 relatif aux gaz à effet de serre fluorés ;
      Considérant que lors de cette visite il a également été constaté que les dispositions prises par l’exploitant sont insuffisantes pour éviter la survenue de fuites récurrentes de gaz dans l’environnement depuis 2021, ce qui constitue un manquement aux dispositions de l’article 3.2 du Règlement européen n°517/2014 précité ;
      Considérant que les installations de production du froid du site MRS3 ont dû être rechargées, du fait de fuites, par 745 kg de fluide frigorigène R134A depuis 2021, ce qui correspond en équivalent CO2 à une distance de près de 9 millions de kilomètres effectuée avec un véhicule thermique sans malus ni bonus écologique (émissions de CO2 d’environ 120g/km) ;
      […]
      Considérant de plus que, compte tenu de l’absence de système de détection de fuite sur l’équipement, qui réglementairement alerte l’exploitant ou une société assurant l’entretien lorsqu’une fuite entraîne la perte d’au moins 10% de la charge de fluide contenu dans l’équipement, ne permettant pas à l’exploitant de mettre en œuvre les actions correctives limitant l’émission de gaz à effet de serre dans l’atmosphère, il convient d’imposer à l’exploitant les mesures nécessaires pour prévenir les dangers graves et imminents pour la santé, la sécurité publique ou l’environnement, conformément à l’article L.171-8 du code de l’environnement ; »

      Le fluide frigorigène R-134A dont il est ici question, autrement nommé HFC-134A, est un gaz fluoré qui contribue grandement à l’effet de serre, avec un Potentiel de Réchauffement Global sur 100 ans (PRG100 ou GWP100 en anglais) de 1430. Ces fluides frigorigènes fluorés et leurs effets sur l’environnement sont connus depuis les années 1990, puisqu’à l’époque ils ont été reconnus comme principale cause du trou et de l’amincissement de la couche d’ozone. Certains types de gaz frigorigènes, dont ceux responsables de ce trou, ont déjà été interdits à la circulation. D’autres, dont celui utilisé ici par MSR3, font aujourd’hui l’objet, après les conventions de Kyoto et de Paris sur le climat, de réglementations contraignantes de l’Union Européenne (régulations dites F-Gas I, II et III). Celles-ci visent à interdire progressivement mais entièrement d’ici 2030 ces gaz fluorés polluants, alors que de nouveaux types de gaz fluorés non polluants sans effet de serre sont déjà largement commercialisés depuis plusieurs années.

      En partant du calcul de la DREAL ci-dessus, qui fait correspondre ces fuites répétées depuis 2021 à un équivalent CO2 rejeté dans l’atmosphère de 9 millions de km effectués en voiture thermique, nous estimons que cela correspond également à (9M 0,120 kgCO2eq) 1 080 tonnes équivalent CO2 émises depuis 2021. Nous pourrions continuer les calculs d’équivalence et ramener cette quantité à l’émission par nombre d’habitants, par nombre de piscines au par nombre de vols Paris-New-York que cela représente. Mais ce qui nous préoccupe ici, c’est le fait que ce géant américain, tout en se permettant de polluer, multiplie les déclarations de greenwashing dans la presse, en bénéficiant de surcroît d’un climat politico-médiatique fait de louanges et de connivences de la part des préfets, élus de la ville et dirigeants de la région, alors même que les services de l’État alertent sur ces pollutions. Ainsi, la présidente de la métropole Aix-Marseille, Martine Vassal, adressait ses voeux de nouvelle année en janvier 2023 depuis MRS3, le data center mis en demeure peu de temps après. Plus récemment, l’adjoint au numérique responsable de la ville de Marseille, Christophe Hugon (Parti Pirate), accompagné de représentants du préfet de région, de la présidente de la métropole et du président de la Région Sud, tenaient pour leur part des discours élogieux à l’égard de Digital Realty, prenant la pose ensemble lors de l’évènement presse organisé par l’entreprise au palais du Pharo pour célébrer le dixième anniversaire de sa présence sur Marseille.

      Ces fuites de gaz fluoré ne sont pas les seules irrégularités constatées par les services de la DREAL au cours des différentes inspections portant sur les data centers de Digital Realty à Marseille. Le data center MRS2, à proximité immédiate de MRS3 et du futur MRS5, est ainsi à l’origine d’incidents de fuites de fluides frigorigènes fluorés qui n’ont pas été déclarées aux autorités, alors même que ces déclarations sont obligatoires au-delà d’une certaine quantité, comme le soulève le rapport d’inspection de la DREAL de mars 2023.

      Par négligence, Digital Realty est donc responsable d’émissions répétées de gaz à effet de serre. Cette négligence aggravée, voire cette faute intentionnelle compte tenu du fait que l’exploitant a été mis au courant dès 2021 et que ces fuites se sont répétées par la suite, devrait suffire à mettre un coup d’arrêt aux déploiements en cours de Digital Realty. Or, c’est le contraire qui se produit. A Marseille : le projet de construction du data center MRS5 vient d’obtenir un avis positif de la part des autorités environnementales, de la ville et de la préfecture, et même du commissaire en charge de l’enquête soi-disant publique, et ce malgré une trentaine d’avis négatifs d’associations d’habitantes et habitants, d’organisations environnementales telle France Nature Environnement, d’élues et du collectif Le nuage était sous nos pieds qui répondaient à cette enquête.

      Nous sommes d’autant plus interpelées par la lecture des rapports de la DREAL que, à travers la voix de son président en France Fabrice Coquio, Digital Realty se vante largement dans les médias, dans la presse spécialisée et dans les conférences techniques des industriels des data centers de l’exemplarité environnementale de MRS3 (le site mis en demeure) et de MRS4. À l’en croire, ces sites industriels seraient des modèles du genre en termes écologiques, des « data centers verts » grâce notamment au système de refroidissement dit « river cooling » dont ils sont dotés, mais qui n’a visiblement pas empêché cette pollution considérable par gaz fluorés. Qui plus est, cette pollution a été dissimulée par F. Coquio et les autres dirigeants de Digital Realty. Un « data center vert » aux 1080 tonnes de CO2 de pollution en gaz fluorés émis depuis trois ans par négligence intentionnelle, voilà la réalité que Digital Realty et les pouvoir politiques locaux, cachent et habillent de greenwashing.
      Le river-cooling : privatisation et accaparement de ressources en eau de qualité potable

      La « Galerie à la Mer », construite en 1905, permet d’évacuer le trop plein d’eau des anciennes mines de charbon de la ville voisine de Gardanne, située plus au Nord. Ce trop plein est versé dans la Méditerranée au niveau de Cap Pinède à Marseille. Gérée depuis 2007 par le Bureau de Recherches Géologiques et Minières (BRGM), l’autorité nationale de service géologique, la Galerie est composée d’une partie supérieure, utilisée pour évacuer les eaux d’exhaure (ferrugineuses) de l’ancienne mine vers la mer, et d’une partie inférieure, dite « cunette », qui permet de collecter et évacuer les eaux de ruissellement et d’infiltrations provenant du Massif de l’Étoile à proximité. D’après le document de conclusion à l’enquête publique en 2018, écrit par le commissaire enquêtaire en charge, l’eau de la cunette est une eau « de très bonne qualité » et de « qualité potable » pouvant donc servir à la population ou de réserve stratégique en cas de besoin, dans une région sujette aux sécheresses.

      En 2018, l’entreprise Digital Realty a obtenu de la Préfecture l’autorisation de détourner pour une durée de sept ans les eaux de la cunette de la Galerie à la Mer, afin de les récupérer pour refroidir son data center MRS3. Les eaux fraîches de cette cunette, qui sont à 15,5 degrés Celsius toute l’année, sont ainsi captées et injectées dans un circuit de refroidissement dans le data center, pour échanger leurs « frigories » contre des « calories » dans des « échangeurs thermiques ». Elles repartent ensuite, réchauffées à environ 27 degrés, dans la Galerie à la Mer, à destination de la Méditerranée au niveau de Cap Pinède. Ce système est appelé « river-cooling ».

      Tandis que le dirigeant en France de Digital Realty, Fabrice Coquio, proclame dans une vidéo promotionnelle, que le rejet d’eau chaude dans la Méditerranée « n’a aucun impact sur la faune et la flore », les conclusions de l’enquête publique précédemment citée, soulignaient dès 2018 des inquiétudes relatives aux effets du rejet de ces eaux chaudes dans le milieu marin, pointant notamment les « risques d’eutrophisation » (déséquilibre du milieu provoqué par l’augmentation de la concentration d’azote et de phosphore) entraînée par les rejets d’eau rechauffée de la Galerie à la mer, risques accrus en période estivale. Mais, d’après l’enquête, bien d’autres impacts sont méconnus à ce jour, comme par exemple « l’éventuelle prolifération des algues filamenteuses ». Il faut par ailleurs noter que ce rapport se basait sur des estimations proposées par Digital Realty à 23,4 degrés, et non pas les 27 degrés effectivement constatées depuis la mise en place du système. Malgré ces alertes, le river cooling d’abord mis en place pour MRS2 et MRS3, n’a pas été mis en pause, mais au contraire étendu aux data centers MRS4 et MRS5. La question des eaux réchauffées par ces data centers et renvoyées dans le milieu marin, dans un contexte où le réchauffement des mers entraîne des taux de mortalité importants dans les communautés biotiques sous marines, n’est pas prise en compte. Aucun suivi ni mesures sérieuses des effets de ce rejet ne sont aujourd’hui publiées, d’après les collectifs locaux tels le collectif des Gammares ou l’association des habitants du 16ème arrondissement dont nous parlerons plus bas, directement concernés par ces enjeux.

      Ainsi, dès 2018, lors de l’enquête publique relative à la construction du river cooling pour MRS3, plusieurs communes se situant sur le tracé de la Galerie à la Mer entre Gardanne et Marseille avaient émis des réserves sur l’accaparement de l’eau publique par une entreprise et proposé d’autres usages pour ces eaux. Les conclusions de l’enquête allaient même dans ce sens, pointant que l’eau potable devait en premier lieu servir l’intérêt général. La commune de Septème-les-Vallons demandait par exemple que soit priorisée la possibilité de pomper une partie des eaux potables de la Galerie à la Mer pour le soutien de l’activité agricole et de la biodiversité et pour le déploiement de dispositifs de prévention des incendies (DFCI). La ville de Mimet demandait aussi à pouvoir utiliser cette réserve d’eau douce. Le collectif des Gammares à Marseille, qui analyse en profondeur les enjeux de l’eau à Marseille, pointe ainsi ces enjeux en septembre 2024, dans sa réponse à l’enquête publique sur la construction de MRS5, qui utilisera lui aussi le river cooling :

      « Alors que les hydrologues enjoignent à la sobriété et régénération des cycles naturels de l’eau, le choix de refroidir les data centers pour que des géants du numérique puissent louer des espaces pour leurs serveurs ne nous parait pas d’intérêt général.
      Dans un contexte d’accroissement des épisodes climatiques extrêmes ayant pour cause le réchauffement climatique, où les sécheresses s’intensifient et se produisent de plus en plus régulièrement en Région Sud et ailleurs, mettant en cause l’approvisionnement en eau potable ou à usage agro-alimentaire, il serait urgent à ce que soient systématisées et publiées toutes les enquêtes portant sur cette ressource commune qui est l’eau et nous considérons que les eaux doivent être autant que possible allouées à des usages d’utilité publique ou pour les milieux qui en ont besoin. ».

      Détourner des eaux fraiches de qualité potable pour refroidir gratuitement ses data centers et rejeter de l’eau réchauffée en mer : voici donc le river cooling de Digital Realty à Marseille.
      Le river cooling : du greenwashing mensonger financé par de l’argent public

      Ce river cooling est devenu un argument phare de la communication de Digital Realty, en France et dans le monde entier. Dans la presse généraliste il est présenté comme une « solution innovante verte minimisant l’impact écologique » de l’entreprise. Dans la presse spécialisée, Digital Realty se vante d’utiliser de l’eau gratuite d’une installation publique. Ce n’est pas uniquement l’eau qui est gratuite pour l’entreprise. L’État français a financé en partie les travaux de détournement des eaux de la Galerie à la Mer vers les data centers de Digital Realty, à travers deux subventions publiques. Sur un total d’à peu près 15 millions d’euros d’investissements, la Région Sud a ainsi apporté 800 000 euros, tandis que l’Agence publique de la transition écologique, l’ADEME, a subventionné le projet à hauteur d’1,9 millions d’euros au nom du fond de « décarbonation de nos industries ».

      Dans le dossier de maîtrise d’ouvrage inclus dans les conclusions du commisaire rapporteur, déposé en 2018 par Digital Realty, on peut lire que le système de « river cooling » permettrait de réduire de 90% la consommation d’électricité destinée au seul refroidissement de ses data centers marseillais. En septembre 2024 son dirigeant Fabrice Coquio parle d’une réduction de 30% de la consommation totale d’électricité de l’ensemble des data centers à « river cooling » grâce à ce système. Or, pour son prochain data center en construction MRS5, selon les chiffres donnés par l’entreprise lors de l’enquête publique du projet, on constate que le « river cooling » permettra de réduire de seulement 4,33% la consommation totale en électricité (calcul d’après les données page 107 : (241 133 856 kWh – 230 695 705 kWh) / 241 133 856 kWh 100). En effet, la dépense d’énergie la plus importante d’un data center se situe au niveau des serveurs. Ces derniers occupent 79 à 83 % de l’énergie totale du data center MRS5 d’après l’entreprise (page 107 du dossier précité).

      La dépense énergétique de ces data centers qui s’agrandissent et s’étendent sans cesse, malgré des optimisations à la marge via des méthodes comme le « river cooling » est globalement nettement en hausse, et c’est là une tendance globale. Ces optimisations sporadiques, baissent les coûts pour l’entreprise tout en lui permettant de garder un potentiel commercial constant ou grandissant, et sont donc intéressantes pour elles, mais se font toujours et encore à travers l’accaparement de nouvelles ressources qui peuvent servir les habitantes et habitants.

      La communication de Digital Realty laisse également entendre que le « river cooling » serait l’unique système de refroidissement des data centers. Ce qui s’avère faux à la lecture de ce rapport. Ce système ne remplace pas les systèmes de refroidissement par air conditionné à fluides frigorigènes, qui causent les fuites de gaz fluorés mentionnées plus haut dans l’article, mais vient s’y ajouter. Le refroidissement des data centers de l’entreprise à Marseille ne se fait qu’en petite partie par « river cooling ». Mais le plus grave dans la communication mensongère du dirigeant de Digital Realty est le fait qu’il prétend que l’eau utilisée pour le river cooling serait de l’eau sale provenant des mines de Gardanne, comme il le répète dans les médias et la vidéo promotionnelle avec Jamy citée plus haut. C’est faux, comme le montre d’ailleurs, cette vidéo d’Interxion (ancien nom de Digital Realty) trouvée sur un compte Viméo d’une employée de l’entreprise, vidéo qui explique bien la construction du river-cooling et son utilisation de l’eau de la nappe phréatique récoltée dans la cunette.

      De l’argent public utilisé pour financer les data centers d’un géant américain côté en bourse, utilisant une ressource commune précieuse, l’eau de qualité potable, tout en rejetant des gaz fluorés à fort impact de réchauffement climatique, voilà la réalité des data centers de Digital Realty aujourd’hui à Marseille. Le plus ironique est que c’est précisément ce river cooling que l’Etat a aidé à financer, qui sert aujourd’hui d’argument de greenwashing médiatique mondial à cette entreprise.

      Accaparement de l’énergie électrique au détriment de projets d’intérêt commun à urgence environnementale

      Bien que l’électricité, majoritairement issue de la filière nucléaire, soit présentée comme « verte » en France, elle est bas carbone, mais pas neutre en carbone. En effet, l’intensité carbone de l’électricité en France est de 32 gCO2eq par kilowatt-heure d’après le gestionnaire du réseau de transport d’électricité en France RTE. Nous n’allons pas ici calculer les émissions CO2 dues à l’utilisation massive d’énergie électrique par l’ensemble des data centers marseillais. Nous n’avons aucun doute quant au fait que cette consommation est considérable, et qu’elle est également grandissante. En effet, nous constatons partout en France et dans le monde une tendance au lancement de projets de data centers de plus en plus grands et de plus en plus énergivores. Les data centers de type « hyperscaler » se multiplient partout, et les prévisions ne vont qu’en augmentant avec l’arrivée de l’Intelligence Artificielle, qui crée un effet de passage à l’échelle multiple. En effet l’Intelligence Artificielle demande des serveurs dotés de puces dédiées et de cartes graphiques puissantes, consommant plus, chauffant plus, nécessitant des systèmes de refroidissements dédiés, modifiant en profondeur les bâtiments et la globalité de la structure d’un data center. Ce qui nous intéresse ici ce sont les effets systémiques de ces infrastructures et de ce numérique qu’on nous impose, les effets rebonds qu’ils génèrent sans cesse et qui ne sont jamais débattus.

      Les data centers de Digital Realty à Marseille utilisent l’énergie électrique disponible que les deux gestionnaires de réseau et de transport énergétiques nationaux, RTE et Enedis, sont en capacité d’acheminer à Marseille, avec les infrastructures électriques actuelles. Plutôt qu’une simple « utilisation », il s’agit d’un véritable accaparement. Car l’énergie électrique nécessaire à ces data centers est captée au détriment de projets d’intérêt commun à urgence environnementale de la ville. Dans leur rapport « L’impact spatial et énergétique des data centers sur les territoires » les chercheuses Fanny Lopez et Cécile Diguet notaient un premier conflit d’usage en 2012, au détriment de l’électrification des bus municipaux à Marseille (p. 62) :

      « Pour Brigitte Loubet, conseillère spéciale chaleur de la DRIEE, comme pour Fabienne Dupuy, adjointe
      au Directeur territorial Enedis en Seine-Saint-Denis, les demandes des data centers peuvent être
      bloquantes pour les territoires. La commande d’électricité se résumant à : premier arrivé / premier servi,
      des files d’attentes se constituent sur différents sites. […] C’est l’exemple de Marseille, où le maire Jean-Claude Gaudin a dû négocier avec Interxion pour récupérer 7 MW « parce qu’ils avaient oublié de les
      réserver pour leurs bus électriques » » .

      C’est à nouveau le cas aujourd’hui pour l’électrification des quais au Grand Port Maritime de Marseille, électrification qui permettrait aux nombreux navires de croisière, ferrys de lignes reliant la ville à la Corse ou à d’autres villes de Méditerranée, et au Chantier Naval de Marseille de se brancher électriquement lors de leurs escales, évitant ainsi le rejet dans l’atmosphère d’une pollution considérable due à la combustion de fioul. Cette pollution aux oxydes d’azote (NOx) et autres particules nocives a des effets immédiats sur la santé des habitantes et habitants les plus proches, mais aussi sur l’ensemble des habitant⋅es de la ville, ville où l’on comptabilise tous les ans environ 2 500 morts de pollution d’après les autorités de santé. Cette électrification en plusieurs étapes, entamée depuis de longues années, est insuffisante pour accueillir la croissance du flux estival des bateaux, Marseille étant devenue une ville où le tourisme pollueur par croisières n’a de cesse d’augmenter comme le constate et déplore l’association Stop Croisières.

      De surcroît, cette électrification est sans cesse repoussée ou ralentie. Lors de sa réponse à l’enquête publique en vue de la construction de MRS5, la fédération des Comités d’intérêts de Quartier du 16ème arrondissement de Marseille qui regroupe les associations des habitantes et habitants, demandant un arrêt de la construction de tous les data centers de la ville, écrit :

      « […] les riverains sont confrontés aux pollutions atmosphériques des navires et aux nuisances sonores des activités portuaires. Le directeur général adjoint du GPMM a estimé la puissance électrique encore nécessaire aux activités du port et à l’électrification des quais à 100 à 120 MW. […] La puissance totale des data centers actuels s’élève à 77 MW, […] la puissance totale des data centers programmés est de 107 MW. Les data centers de Digital Realty situés dans l’enceinte du GPMM sont alimentés par le poste source de Saumaty, situé dans quartier de Saint-André. Le futur data center de Segro situé à Saint André sera lui alimenté par le poste source de Septèmes-les-Vallons situé à 11 km. Le poste source de Saumaty serait-il saturé ? … L’electrification des quais du Chantier Naval de Marseille dans le GPMM est repoussée à 2029. Les data centers seraient-ils servis avant le GPMM ? ».

      Ce conflit d’usage d’électricité entre data centers et électrification des quais de navires, c’est la mairie elle-même qui le constate dans sa délibération au conseil municipal d’octobre 2023, votant également la constitution d’une commission régulatoire sur les data centers. Cette commission semble parfaitement insuffisante. C’est également ce que pointe Sébastien Barles, adjoint en charge de la transition écologique de la ville de Marseille. Ce dernier demandait un moratoire sur les data centers de la ville, moratoire qui a été écarté, alors qu’il constitue une étape indispensable pour avancer vers un début de maîtrise de ces infrastructures en pleine expansion. Par ailleurs, peu de choses sont aujourd’hui révélées par la mairie autour de cette commission régulatoire de la ville — dont feraient partie, autres autres, le dirigeant de Digital Realty et l’adjoint du Parti Pirate élogieux à son égard, Christophe Hugon. Ce manque de transparence n’est pas nouveau, la mairie de Marseille et en particulier C. Hugon, adjoint également à la transparence et l’Open Data de la ville, ayant déjà été pointé du doigt dans notre campagne Technopolice, pour son hypocrisie politique mais aussi pour son manque de transparence et son défaut de réponse aux demandes d’accès aux documents administratifs, qui sont pourtant un droit et une obligation constitutionnelle.
      Îlots de chaleurs urbains

      Ces data centers qui s’accumulent sur le territoire de Marseille sont de véritables « grille-pains en surchauffe » pour reprendre les termes de Laurent Lhardit, adjoint à la mairie de Marseille en charge du dynamisme économique, de lʼemploi et du tourisme durable.

      En effet, les lois de la thermodynamique font que la chaleur qu’on évacue des serveurs de ces data centers ne disparaît pas, mais se retrouve rejetée dans l’air entourant les bâtiments, dans les nuages, les vrais, ou dans l’eau de mer réchauffée par le river cooling. Dans une ville au climat chaud comme Marseille, sujette à des épisodes caniculaires de plus en plus nombreux, il est inquiétant de continuer à ignorer ce problème qui devient vital. Les scientifiques alertent déjà sur les effets que ces pics de chaleur répétés ont sur la vie humaine, et sur le fait qu’à plus ou moins court terme, des régions entières de notre planète et de l’Europe deviendront progressivement inhabitables en raison de cette chaleur insoutenable (voir par exemple cet atlas de prévisions des chaleurs mortelles à venir dans le monde).

      Il est grand temps de penser l’urbanisme en priorisant les espaces verts, avec des végétaux qui rafraîchissent et créent de l’ombre pour rendre les villes plus habitables, moins nocives pour la santé, plus soutenables face aux changements environnementaux en cours.

      Récupération de « chaleur fatale » ou comment faire perdurer le statu quo écocidaire

      L’utilisation de la « chaleur fatale » consiste en la récupération de la chaleur émise par les data centers, qui deviendraient alors, dans un idéal d’économie circulaire technomagique, des sortes de chaudières numériques capables de chauffer des immeubles ou des piscines olympiques. En réalité, ces projets de récupération de chaleur dite « fatale » (parce qu’elle est inévitable), ne sont pas toujours efficaces ni même possibles. Pour que cela fonctionne, il faudrait que la récupération de chaleur se fasse au plus près de la source, donc du data center, car plus la distance augmente, plus les pertes seront significatives. Mais compte tenu du bruit et des autres nuisances atmosphériques générées par un data center, réchauffer des immeubles habités ne semble pas très attrayant. Sans considérer le fait que, dans des villes aux climats chauds comme Marseille, la chaleur récupérée ne serait utile que peu de mois dans l’année, la chaleur dégagée par ces data centers devenant problématique la majorité du temps. Ainsi, un rapport de l’Uptime Insitute concluait en 2023 que les cas où cela peut être efficace sont rares, non systématiques, situés dans des zones de climat froid, et peuvent même parfois être contre-productifs (traduit de l’anglais) :

      La possibilité de réutiliser la chaleur résiduelle des centres de données est généralement limitée aux climats plus froids et peut nécessiter des connexions à des systèmes de chauffage urbain ou à des sites de fabrication. La disponibilité de ces connexions et/ou installations est fortement concentrée en Europe du Nord. La configuration d’une installation pour la réutilisation de la chaleur perdue augmente souvent la consommation d’énergie (puisque des pompes à chaleur sont nécessaires pour augmenter la température de la chaleur sortante), mais peut réduire les émissions globales de carbone en réduisant l’énergie qui serait autrement nécessaire pour le chauffage.

      Mais le vrai problème, encore une fois, n’est pas technique. Ces systèmes étant coûteux et n’ayant aucun intêrét commercial pour les data centers, ces derniers préfèrent largement y échapper, ou alors promettre constamment qu’ils les mettront en place dans un futur proche. C’est exactement ce que le lobby France Datacenter s’est employé à faire en 2022, comme le montre le registre obligatoire de déclaration de leurs acivités de lobbying auprès de la Haute Autorité pour la Transparence de la Vie Publique (HATVP), où nous pouvons lire, parmi d’autres actions de diminution de taxation ou d’échappement à des obligations de pollueurs :

      Liste des fiches d’activités
      […]
      Retirer un amendement au projet de loi énergies renouvelables visant à rendre obligatoire la réutilisation de chaleur fatale.

      Cette activité a été un succès, l’amendement rendant obligatoire la récupération de chaleur fatale a été retiré du projet de loi énergies renouvelables, au profit de « mesures incitatives » qui ont consisté, depuis 2015 au moins, à faire financer par des fonds publics, via notamment l’ADEME, les travaux de récupération de chaleur fatale qu’un data center aurait l’amabilité d’entreprendre. Les quelques cas existants servent, comme dans le cas du « river cooling », de greenwashing monté en exemple et surpublicisé. Mais cela permet aux industriels de continuer à profiter des territoires sans limites, en faisant croire que des solutions technomagiques sont possibles, tout en s’employant à repousser les obligations réglementaires qui les contraindraient à les mettre en place. Les États, quant à eux, sont tout entiers à leur service.
      Une croissance exponentielle, un extractivisme colonial sanglant

      Si l’ensemble des data centers de Digital Realty à Marseille, MRS1 à MRS5, ont une puissance électrique maximale de 98 Megawatt (16+16+24+20+22), le prochain data center de Digital Realty à Bouc-Bel-Air, MRS6, aura une capacité de 50 mégawatts à lui tout seul. Celui de PAR08 à la Courneuve, le plus grand actuellement en France, toujours de Digital Realty, a une capacité de 120 MW. Celui qui doit être construit à Dugny, en Seine-Saint Denis, toujours par Digital Realty et qui sera le futur plus grand data center de France, aura une capacité de 200 mégawatts, soit l’équivalent de 20% de la puissance d’un réacteur nucléaire EPR. L’empreinte du numérique était estimée à 2,5% de l’empreinte carbone annuelle de la France en 2020, et les data centers représentaient environ 16% de cette empreinte carbone totale du numérique selon l’Ademe et l’Arcep. Cette empreinte du numérique devrait doubler d’ici 2040 et les data centers pourraient y jouer un rôle majeur selon un avis d’expert de l’Ademe en octobre 2024.

      À l’échelle mondiale, les data centers hyperscales constituaient déjà en 2022, 37% de la capacité mondiale des data centers, et devraient en représenter 50% en 2027, cette part augmentant régulièrement. D’autre part, le besoin en eau de ces « hyperscales » augmente régulièrement. Sous la pression des pouvoirs publics en 2023, Google révélait que ses centres de données, aux Etats-Unis uniquement, utilisaient plus de 16 milliards de litres d’eau par an pour leur refroidissement. On apprenait également récemment que ses émissions de CO2 ont grimpé de 48% au cours des 5 dernières années et son usage en eau devrait augmenter de 20% encore d’ici 2030. Microsoft, quant à lui, a vu l’utilisation en eau de ses data centers augmenter de 34% en 2022 seulement, à cause de son usage de l’IA, et on peut voir la pléthore d’annonces d’investissements dans la construction de nouveaux data centers dédiés à l’IA, qui laisse présager une croissance à venir encore plus forte et inquiétante.

      Mais ces calculs institutionnels ou provenant des géants numériques, purement basés sur l’énergie électrique et son empreinte carbone, et parfois sur la consommation d’eau pour le refroidissement, ne prennent pas en compte la totalité des conflits et des accaparements de vies et de ressources vitales que ce numérique cause pour exister et s’accroître. En commençant par la phase d’extraction des nombreux minéraux qui composent les puces des processeurs et des cartes graphiques que ces data centers renferment par milliers. Génération Lumière, une association écologiste qui agit à la fois en France et en République démocratique du Congo (RdC), dénonce depuis des années un extractivisme sans scrupules de minéraux stratégiques pour nos industries numériques. En effet, la RdC renferme 70 % du cobalt mondial, utilisé pour fabriquer les batteries lithium de nos voitures électriques, de nos smartphones, et des data centers. La RdC est aussi une terre d’extraction de coltan, de cuivre, d’or, des minéraux utilisés pour les puces électroniques. Et cette extraction qui sert les industries numériques ainsi que les géants tels Apple, Nvidia (fabricant de puces graphiques) et désormais même Google, Amazon et Microsoft, est démultipliée par l’arrivée de l’IA, qui s’insère partout dans les appareils et les serveurs. Or, cette extraction se fait, comme le dit Génération Lumière, « avec notre sang », et crée en République démocratique du Congo, outre les prob lèmes dus au minage lui-même qui se fait dans des conditions inhumaines d’exploitation des travailleurs, de nombreux conflits et massacres sur le territoire.

      Ces calculs institutionnels laissent également de côté, ou ignorent à dessein, les enjeux de la fabrication des puces électroniques, de la purification des minéraux posés sur les wafers, sortes de galettes de silicium, jusqu’à leur devenir puces. L’association StopMicro, qui lutte contre l’accaparement des ressources et les nuisances causées par les industries grenobloises, et en particulier celles de la microélectronique de Soitec et de STMicroelectronics, nous rappelle ainsi que : « Derrière le dérèglement climatique et les injustices socio-environnementales, il y a des décisions politiques, des entreprises et des intérêts économiques qui conditionnent nos choix de société ». Dans ses nombreuses brochures d’analyses et dans le livre « Toujours puce » qu’elle vient de publier, l’association mène une enquête technique, sociale, politique et environnementale poussée, à la place des pouvoirs publics pourtant chargés de le faire. En prenant l’exemple de son territoire, elle explique comment on s’accapare et pollue de l’eau potable pour fabriquer des gourdes connectées avec les puces de STMicroelectronics ou Soitec, quand ce n’est pas pour équiper des armes qu’on exporte au service des guerres coloniales en cours.

      Ce numérique n’est pas le nôtre

      En regardant la liste des principaux clients de Digital Realty, nous retrouvons en masse des acteurs aux pratiques numériques contestables vis à vis des droits fondamentaux et des réglementations en vigueur. Fabrice Coquio, président de Digital Realty France, déclarait il y a peu « Sans nous, il n’y a pas d’Internet », avant de lister une bonne partie des clients de ses data centers marseillais : Facebook, Amazon, Microsoft, Netflix, Disney+, Zoom, Oracle, Youtube… Le data center MRS3, où se sont produits des rejets répétés de gaz fluorés hautement polluants, abrite en son sein les services « cloud » de Microsoft déployés dans les mairies, écoles, collèges, lycées et universités publiques, forçant tout élève dès son plus jeune âge à la création de comptes Microsoft sans grand moyen de s’y opposer.
      Sticker « Le nuage était sous nos pieds » collé sur un poteau. Photo prise lors de la balade du festival Le Nuage était sous nos pieds le 9 novembre 2024. Autocollant fabriqué lors d’un atelier organisé par le hackerspace transféministe Fluidspace à Marseille.

      Comme en atteste également le travail de La Quadrature du Net depuis ses débuts il y a plus de 15 ans, à travers notamment sa campagne d’actions de groupe contre les GAFAM, ces acteurs ont monopolisé et fait d’Internet un espace commercial géant, où règnent les violences faites aux communautés minoritaires et les discriminations en tout genre. Ces acteurs, qui utilisent en toute illégalité et immoralité nos données personnelles pour nous imposer de la publicité, polluent nos espaces en ligne et nos cerveaux, et s’accaparent notre attention à coup d’algorithmes jouant sur nos biais cognitifs et visant à susciter des dépendances psychologiques. Cette publicité est aujourd’hui coupable à son tour de l’aggravation de la crise environnementale, de par la surconsommation et le modèle insoutenable qu’elle engendre et qu’elle alimente en permanence. Couplée à l’obsolescence marketée et organisée sur tout objet de consommation, qu’il soit numérique ou non, aidée et rendue possible par les infrastructures industrielles numériques polluantes, cette publicité que les GAFAM et les géants numériques contrôlent en grande majorité est une des causes majeures de l’aggravation de la crise socio-environnementale et systémique en cours.

      L’argent public que l’État met si facilement dans les mains de tels industriels pollueurs, comme l’illustrent le fond de « décarbonation de nos industries » mentionné plus haut de même que les différents contrats publics conclus avec ces géants numériques, est ainsi distribué au détriment de projets publics à intérêt commun telle l’électrification des équipements publics, la constitution de réserves d’eau, ou encore l’air que nous respirons et la ville où nous habitons. Ces projets d’intérêt général, parfois littéralement vitaux, sont laissés de côté car la priorité est constamment donnée à la croissance numérique, qui passe par l’installation croissante de data centers et d’autres types d’infrastructures numériques.
      Ce monde-là n’est pas le nôtre

      Ce numérique de la domination, dont les câbles et les data centers sont la colonne vertébrale, imposé par la vision hégémonique de la Silicon Valley et par des politiques étatiques complices de géants sans scrupules, n’est pas le nôtre.

      Cet Internet qui reproduit les dynamiques coloniales et qui repose sur l’accaparement des ressources du sol, des minerais, de l’eau, de nos territoires, mais aussi de nos corps et espaces mentaux, structuré autour de la collecte massive de données sur nos vies, source infinie de pouvoir et de profit, n’est pas le nôtre. Ce numérique qui renforce les dominations et les inégalités, fondé sur la normativité de nos comportements, sur la police prédictive et la prise de décisions automatisées, destiné à nous contrôler et à nous surveiller, pour mieux réprimer notre colère légitime, n’est pas le nôtre. Ce numérique responsable à son tour de la crise socio-environnementale sans précédent qui nous traverse, n’est pas le nôtre et nous devons le refusons.

      Notre monde à nous est un monde de soin, soin pour soi-même, pour les unes et les autres, et pour la Terre. Notre monde numérique à nous est celui d’un autre numérique, qui nous aide à nous protéger de la surveillance et des oppressions, qui nous aide à porter des savoirs communs et d’entraide, qui nous permet de hacker, bidouiller et créer des outils, des serveurs alternatifs, des réseaux décentralisés, pour mieux s’organiser et lutter pour que d’autres mondes soient possibles.

      https://www.laquadrature.net/2024/11/20/accaparement-du-territoire-par-les-infrastructures-du-numerique

    • Le nuage était sous nos pieds

      On a cru pendant longtemps que les données volaient dans les airs. Des grappes de bits dans l’éther du « cloud » qui, imperceptiblement, se faisaient mail ou vidéo une fois l’ordinateur allumé. Et puis on a regardé sous nos pieds. La plaque en fonte Pont-à-Mousson. La trappe dans le goudron, nommée « regard », estampillée « télécom », où se lovent les câbles qui transmettent les informations à l’échelle mondiale. Un fil dont l’âme est de verre et qui transmet les données à la vitesse de la lumière. Sous nos pieds, la prolongation terrestre de grands câbles sous-marins, autoroutes qui relient et contournent les continents. Sur nos plages, leurs chambres d’atterrissement.

      Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés renferment des milliers de serveurs qui rendent possible le technocapitalisme : le trading à haute fréquence, la publicité et le pistage de données personnelles, la smart-city, l’agriculture connectée, la surveillance algorithmique via intelligence artificielle. Des « services » à n’en plus finir, imposés, marchandés, marketés, pour mieux accaparer nos territoires et nos vies, sous l’égide des plus grandes multinationales de ce monde.

      Puis, dans ces serveurs, des millions de puces et composants électroniques, des puces faites de minéraux : du silicium, du gallium, de l’or, du cuivre, du coltan, du lithium, du cobalt … À nouveau sous nos pieds, on déchire la terre pour en extraire ce qui depuis longtemps sommeille. Une extraction qui a le prix du sang, entachée des conflits qu’elle déclenche dans les pays où l’industrie numérique rejoue encore et toujours la colonisation. Ces minerais qui deviennent puces, qui deviennent gadgets, qui deviennent armes et autres instruments au service des pouvoirs politiques et industriels.

      Il n’y a pas de fatalité au « tout numérique ». Nous pouvons reprendre le contrôle. Nous devons nous organiser pour résister et mettre un terme à la destruction socio-environnementale que la trajectoire dominante de l’informatique occasionne. Nous pouvons, toutes ensemble, imaginer d’autres mondes possibles.

      https://lenuageetaitsousnospieds.org

  • #IA : les #data_centers transforment les territoires en #déserts

    Les data centers ont consommé environ 560 milliards de litres d’eau à l’échelle mondiale en 2023. Un chiffre qui selon eux pourrait plus que doubler d’ici à 2030, pour atteindre près de 1 200 milliards de litres par an.

    Derrière les promesses de l’intelligence artificielle et du progrès technologique se cache une réalité matérielle brutale : celle de milliers de data centers qui engloutissent des quantités astronomiques d’eau pour assurer leur fonctionnement. Dans un monde confronté à une crise climatique sans précédent, et où l’accès à l’eau est un enjeu crucial, ces infrastructures numériques sont de véritables gouffres écologiques. Et leur prolifération à grande vitesse ne laisse entrevoir qu’un désastre aggravé.

    Véritable colonne vertébrale du monde numérique, les data centers sont de vastes infrastructures abritant des milliers de serveurs qui stockent, traitent et transmettent les données de nos activités en ligne. Alors que les technologies occupent une place toujours plus centrale dans nos vies, leur présence se multiplie de manière exponentielle.

    Mais cette expansion fulgurante a un coût environnemental colossal : consommation massive d’électricité – issue principalement d’énergies fossiles –, pollution sonore et lumineuse continue, accaparement et artificialisation des terres, et, fait moins renseigné, mais tout aussi alarmant, ils pompent d’énormes quantités d’eau – principalement potable – pour assurer leur fonctionnement.

    En 2023, Microsoft a utilisé 7,8 milliards de litres d’eau pour ses seuls data centers – 22% de plus qu’en 2022 – là où Google en a utilisé 24 milliards, marquant une augmentation de 14% par rapport à l’année précédente.

    Une récente étude menée par l’entreprise Cloudscene fait état de plus de 11 800 data centers d’envergure en activité dans le monde en janvier 2025. Et ce chiffre n’est voué qu’à augmenter : les médias Source Material et The Guardian révèlent que les entreprises Amazon, Google et Microsoft prévoient à elles trois d’augmenter leur nombre de data centers en service de 78% – les trois entreprises en cumulent déjà 400 à elles seules.
    IA : des milliards de litres d’eau utilisés

    L’Intelligence Artificielle (IA) joue un rôle central dans cette course à la surconsommation. Car la performance qu’on lui vante nécessite une alimentation et des infrastructures toujours plus importantes, et donc la quantité d’eau utilisée pour son bon fonctionnement.

    L’Agence Internationale de L’Énergie (AIE) estime, dans son dernier rapport Energy and AI, publié en avril 2025, que les data centers ont consommé environ 560 milliards de litres d’eau à l’échelle mondiale en 2023. Un chiffre qui selon eux pourrait plus que doubler d’ici à 2030, pour atteindre près de 1 200 milliards de litres par an.

    Il est important, pour saisir le problème dans toute sa complexité, de faire la distinction entre l’eau consommée et l’eau prélevée par les data centers. L’eau prélevée représente la quantité totale d’eau utilisée dans le cadre de la construction, le fonctionnement et l’entretien de ces infrastructures.

    L’eau consommée représente la part, sur la quantité totale, dont l’utilisation ne permet pas un renouvellement de cette ressource. Toujours selon l’AIE, les quantités prélevées sont bien supérieures à celles citées précédemment ; plus de 5 000 milliards de litres prélevés en 2023, et des estimations excédant 9 000 milliards de litres en 2030.

    L’écart considérable entre les volumes prélevés et consommés s’explique par le fait qu’une grande quantité d’eau est réintroduite dans l’environnement après avoir été utilisée. Malgré cela, ce prélèvement n’est pas sans conséquences, notamment pour les populations avoisinantes.

    L’approvisionnement de ces infrastructures se fait soit par un raccordement au système d’eau potable de la commune sur laquelle elles sont installées, ou bien en pompant l’eau directement dans les nappes phréatiques. Dans les deux cas, la question de l’accaparement de cette ressource vitale pose de sérieux problèmes, tant sur le plan du stress hydrique qu’induit la multiplication des data centers que sur l’aspect antidémocratique d’une telle prolifération.

    « Au-delà de l’aspect consommation d’eau et conflit d’usage, cet accaparement est agressif. C’est ça qui est assez problématique. Agressif dans le sens où c’est non planifié, et parfois non discuté », précise Théo Alves Da Costa, ingénieur d’analyse de données en IA et coprésident de l’association Data For Good, pour La Relève et La Peste.

    « Il y a un réel problème autour du débat démocratique par rapport à l’usage de l’eau ».
    L’opacité des grandes entreprises de l’IA

    Un des problèmes majeurs réside dans l’opacité des grandes entreprises : rares sont celles qui divulguent des données précises sur leur consommation d’eau. Les quantités mises en avant par les entreprises sont souvent limitées à celles utilisées pour assurer le refroidissement des serveurs. Il est donc nécessaire de revoir ce chiffre à la hausse..

    Toujours selon l’AIE, la quantité d’eau utilisée pour le refroidissement direct ne représente en réalité qu’un quart de la consommation totale des data centers. Environ les deux tiers de cette consommation en 2023 étaient liés à la production et à l’approvisionnement en énergie, tandis que le reste concernait l’eau nécessaire à la fabrication des semi-conducteurs et microprocesseurs, éléments essentiels au fonctionnement de ces systèmes numériques.

    C’est pourquoi l’Union européenne a introduit une directive européenne sur l’efficacité énergétique. L’UE veut contraindre les data centers de plus de 500 KwH à plus de transparence sur leur consommation réelle en énergie et en eau. Une initiative d’autant plus pertinente compte tenu du poids de leur consommation d’énergie sur le continent européen – 2,7% de la production énergétique de l’UE en 2018, et qui atteindront 3,21% en 2030.
    L’IA transforme les territoires en déserts

    Ironie cruelle : ces infrastructures gourmandes en eau s’implantent de plus en plus dans des zones sujettes aux pénuries et aux sécheresses. Microsoft et Google disposent respectivement de 42% et de 15% de leur data centers dans des territoires soumis à un fort stress hydrique.

    La région de l’Aragon, au nord de l’Espagne, est l’une de celles qui en paient le plus les conséquences. Malgré la sécheresse qui frappe régulièrement la région et fragilise ses activités – reposant en grande partie sur l’agriculture –, Amazon y prévoit la construction de trois nouveaux data centers, en plus de celui déjà en activité.

    Les autorisations fournies à Amazon permettraient à chaque infrastructure d’utiliser 755 millions de litres d’eau à l’année, soit de quoi irriguer 200 hectares de maïs, la céréale la plus cultivée dans ces territoires. La question de l’énergie risque également de cristalliser les tensions : il est estimé que les data centers d’Amazon consommeront plus d’énergie que l’ensemble des habitants de la région.

    En mai 2024, le média elDiario.es alertait déjà sur les conséquences des futurs data centers sur la région de l’Aragon, arguant que « la situation est désastreuse : 146 000 hectares sont incultivables et 175 000 hectares sont gravement endommagés par le manque d’eau. »

    Bien que cette partie de l’Espagne soit soumise à un stress hydrique, le prix du litre d’eau y reste relativement faible. Le choix de cette région semble obéir à des logiques économiques avant tout, faisant fi des considérations sociales et environnementales.

    Agriculteurs, riverains et collectifs citoyens s’organisent pour dénoncer cette véritable spoliation. L’association “Tu Nube Seca Mi Río” [“Ton cloud assèche ma rivière”] dénonce un accaparement qui menace directement l’agriculture locale.

    Comme le pointe du doigt la fondatrice de l’association “Tu Nube Seca Mi Río”, Aurora Gomez, « Ces entreprises extérieures s’imposent et accaparent les ressources. C’est du technocolonialisme ! […] Les autorités restent sourdes à nos alertes et font semblant de ne pas nous voir. »

    Cette surdité semble bien volontaire, tant elle arrange Amazon et les autorités locales, qui travaillent main dans la main pour voir ces projets se réaliser malgré les contestations citoyennes. L’enquête conjointe de The Guardian et Source Material révèle qu’Amazon et les pouvoirs publics d’Aragon ont négocié pour autoriser une augmentation de 48% de la consommation d’eau des installations existantes. Une demande discrètement validée pendant la période de Noël afin d’éviter toute surveillance ou controverse.

    L’Espagne, autrefois surnommée le potager de l’Europe, voit sa capacité agricole menacée par des sécheresses toujours plus sévères, aggravées par une mauvaise gestion de l’eau. Dans un pays dont 74% du territoire est directement menacé par la désertification, l’implantation d’infrastructures assoiffées des géants de la tech soulève de vives interrogations sur les priorités que les États européens choisissent de défendre.

    Promesses vertes et fuite en avant technologique

    Face aux critiques, les GAFAM tentent de verdir leur image. Certaines évoquent des solutions de refroidissement par air, mais celles-ci nécessitent encore plus d’énergie, déplaçant le problème plutôt que de le résoudre. D’autres affirment concevoir des “zero-water” data centers – à l’instar de Microsoft.

    Mais ces promesses s’inscrivent dans un horizon lointain, sans garantie réelle. Le Rapport international sur la sûreté de l’IA, publié en janvier 2025, indique que « si les tendances récentes se poursuivent, d’ici la fin de 2026, certains modèles d’IA à usage général seront entraînés en utilisant environ 100 fois plus de ressources de calcul d’apprentissage que les modèles les plus gourmands en calcul de 2023, pour atteindre un coût d’apprentissage 10 000 fois plus élevé d’ici 2030. »

    Si l’on se fie à ces informations, il ne semble pas hasardeux d’affirmer que cette technologie risque, à l’avenir, d’aggraver les problématiques auxquelles nous sommes confrontés – voire d’en faire émerger des nouvelles.

    Hélas, ces nombreux signaux d’alerte ne semblent pas ralentir la course au développement de l’IA, érigée en priorité par les États européens notamment.

    https://lareleveetlapeste.fr/ia-les-data-centers-transforment-les-territoires-en-deserts
    #AI #intelligence_artificielle #ressources #data_centres #eau #infrastructure #serveurs #coût_environnemental #eau_prélevée #eau_consommée #stress_hydrique #accaparement #extractivisme #désertification

  • PJL simplification : déréguler l’IA, accélérer sa fuite en avant écocide
    https://www.laquadrature.net/2025/04/29/pjl-simplification-dereguler-lia-accelerer-sa-fuite-en-avant-ecocide

    Ce soir ou demain seront examinés les amendements à l’article 15 du projet de loi « simplification » de la vie économique. La Quadrature du Net, en lien avec le collectif Le Nuage était sous nos pieds et les…

    #Data_Centers

  • Le nuage était sous nos pieds - Balade-conférencée le long des infrastructures du #numérique à #Marseille

    Pour comprendre les enjeux de l’installation des #data_centers nous revenons en sons et en images sur la balade-conférencée qui a eu lieu le 9 novembre 2024 à Marseille dans le cadre du festival Le nuage était sous nos pied.

    https://www.primitivi.org/Le-nuage-etait-sous-nos-pieds

    https://umap.openstreetmap.fr/fr/map/datacenters-marseille_1152265#11/43.3373/5.3229

    #pollution
    #nuisances
    #extractivisme
    #colonialisme_numérique
    #IA

  • L’#IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

    Le risque premier avec l’#intelligence_artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

    La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

    Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux #centres_de_données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les #impacts_environnementaux de ces « #data_centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

    « Plus grand est le modèle, mieux c’est »

    L’ouverture au public de l’agent conversationnel d’#OpenAI, #ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’#IA_génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

    Ces #grands_modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

    Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les #données_personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de #données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

    Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur impact climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.
    Combien consomme une requête ChatGPT ?

    On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

    Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’#impact_carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

    Produire une #image, c’est pire. La startup #HuggingFace, à l’origine de l’#IA_Bloom, a été l’une des premières à estimer les #émissions_de_gaz_à_effet_de_serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

    Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman,, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

    En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

    En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

    De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

    Une explosion de la consommation d’électricité

    Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les #cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

    Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

    Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

    « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de Microsoft ont bondi de 29 % entre 2020 et 2023.

    Des investissements massifs aux dépens des populations

    Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

    Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

    Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
    Des engagements « durables » non contraignants

    Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

    Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

    Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

    https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

    #environnement #climat #changement_climatique #pollution #visualisation #infographie

    • Se contenter de « calculer » la consommation énergétique directe de l’IA, c’est omettre de « calculer » ses effets induits, ses conséquences systémiques, puisque « grâce » à l’IA, on peut faire plus de croissance générale. Sans même parler des effets rebonds tous azimuts... Par exemple, on peut utiliser l’IA pour produire un article de blog. Cette utilisation d’IA consomme une unité d’énergie mais elle a aussi permis d’augmenter le volume de contenu qui lui même consomme de l’énergie sur les serveurs.

  • États-Unis : la pollution des data centers pèse sur la santé publique - Next
    https://next.ink/173587/etats-unis-la-pollution-des-data-centers-pese-sur-la-sante-publique

    Aux États-Unis, les data centers ont provoqué plus de 5,4 milliards de dollars de dépenses de santé publique de 2019 à 2024, selon une récente étude de quantification de l’impact de l’IA sur les émissions de carbone et la consommation d’eau.

    Mais comment a-t-on pu laisser faire des études pareilles, qui coûtent chers et ne servent à rien d’autre qu’à décourager les entrepreneurs qui nourrissent la planète ?

  • Evaluation de l’#impact_environnemental du #numérique en France

    Cette étude vise à mettre à jour les données de l’étude menée avec l’#Arcep en 2020 sur l’évaluation de l’impact environnemental du numérique en France, aujourd’hui et demain. En effet, n’avait été pris en compte dans les hypothèses de l’étude de 2020, que les #data_centers situés sur le territoire français. Or une partie importante des usages en France sont hébergés à l’étranger (environ 53 %) ce qui représente des impacts très loin d’être négligeables. Par ailleurs, entre 2020 et 2022, le mix entre les télévisions #OLED et #LCD-LED a varié au profit des télévisions OLED plus grandes et plus impactantes ainsi que les usages notamment due à l’arrivée massive de l’#IA.


    https://librairie.ademe.fr/changement-climatique/7880-evaluation-de-l-impact-environnemental-du-numerique-en-france.h

    #rapport #France #impact #intelligence_artificielle

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • « Nous assistons à une escalade de la #prédation_minière »

    Une nouvelle #ruée_minière a commencé et touche aussi la #France. Au nom de la lutte contre la crise climatique, il faudrait extraire de plus en plus de #métaux. Celia Izoard dénonce l’impasse de cette « #transition » extractiviste. Entretien.

    Basta/Observatoire des multinationales : Il est beaucoup question aujourd’hui de renouveau minier en raison notamment des besoins de la transition énergétique, avec la perspective d’ouvrir de nouvelles mines en Europe et même en France. Vous défendez dans votre #livre qu’il ne s’agit pas du tout d’un renouveau, mais d’une trajectoire de continuité. Pourquoi ?

    #Celia_Izoard : Les volumes de #métaux extraits dans le monde aujourd’hui augmentent massivement, et n’ont jamais cessé d’augmenter. Ce qui est parfaitement logique puisqu’on ne cesse de produire de nouveaux objets et de nouveaux équipements dans nos pays riches, notamment avec la #numérisation et aujourd’hui l’#intelligence_artificielle, et qu’en plus de cela le reste du monde s’industrialise.

    En conséquence, on consomme de plus en plus de métaux, et des métaux de plus en plus variés – aussi bien des métaux de base comme le #cuivre et l’#aluminium que des métaux de spécialité comme les #terres_rares. Ces derniers sont utilisés en très petite quantité mais dans des objets qui sont partout, comme les #smartphones, et de façon trop dispersive pour permettre le #recyclage.

    Et la production de tous ces métaux devrait continuer à augmenter ?

    Oui, car rien ne freine cette production, d’autant plus qu’on y ajoute aujourd’hui une nouvelle demande qui est un véritable gouffre : celle de métaux pour le projet très technocratique de la transition. « Transition », dans l’esprit de nos élites, cela signifie le remplacement des #énergies_fossiles par l’#énergie_électrique – donc avec des #énergies_renouvelables et des #batteries – avec un modèle de société inchangé. Mais, par exemple, la batterie d’une #voiture_électrique représente souvent à elle seule 500 kg de métaux (contre moins de 3 kg pour un #vélo_électrique).

    Simon Michaux, professeur à l’Institut géologique de Finlande, a essayé d’évaluer le volume total de métaux à extraire si on voulait vraiment électrifier ne serait-ce que la #mobilité. Pour le #lithium ou le #cobalt, cela représenterait plusieurs décennies de la production métallique actuelle. On est dans un scénario complètement absurde où même pour électrifier la flotte automobile d’un seul pays, par exemple l’Angleterre ou la France, il faut déjà plus que la totalité de la production mondiale. Ce projet n’a aucun sens, même pour lutter contre le #réchauffement_climatique.

    Vous soulignez dans votre livre que l’#industrie_minière devient de plus en plus extrême à la fois dans ses techniques de plus en plus destructrices, et dans les #nouvelles_frontières qu’elle cherche à ouvrir, jusqu’au fond des #océans et dans l’#espace

    Oui, c’est le grand paradoxe. Les élites politiques et industrielles répètent que la mine n’a jamais été aussi propre, qu’elle a surmonté les problèmes qu’elle créait auparavant. Mais si l’on regarde comment fonctionne réellement le #secteur_minier, c’est exactement l’inverse que l’on constate. La mine n’a jamais été aussi énergivore, aussi polluante et aussi radicale dans ses pratiques, qui peuvent consister à décapiter des #montagnes ou à faire disparaître des #vallées sous des #déchets_toxiques.

    C’est lié au fait que les teneurs auxquelles on va chercher les métaux sont de plus en plus basses. Si on doit exploiter du cuivre avec un #filon à 0,4%, cela signifie que 99,6% de la matière extraite est du #déchet. Qui plus est, ce sont des #déchets_dangereux, qui vont le rester pour des siècles : des déchets qui peuvent acidifier les eaux, charrier des contaminants un peu partout.

    Les #résidus_miniers vont s’entasser derrière des #barrages qui peuvent provoquer de très graves #accidents, qui sont sources de #pollution, et qui sont difficilement contrôlables sur le long terme. Nous assistons aujourd’hui à une véritable #escalade_technologique qui est aussi une escalade de la #prédation_minière. La mine est aujourd’hui une des pointes avancées de ce qu’on a pu appeler le #capitalisme_par_dépossession.

    Comment expliquer, au regard de cette puissance destructrice, que les populations occidentales aient presque totalement oublié ce qu’est la mine ?

    Il y a un #déni spectaculaire, qui repose sur deux facteurs. Le premier est la religion de la #technologie, l’une des #idéologies dominantes du monde capitaliste. Nos dirigeants et certains intellectuels ont entretenu l’idée qu’on avait, à partir des années 1970, dépassé le #capitalisme_industriel, qui avait été tellement contesté pendant la décennie précédente, et qu’on était entré dans une nouvelle ère grâce à la technologie. Le #capitalisme_post-industriel était désormais avant tout une affaire de brevets, d’idées, d’innovations et de services.

    Les mines, comme le reste de la production d’ailleurs, avaient disparu de ce paysage idéologique. Le #mythe de l’#économie_immatérielle a permis de réenchanter le #capitalisme après l’ébranlement des mouvements de 1968. Le second facteur est #géopolitique. Aux grandes heures du #néo-libéralisme, le déni de la mine était un pur produit de notre mode de vie impérial. Les puissances occidentales avaient la possibilité de s’approvisionner à bas coût, que ce soit par l’#ingérence_politique, en soutenant des dictatures, ou par le chantage à la dette et les politiques d’#ajustement_structurel. Ce sont ces politiques qui ont permis d’avoir par exemple du cuivre du #Chili, de #Zambie ou d’#Indonésie si bon marché.

    Les besoins en métaux pour la #transition_climatique, si souvent invoqués aujourd’hui, ne sont-ils donc qu’une excuse commode ?

    Invoquer la nécessité de créer des mines « pour la transition » est en effet hypocrite : c’est l’ensemble des industries européennes qui a besoin de sécuriser ses approvisionnements en métaux. La récente loi européenne sur les métaux critiques répond aux besoins des grosses entreprises européennes, que ce soit pour l’#automobile, l’#aéronautique, l’#aérospatiale, les #drones, des #data_centers.

    L’argument d’une ruée minière pour produire des énergies renouvelables permet de verdir instantanément toute mine de cuivre, de cobalt, de lithium, de #nickel ou de terres rares. Il permet de justifier les #coûts_politiques de la #diplomatie des #matières_premières : c’est-à-dire les #conflits liés aux rivalités entre grandes puissances pour accéder aux #gisements. Mais par ailleurs, cette transition fondée sur la technologie et le maintien de la #croissance est bel et bien un gouffre pour la #production_minière.

    Ce discours de réenchantement et de relégitimation de la mine auprès des populations européennes vous semble-t-il efficace ?

    On est en train de créer un #régime_d’exception minier, avec un abaissement des garde-fous réglementaires et des formes d’extractivisme de plus en plus désinhibées, et en parallèle on culpabilise les gens. La #culpabilisation est un ressort psychologique très puissant, on l’a vu durant le Covid. On dit aux gens : « Si vous n’acceptez pas des mines sur notre territoire, alors on va les faire ailleurs, aux dépens d’autres populations, dans des conditions bien pires. » Or c’est faux. D’abord, la #mine_propre n’existe pas.

    Ensuite, la #loi européenne sur les #métaux_critiques elle prévoit qu’au mieux 10% de la production minière soit relocalisée en Europe. Aujourd’hui, on en est à 3%. Ce n’est rien du tout. On va de toute façon continuer à ouvrir des mines ailleurs, dans les pays pauvres, pour répondre aux besoins des industriels européens. Si l’on voulait vraiment relocaliser la production minière en Europe, il faudrait réduire drastiquement nos besoins et prioriser les usages les plus importants des métaux.

    Peut-on imaginer qu’un jour il existe une mine propre ?

    Si l’on considère la réalité des mines aujourd’hui, les procédés utilisés, leur gigantisme, leur pouvoir de destruction, on voit bien qu’une mine est intrinsèquement problématique, intrinsèquement prédatrice : ce n’est pas qu’une question de décisions politiques ou d’#investissements. L’idée de « #mine_responsable » n’est autre qu’une tentative de faire accepter l’industrie minière à des populations en prétendant que « tout a changé.

    Ce qui m’a frappé dans les enquêtes que j’ai menées, c’est que les industriels et parfois les dirigeants politiques ne cessent d’invoquer certains concepts, par exemple la #mine_décarbonée ou le réemploi des #déchets_miniers pour produire du #ciment, comme de choses qui existent et qui sont déjà mises en pratique. À chaque fois que j’ai regardé de plus près, le constat était le même : cela n’existe pas encore. Ce ne sont que des #promesses.

    Sur le site de la nouvelle mine d’#Atalaya à #Rio_Tinto en #Espagne, on voir des panneaux publicitaires alignant des #panneaux_photovoltaïques avec des slogans du type « Rio Tinto, la première mine d’autoconsommation solaire ». Cela donne à penser que la mine est autonome énergétiquement, mais pas du tout. Il y a seulement une centrale photovoltaïque qui alimentera une fraction de ses besoins. Tout est comme ça.

    Le constat n’est-il pas le même en ce qui concerne le recyclage des métaux ?

    Il y a un effet purement incantatoire, qui consiste à se rassurer en se disant qu’un jour tout ira bien parce que l’on pourra simplement recycler les métaux dont on aura besoin. Déjà, il n’en est rien parce que les quantités colossales de métaux dont l’utilisation est planifiée pour les années à venir, ne serait-ce que pour produire des #batteries pour #véhicules_électriques, n’ont même pas encore été extraites.

    On ne peut donc pas les recycler. Il faut d’abord les produire, avec pour conséquence la #destruction de #nouveaux_territoires un peu partout sur la planète. Ensuite, le recyclage des métaux n’est pas une opération du saint-Esprit ; il repose sur la #métallurgie, il implique des usines, des besoins en énergie, et des pollutions assez semblables à celles des mines elles-mêmes.

    L’accent mis sur le besoin de métaux pour la transition ne reflète-t-il pas le fait que les #multinationales ont réussi à s’approprier ce terme même de « transition », pour lui faire signifier en réalité la poursuite du modèle actuel ?

    Le concept de transition n’a rien de nouveau, il était déjà employé au XIXe siècle. À cette époque, la transition sert à freiner les ardeurs révolutionnaires : on accepte qu’il faut des changements, mais on ajoute qu’il ne faut pas aller trop vite. Il y a donc une dimension un peu réactionnaire dans l’idée même de transition.

    Dans son dernier livre, l’historien des sciences #Jean-Baptiste_Fressoz [Sans transition - Une nouvelle histoire de l’énergie, Seuil, 2024] montre que la #transition_énergétique tel qu’on l’entend aujourd’hui est une invention des #pro-nucléaires des États-Unis dans les années 1950 pour justifier des #investissements publics colossaux dans l’#atome. Ils ont tracé des belles courbes qui montraient qu’après l’épuisement des énergies fossiles, il y aurait besoin d’une #solution_énergétique comme le #nucléaire, et qu’il fallait donc investir maintenant pour rendre le passage des unes à l’autre moins brutal.

    La transition aujourd’hui, c’est avant tout du temps gagné pour le capital et pour les grandes entreprises. Les rendez-vous qu’ils nous promettent pour 2050 et leurs promesses de #zéro_carbone sont évidemment intenables. Les technologies et l’#approvisionnement nécessaire en métaux n’existent pas, et s’ils existaient, cela nous maintiendrait sur la même trajectoire de réchauffement climatique.

    Ces promesses ne tiennent pas debout, mais elles permettent de repousser à 2050 l’heure de rendre des comptes. Ce sont plusieurs décennies de gagnées. Par ailleurs, le terme de transition est de plus en plus utilisé comme étendard pour justifier une #croisade, une politique de plus en plus agressive pour avoir accès aux gisements. Les pays européens et nord-américains ont signé un partenariat en ce sens en 2022, en prétendant que certes ils veulent des métaux, mais pour des raisons louables. La transition sert de figure de proue à ces politiques impériales.

    Vous avez mentionné que l’une des industries les plus intéressées par la sécurisation de l’#accès aux métaux est celle de l’#armement. Vous semblez suggérer que c’est l’une des dimensions négligées de la guerre en Ukraine…

    Peu de gens savent qu’en 2021, la Commission européenne a signé avec l’#Ukraine un accord de partenariat visant à faire de ce pays une sorte de paradis minier pour l’Europe. L’Ukraine possède de fait énormément de ressources convoitées par les industriels, qu’ils soient russes, européens et américains. Cela a joué un rôle dans le déclenchement de la #guerre. On voit bien que pour, pour accéder aux gisements, on va engendrer des conflits, militariser encore plus les #relations_internationales, ce qui va nécessiter de produire des #armes de plus en plus sophistiquées, et donc d’extraire de plus en plus de métaux, et donc sécuriser l’accès aux gisements, et ainsi de suite.

    C’est un #cercle_vicieux que l’on peut résumer ainsi : la ruée sur les métaux militarise les rapports entre les nations, alimentant la ruée sur les métaux pour produire des armes afin de disposer des moyens de s’emparer des métaux. Il y a un risque d’escalade dans les années à venir. On évoque trop peu la dimension matérialiste des conflits armés souvent dissimulés derrière des enjeux « ethniques ».

    Faut-il sortir des métaux tout comme il faut sortir des énergies fossiles ?

    On a besoin de sortir de l’extractivisme au sens large. Extraire du pétrole, du charbon, du gaz ou des métaux, c’est le même modèle. D’ailleurs, d’un point de vue administratif, tout ceci correspond strictement à de l’activité minière, encadrée par des #permis_miniers. Il faut cesser de traiter le #sous-sol comme un magasin, de faire primer l’exploitation du sous-sol sur tout le reste, et en particulier sur les territoires et le vivant.

    Concrètement, qu’est ce qu’on peut faire ? Pour commencer, les deux tiers des mines sur la planète devraient fermer – les #mines_métalliques comme les #mines_de_charbon. Ça paraît utopique de dire cela, mais cela répond à un problème urgent et vital : deux tiers des mines sont situées dans des zones menacées de #sécheresse, et on n’aura pas assez d’#eau pour les faire fonctionner à moins d’assoiffer les populations. En plus de cela, elles émettent du #CO2, elles détruisent des territoires, elles déplacent des populations, elles nuisent à la #démocratie. Il faut donc faire avec une quantité de métaux restreinte, et recycler ce que l’on peut recycler.

    Vous soulignez pourtant que nous n’avons pas cessé, ces dernières années, d’ajouter de nouvelles technologies et de nouveaux objets dans notre quotidien, notamment du fait de l’envahissement du numérique. Réduire notre consommation de métaux implique-t-il de renoncer à ces équipements ?

    Oui, mais au préalable, quand on dit que « nous n’avons pas cessé d’ajouter des nouvelles technologies polluantes », il faut analyser un peu ce « nous ». « Nous » n’avons pas choisi de déployer des #caméras_de_vidéosurveillance et des #écrans_publicitaires partout. Nous n’avons pas choisi le déploiement de la #5G, qui a été au contraire contesté à cause de sa consommation d’énergie.

    La plupart d’entre nous subit plutôt qu’elle ne choisit la #numérisation des #services_publics, instrument privilégié de leur démantèlement et de leur privatisation : l’usage de #Pronote à l’école, #Doctissimo et la télémédecine dont la popularité est due à l’absence de médecins, etc. Dans le secteur automobile, la responsabilité des industriels est écrasante. Depuis des décennies, ils ne cessent de bourrer les véhicules d’électronique pour augmenter leur valeur ajoutée.

    Ces dernières années, ils ont massivement vendu d’énormes voitures électriques parce qu’ils savaient que le premier marché de la voiture électrique, c’était d’abord la bourgeoisie, et que les bourgeois achèteraient des #SUV et des grosses berlines. Donc quand je dis que nous devons réduire notre #consommation de métaux, j’entends surtout par-là dénoncer les industries qui inondent le marché de produits insoutenables sur le plan des métaux (entre autres).

    Mais il est vrai que nous – et là c’est un vrai « nous » - devons réfléchir ensemble aux moyens de sortir de l’#emprise_numérique. Du point de vue des métaux, le #smartphone n’est pas viable : sa sophistication et son caractère ultra-mondialisé en font un concentré d’#exploitation et d’#intoxication, des mines aux usines d’assemblage chinoises ou indiennes.

    Et bien sûr il a des impacts socialement désastreux, des addictions à la #surveillance, en passant par la « #surmarchandisation » du quotidien qu’il induit, à chaque instant de la vie. Là-dessus, il faut agir rapidement, collectivement, ne serait-ce que pour se protéger.

    https://basta.media/nous-assistons-a-une-escalade-de-la-predation-miniere
    #extractivisme #minières #électrification #acidification #contamination #hypocrisie #relocalisation #prédation #guerre_en_Ukraine #militarisation #déplacement_de_populations #dématérialisation #industrie_automobile

  • AI tools consume up to 4 times more water than estimated

    A new report shows that artificial intelligence tools, including ChatGPT, are using up to four times more water than previously believed. This discovery raises concerns about the sustainability of #data_centers as AI continues to expand.

    Researchers from the University of California, Riverside found that processing 10 to 50 queries on AI chatbots can consume up to 2 liters of water, far exceeding the earlier estimate of half a liter (https://www.thetimes.com/uk/technology-uk/article/thirsty-chatgpt-uses-four-times-more-water-than-previously-thought-bc0pqsw). The increase is attributed to the intense cooling needs of data centers, where the servers generate significant heat.

    According to Microsoft, the energy and water demands of AI models are much higher than anticipated. Between 2023 and 2024, Google, Microsoft, and Meta have reported water usage increases of 17%, 22.5%, and 17% respectively, further highlighting the growing environmental footprint of AI.

    This is not just a U.S. issue. In the U.K., planned data centers are expected to consume as much water as a city the size of Liverpool. Meanwhile, in Ireland, data centers now account for 21% of the country’s electricity consumption.

    OpenAI CEO Sam Altman recently presented a proposal to the White House to build at least five massive data centers, with plans for unprecedented energy expansions. However, critics argue that the energy production process for AI remains inefficient, with 60% of resources wasted.

    While tech companies pledge to offset their water usage by 2030, critics warn that these efforts may not sufficiently address water scarcity in regions where AI data centers are located.

    https://san.com/cc/ai-tools-consume-up-to-4-times-more-water-than-estimated
    #eau #chatgpt #IA #AI #intelligence_artificielle #centre_de_données

    • AI programs consume large volumes of scarce water

      Every time you run a ChatGPT artificial intelligence query, you use up a little bit of an increasingly scarce resource: fresh water. Run some 20 to 50 queries and roughly a half liter, around 17 ounces, of fresh water from our overtaxed reservoirs is lost in the form of steam emissions.

      Such are the findings of a University of California, Riverside, study that for the first time estimated the water footprint from running artificial intelligence, or AI, queries that rely on the cloud computations done in racks of servers in warehouse-sized data processing centers.

      Google’s data centers in the U.S. alone consumed an estimated 12.7 billion liters of fresh water in 2021 to keep their servers cool — at a time when droughts are exacerbating climate change — Bourns College of Engineering researchers reported in the study, published online by the journal arXiv as a preprint. It is awaiting its peer review.

      Shoalei Ren, an associate professor of electrical and computer engineering and the corresponding author of the study, explained that data processing centers consume great volumes of water in two ways.

      First, these centers draw electricity from power plants that use large cooling towers that convert water into steam emitted into the atmosphere.

      Second, the hundreds of thousands of servers at the data centers must be kept cool as electricity moving through semiconductors continuously generates heat. This requires cooling systems that, like power plants, are typically connected to cooling towers that consume water by converting it into steam.

      “The cooling tower is an open loop, and that’s where the water will evaporate and remove the heat from the data center to the environment,” Ren said.

      Ren said it is important to address the water use from AI because it is fast-growing segment of computer processing demands.

      For example, a roughly two-week training for the GPT-3 AI program in Microsoft’s state-of-the-art U.S. data centers consumed about 700,000 liters of freshwater, about the same amount of water used in the manufacture of about 370 BMW cars or 320 Tesla electric vehicles, the paper said. The water consumption would have been tripled if training were done in Microsoft’s data centers in Asia, which are less efficient. Car manufacturing requires a series washing processes to remove paint particle and residues, among several other water uses.

      Ren and his co-authors — UCR graduate students Pengfei Li and Jianyi Yang, and Mohammad A. Islam of the University of Texas, Arlington — argue big tech should take responsibility and lead by example to reduce its water use.

      Fortunately, AI training has scheduling flexibilities. Unlike web search or YouTube streaming that must be processed immediately, AI training can be done at almost any time of the day. To avoid wasteful water usage, a simple and effective solution is training AI models during cooler hours, when less water is lost to evaporation, Ren said.

      “AI training is like a big very lawn and needs lots of water for cooling,” Ren said. “We don’t want to water our lawns during the noon, so let’s not water our AI (at) noon either.”

      This may conflict with carbon-efficient scheduling that particularly likes to follow the sun for clean solar energy. “We can’t shift cooler weather to noon, but we can store solar energy, use it later, and still be `green’,” Ren said.

      “It is truly a critical time to uncover and address the AI model’s secret water footprint amid the increasingly severe freshwater scarcity crisis, worsened extended droughts, and quickly aging public water infrastructure,” reads the paper, which is titled “Making AI Less ‘Thirsty:’ Uncovering and Addressing the Secret Water Footprint of AI Models.”

      https://news.ucr.edu/articles/2023/04/28/ai-programs-consume-large-volumes-scarce-water

  • Les data centers menacés d’obsolescence à cause de l’essor de l’IA
    https://www.latribune.fr/technos-medias/informatique/les-data-centers-menaces-d-obsolescence-a-cause-de-l-essor-de-l-ia-1007271

    Jusqu’à 80% des data centers seraient inadaptables aux besoins délirants de l’intelligence artificielle, alertent des acteurs du secteur. Pour tenter de répondre à la consommation insatiable des grands modèles d’OpenAI et Meta, ces infrastructures deviennent de plus en plus gigantesques, créant des tensions inédites sur le foncier, notamment à Marseille.

    • https://www.npr.org/2024/09/20/nx-s1-5120581/three-mile-island-nuclear-power-plant-microsoft-ai

      Three Mile Island, the power plant near Middletown, Pa., that was the scene of the worst commercial nuclear accident in U.S. history, will reopen to power #Microsoft's #data_centers, which are responsible for powering the tech giant’s cloud computing and artificial intelligence programs.

      Constellation #Energy, which bills itself as America’s largest producer of “clean, #carbon-free energy,” announced Friday that it had signed its largest-ever power purchase agreement with Microsoft.

      “Powering industries critical to our nation’s global economic and technological competitiveness, including data centers, requires an abundance of energy that is carbon-free and reliable every hour of every day, and #nuclear_plants are the only energy sources that can consistently deliver on that promise,” said Joe Dominguez, Constellation Energy’s president and CEO.

      The deal will create approximately 3,400 jobs and bring in more than $3 billion in state and federal taxes, according to the company. It also said the agreement will add $16 billion to Pennsylvania’s GDP.

      The agreement will span 20 years, and the plant is expected to reopen in 2028. It will be renamed the Crane Clean Energy Center in honor of Chris Crane, who died in April and served as the CEO of Constellation’s former parent company.

      #Pennsylvania’s nuclear energy industry plays a critical role in providing safe, #reliable, #carbon_free #electricity that helps reduce emissions and grow Pennsylvania’s economy,” Gov. Josh Shapiro said.

      Unlike power plants using fossil fuels, like coal or natural gas, nuclear plants do not directly release carbon dioxide or other greenhouse gas emissions driving global warming.

      The partial nuclear reactor meltdown at Three Mile Island happened on March 28, 1979, when one of the plant’s two reactors’ cooling mechanisms malfunctioned. The #reactor that will be reopened to power Microsoft’s data centers was not involved in the accident.

      #AI #IA
      #Intelligence_artificielle #Consommation_énergétique

    • “Before it was prematurely shuttered due to poor economics, this plant was among the safest and most reliable nuclear plants on the grid, and we look forward to bringing it back with a new name and a renewed mission to serve as an economic engine for Pennsylvania," Dominguez said.

      Ben tiens. Il a juste une conception des générateurs de vapeur foireuse qui fait qu’en cas de brèche sur le circuit primaire ils se vident en quelques dizaines de secondes, privant le dit circuit d’une source d’évacuation de l’énergie. Précisément un des problèmes lors de l’accident.

  • Data centers : leur consommation d’eau va exploser
    https://reporterre.net/Data-centers-leur-consommation-d-eau-va-exploser

    L’équation est pourtant assez simple. Les data centers, toujours plus nombreux et plus grands, concentrent des machines qui produisent de la chaleur et qu’il faut refroidir. Différentes techniques existent et se font concurrence. La climatisation classique, mais aussi l’utilisation de circuits d’eau — ouverts, avec rejet d’eaux usées, ou fermés — pour refroidir l’air à l’intérieur des installations, ou bien des systèmes dits « adiabatiques » par pulvérisation d’eau.

    « Ce qui est assez paradoxal, c’est qu’au moment où l’on met en place des indicateurs pour mesurer l’efficacité énergétique des data centers, comme le PUE [Power Usage Effectivness, rapport entre l’énergie totale consommée par un centre de données et l’énergie consommée par ses seuls équipements informatiques] une solution pour avoir un bon PUE et se présenter comme plus “vert”, c’est d’utiliser plus d’eau et moins d’électricité », explique Clément Marquet, coordinateur du groupe de travail Politiques environnementales du numérique au Centre national de la recherche scientifique (CNRS).

    « On est conscients que la consommation d’eau est un sujet énorme, dit l’urbaniste Cécile Diguet, coautrice d’une étude sur le développement des data centers en Île-de-France et de l’ouvrage Sous le feu numérique (avec Fanny Lopez). On sait que les opérateurs de data centers font des forages dans les nappes, plus ou moins déclarés. On voit que, en Île-de-France, il y a des nappes de plus en plus fragilisées, notamment dans l’Essonne. Mais personne n’a encore creusé la question à ma connaissance. »

    Si cette problématique vient s’ajouter à celle de l’artificialisation des sols et de la consommation vertigineuse d’énergie des data centers, elle pourrait devenir une préoccupation majeure avec le déploiement de l’intelligence artificielle. « C’est le gros sujet derrière tout ça, affirme le sociologue Clément Marquet. Avec l’IA, on utilise des ordinateurs qui consomment 5 à 10 fois plus d’électricité et cette électricité est dissipée en chaleur par les ordinateurs. Pour l’heure, on ne connaît pas de solution aussi bon marché que l’eau. » Déjà aujourd’hui, les conflits d’usage autour des data centers se multiplient aux États-Unis, en Uruguay, aux Pays-Bas, en Irlande ou bien encore Espagne, avec le mouvement « Tu nube seca mi rio » (« Ton nuage assèche ma rivière »).

    Si les industriels s’en remettent à leur credo technosolutionniste, à savoir améliorer l’efficacité de leurs systèmes de refroidissement, le seul horizon soutenable reste celui de la frugalité, selon le chercheur en sciences de l’information Olivier Ertzscheid.

    Il établit un parallèle entre fermes de l’agriculture intensive et fermes de serveurs, deux modèles qui partagent selon lui un même ADN extractiviste : « L’affrontement central dans les conflits d’usage à venir [autour de l’accès à l’eau] se fera autour de deux lignes de front : d’un côté le lobby technologique, ses data centers et ses fermes de serveurs, et de l’autre le lobby de l’agriculture industrielle [...]. Le point de convergence des deux modèles est qu’ils concourent à un appauvrissement et à un épuisement des sols autant qu’au stress hydrique des populations avoisinantes. Et que, pour l’essentiel, ils s’en moquent. »

    #Data_centers #Ecologie #Numérique #Eau