• « Tenir, jusqu’à ce qu’on gagne » : à Brest, une zad contre le futur stade de football
    https://reporterre.net/Tenir-jusqu-a-ce-qu-on-gagne-a-Brest-une-zad-contre-le-futur-stade-de-fo

    La Maner CoZad, ou zad de Maner Coz, tire son nom du lieu-dit où elle est installée, sur la commune de Guipavas. Dix-huit hectares de terres agricoles et naturelles menacées de destruction par un projet de nouveau stade de foot, l’Arkéa Park, que veut construire le Stade brestois 29, club de Ligue 1, la première division du football français.

    Une trame verte pour la faune

    Un projet vivement contesté par les militants écologistes locaux. Sur un territoire déjà fortement artificialisé, à la limite de la zone commerciale du Froutven, ces terres verdoyantes constituent un refuge précieux pour la faune et la flore, pour l’eau et pour la qualité de vie des riverains.

    De son côté, le porteur du projet se défend en disant que la surface de la zone à artificialiser a été largement réduite depuis les premiers plans. Il promet également que des nichoirs à hirondelles et chauve-souris, dont plusieurs espèces protégées ont été observées sur les lieux, seront installés dans une « zone sanctuarisée ».

    [...]

    (...) ce nouveau stade, avec des places plus chères, loin du centre (...) marquerait la fin du foot populaire brestois, dit Camille. C’est un projet dont les bénéfices seront privatisés alors qu’il coûtera au moins 30 millions d’euros d’argent public. On veut un club qui ne soit plus contrôlé par un oligarque local et que ces terres soient sanctuarisées. »

    #bétonisation #artificialisation_des_sols

  • Découvrez les #Enquêtes_publiques et projets d’aménagements en cours en #Bretagne en juin 2025
    https://splann.org/decouvrez-les-enquetes-publiques-et-projets-damenagements-en-cours-en-bretag

    Des centaines d’enquêtes publiques sont organisées chaque année en Bretagne. Elles concernent des opérations susceptibles de porter atteinte à l’environnement. Pourtant, seule une minorité mobilise les habitants. Chaque mois, la rédaction de Splann ! met en avant des projets d’aménagements, d’ouvrages et de travaux pour encourager le débat et la participation. Recevez notre sélection par mél gratuitement en vous abonnant à notre infolettre. L’article Découvrez les #enquêtes_publiques et projets d’aménagements en cours en Bretagne en juin 2025 est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en (...)

    #agro-industrie #artificialisation_des_sols #industrie

  • Intempéries dans le Var : « Ce ne sont pas des images de guerre, mais de bêtises urbanistiques »

    Alors que des #pluies_torrentielles ont causé mardi 20 mai la mort de trois personnes dans le Var, l’urbaniste Amandine Richaud-Crambes estime que ces #événements_extrêmes dévoilent les lacunes en matière d’#adaptation du pays ainsi qu’une perte de mémoire du risque naturel.

    Près de 250 millimètres (mm) d’#eau tombés en une heure. Le 20 mai, #Le_Lavandou, station balnéaire varoise, a été frappé par des pluies torrentielles à la suite d’un violent épisode orageux. Les #précipitations dans le département ont provoqué des #inondations puissantes qui ont conduit à la destruction d’#infrastructures publiques – station d’épuration, ponts, routes – ainsi qu’à la mort de trois octogénaires, dont les corps ont été retrouvés au Lavandou et à Vidauban.

    Le pourtour méditerranéen est devenu une des régions mondiales les plus touchées par le réchauffement planétaire, comme l’a précisé le dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). Les scientifiques estiment que ce bassin océanique se réchauffe 20 % plus vite que le reste du globe.

    Urbaniste et ingénieure en environnement, Amandine Richaud-Crambes, experte des #risques_naturels en région méditerranéenne, revient sur cet événement extrême qui a frappé le Var. Elle rappelle les dangers de l’#artificialisation_des_sols à tous crins, la nécessaire adaptation au réchauffement planétaire et les besoins d’inculquer une culture de la #prévention_des_risques à l’heure du #chaos_climatique.

    Mediapart : L’épisode orageux violent qui a frappé le 20 mai Le Lavandou est-il un phénomène exceptionnel ?

    Amandine Richaud-Crambes : Ce n’est pas un événement rare. Le problème est qu’il n’est pas normal que ce type de phénomène se déroule au printemps. Les épisodes méditerranéens sont très fréquents, surtout sur cette partie du Var. Et, malheureusement, ce n’est pas la première fois qu’il y a des morts à la suite d’intempéries aussi violentes.

    Sauf que ces événements catastrophiques sont accentués par deux facteurs. Tout d’abord, le changement climatique : habituellement, les épisodes méditerranéens se déroulent en automne et jusqu’à décembre. Mais à cause de chaleurs printanières anormales, la mer Méditerranée se réchauffe déjà, ce qui conduit à des dépressions météorologiques et donc à des précipitations importantes. À cela s’ajoutent des températures au sol très chaudes sur le littoral du Var, intensifiant la violence de l’épisode orageux.

    Le Lavandou a enregistré près de 250 mm de précipitations en une heure.

    C’est ce qui se passe normalement pour un épisode méditerranéen. Ce sont d’énormes volumes d’eau qui peuvent tomber entre une heure et vingt-quatre heures. Dans la région, on a observé encore cet hiver des épisodes méditerranéens de cette envergure-là.

    Concernant Le Lavandou, on se retrouve donc sur un territoire où il a fait très chaud mais aussi avec une commune qui a dans son dos le massif des Maures, qui va bloquer les nuages – un peu comme durant ce qu’on appelle les #épisodes_cévenols. C’est pour cela que les #orages et les pluies intenses se sont concentrés à un endroit très précis.

    Et ce qui s’est passé, c’est qu’un des #cours_d’eau locaux qui va jusqu’au Lavandou, la #Môle, est très urbanisé, très canalisé, comme presque toutes les #rivières en France. Particulièrement artificialisées, elles représentent ce qu’on appelle des #lits_secondaires qui originellement jouaient le rôle de #bassins_de_débordement des eaux.

    En conséquence, non seulement l’#urbanisation de ces rivières empêche l’#infiltration des pluies dans les sols, mais accélère aussi les flux d’eau. Associé à la #topographie du Lavandou, un événement pluvieux important devient alors très violent. Ces mêmes éléments – des précipitations fortes et stationnaires, une topographie particulière, l’artificialisation des rivières – ont été à l’origine des inondations meurtrières à Valence, en Espagne, à l’automne dernier.

    Les messages d’urgence type #FR-Alert qui ont été envoyés sur les téléphones portables de la population pour rappeler les consignes de sécurité sont-ils selon vous suffisants ?

    Les #systèmes_d’alerte qui existent actuellement sont multiples et déjà très efficaces. Il faut savoir les respecter. Une #alerte orange avait été émise pour le Var, ce qui appelle déjà à de nombreuses mesures de prévention. Et les services de l’État, la sécurité civile, les pompiers étaient prêts à intervenir.

    Mais il faut avoir en tête que, dès que l’alerte est orange, on ne va pas chercher sa voiture, on ne sort pas, on évite les zones à risque. C’est là que nous avons un souci, parce que malheureusement un couple est mort au Lavandou parce qu’ils sont sortis de leur appartement inondé, non loin du bassin de crue. Le troisième décès est celui d’une femme à Vidauban qui était dans son véhicule durant les pluies. 90 % des morts durant ces catastrophes sont dues à des #erreurs_humaines de non-prise en compte du #risque. Nos systèmes d’alerte sont bons, ce qu’il manque aujourd’hui c’est travailler toujours plus sur la #prévention.

    Le Var, un département où les habitants sont habitués aux grosses inondations, attire par ailleurs des personnes pas forcément originaires de la région qui ont moins cette histoire et cette mémoire du risque. Les élus locaux ont tout de suite qualifié les dégâts provoqués par les orages d’« images de guerre », mais ce sont des images de bêtises urbanistiques, de changement climatique.

    Le réchauffement planétaire nous rappelle ici qu’il faut désormais privilégier l’#habitation et l’#adaptation, plutôt que le #tourisme et l’#économie à tout-va.

    L’#adaptation_urbanistique pourra-t-elle répondre aux impacts du changement climatique, qui ne cesse de s’intensifier ?

    L’urbanisme ne peut pas tout régler face au #climat, mais rappelons qu’aujourd’hui, nous ne faisons quasiment pas d’adaptation. Les quelques nouveaux #aménagements_urbains réalisés avec des systèmes d’infiltration des eaux ne vont pas du jour au lendemain changer trois décennies de #bétonisation des sols.

    Aujourd’hui, 80 % du territoire français est artificialisé. Alors l’urbanisme ne peut pas tout, mais l’urbanisme peut encore beaucoup. Et malheureusement, avec le changement climatique, dans les endroits peu bétonnés, on se retrouve par exemple dans le sud de la France avec des #sols déjà très secs qui absorbent mal les eaux.

    À l’échelle d’une mairie ou même d’une communauté de communes, pour s’adapter aux événements climatiques extrêmes, faut-il réviser chaque #plan_local_d’urbanisme (#PLU) ?

    Il faut certainement les réviser à l’aune du changement climatique, parce que nombre de PLU datent déjà de plusieurs années. Très peu de ces plans d’aménagement urbain intègrent l’adaptation, notamment dans le sud.

    Le maire de Mandelieu-la-Napoule (Alpes-Maritimes) m’a assuré encore l’hiver dernier qu’on ne peut pas à la fois demander à construire des logements sociaux, de faire du « zéro artificialisation nette » tout en réduisant les risques naturels. C’est faux. Il faut que certaines zones soient plus constructibles. Mais aussi déplacer, et c’est très dur, les populations qui habitent dans des zones à risque. Ou encore, désendiguer les bassins de rivière, c’est-à-dire relaisser de la place à la nature. Toutes ces mesures difficiles sont possibles à déployer avec le PLU.

    En attendant, nombre d’élus bataillent pour détricoter voire supprimer la loi « #zéro_artificialisation_nette ». Mais en tant qu’experte des #risques_naturels en Méditerranée, et venant du Sud, où j’ai grandi avec ces risques inondation, je vois l’artificialisation s’aggraver et surtout, une perte de #mémoire du risque.

    Nous oublions les grandes crues qui se sont déroulées il y a vingt voire cinquante ans, et nous pensons que ça ne va plus revenir. Mais le changement climatique nous rappelle aujourd’hui à la réalité naturelle de nos territoires.

    https://www.mediapart.fr/journal/ecologie/220525/intemperies-dans-le-var-ce-ne-sont-pas-des-images-de-guerre-mais-de-betise
    #urbanisme #aménagement_du_territoire #intempéries #changement_climatique #pluie #oubli #ressources_pédagogiques

  • À Pont-Scorff, le parc animalier en concurrence avec des agriculteurs
    https://splann.org/a-pont-scorff-le-parc-animalier-en-concurrence-avec-des-agriculteurs

    Dans la commune morbihannaise de Pont-Scorff, le parc animalier Les Terres de Nataé veut s’agrandir afin d’assurer sa pérennité. Une extension, prévue sur des #terres_agricoles, qui ne fait pas l’unanimité. D’autant moins que la procédure ayant mené les services de l’État à octroyer l’autorisation d’exploiter au parc animalier est inhabituelle. L’article À Pont-Scorff, le parc animalier en concurrence avec des agriculteurs est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #Lorient #Morbihan #Zoo_de_Pont-Scorff

  • Les orientations d’aménagement de #Vannes agglomération retoquées en justice
    https://splann.org/les-orientations-damenagement-de-vannes-agglomeration-retoquees-en-justice

    C’est une décision qui pourrait peser dans des affaires judiciaires à venir : le schéma de cohérence territorial de Golfe du Morbihan - Vannes agglomération (56) a été entièrement annulé par la Cour administrative d’appel de Nantes. En cause, la surestimation de la capacité d’accueil du territoire dans une zone déjà densément urbanisée, comme nous vous le racontions dans notre enquête sur l’artificialisation du littoral breton. L’article Les orientations d’aménagement de Vannes agglomération retoquées en justice est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #Scot

  • Zéro artificialisation nette : un objectif en péril - AOC media
    https://aoc.media/opinion/2025/03/19/zero-artificialisation-nette-un-objectif-en-peril/?loggedin=true

    Le lundi je vote une loi
    Le mardi je mets en place des exceptions
    Le mercredi je vote une nouvelle loi pour annuler la première loi jugée trop woke, trop écologiste
    Et si ça ne suffit pas, je fais des décrets élargissant le champ des exceptions.

    Pas forcément besoin de traverser l’Atlantique pour comprendre que la démocratie est en danger. Et que les droits acquis ne sont jamais vraiment acquis.

    Il faut sauver le ZAN. Alors que l’ensemble des groupes politiques se targuent de vouloir lutter contre l’artificialisation des sols, les attaques concernant l’objectif du Zéro artificialisation nette se multiplient. Depuis 2024, pas moins de 5 initiatives législatives intégrant des dispositions qui le videraient de sa substance ont vu le jour – et rencontrent une opposition bien trop faible.

    #Artificialisation #Démocratie

  • L’arbre, le maire et le terrain constructible
    https://laviedesidees.fr/L-arbre-le-maire-et-le-terrain-constructible

    L’objectif « Zéro artificialisation nette », ou ZAN, suscite de nombreux débats, souvent très techniques. Pourquoi empêcher les villes de s’étendre sur les espaces naturels, les forêts et les terres agricoles ? S’agit-il comme l’affirment certains élus d’une mesure « ruralicide » ?

    #Politique #ville #logement #agriculture #urbanisme #urbanisation
    https://laviedesidees.fr/IMG/pdf/20250214_zan.pdf

    • fin de l’article (dense et stimulant) :
      #artificialisation

      Sortir de l’opposition entre mondes urbains et ruraux
      Malgré les protestations, tensions et questions suscitées par le #ZAN, l’optimisme demeure possible car les débats ont accompagné une prise de conscience des enjeux pédologiques, et plus largement écologiques, associés aux sols. Beaucoup d’urbanistes et d’aménageurs, dont l’auteur de ces lignes, ignoraient toute l’importance des sols pour la biodiversité ou une agriculture écologique. À présent, la réduction des sols à du foncier plus ou moins constructible n’est plus permise. Pour le Sénat lui-même, la « sobriété foncière » est une exigence indiscutable.

      Le ZAN a donc redéfini les termes du débat. Comment consolider cet acquis ? Difficile de répondre. Si on prend le point de vue de l’écologie politique, quatre questions restent ouvertes. La première est, pour reprendre une formule qui a fait mouche, l’articulation des « fins de mois » et de « la fin du monde ». Cette question est centrale. Derrière le ZAN, une partie du pacte social français se trouve mise en cause pour les classes populaires.

      La seconde question est relative à la place des initiatives locales. Au vu du passé, et même du présent, faire confiance aux élus locaux pour garantir un usage des sols moins inconséquent peut paraître difficile. Mais jusqu’où l’État peut-il imposer ses vues à des dizaines de milliers d’élus (et même des centaines de milliers, en comptant les membres des conseils municipaux et intercommunaux) ? Et quand bien même il le pourrait, serait-ce souhaitable ? Pour l’écologie politique, la réponse à cette question renvoie au débat entre celles et ceux pour qui les urgences écologiques nécessitent un retour à une planification autoritaire et celles et ceux qui, inspirés par les mouvements des communs, le municipalisme ou les pensées libertaires, pour qui il faut faire ici et maintenant et que le changement ne peut venir que du bas, du local. Dans cette seconde perspective, les petites communes rurales peuvent constituer un levier majeur de transformation [55].

      Planification centralisée ou pas, il convient incontestablement de modifier les règles du jeu. Mais, et c’est la troisième question, quelles règles faut-il transformer ? L’enjeu est-il vraiment de mettre un terme aux extensions urbaines ? Plutôt que d’agir sur les symptômes, ne faut-il pas intervenir sur les causes, à savoir les plus-values retirées du classement en zone constructible ? Ces plus-values trouvant leur origine dans l’action des collectivités locales, il serait logique qu’elles reviennent à ces dernières plutôt qu’à des propriétaires privés.

      Quatrième question : la catégorisation des sols dédiés à l’agriculture. Cette question, relativement simple en théorie, est politiquement très délicate. L’enjeu est majeur pourtant. Redéfinir le ZAN pour imposer des contraintes à l’agriculture changerait beaucoup de choses. Cela créerait une pression très forte en faveur de l’agroécologie. Parallèlement, les communes seraient poussées à inclure l’agriculture dans leurs projets de territoire. Cela conforterait les démarches déjà engagées de projets agri-urbains [56], où les collectivités locales se mêlent d’agriculture pour favoriser les circuits courts et l’agroécologie (notamment parce que les citadins sont souvent très inquiets des épandages de pesticides et autres produits chimiques dans leur voisinage). Cela donnerait aussi et surtout une consistance politique à la périurbanisation, particulièrement intense en France. Aujourd’hui les couronnes périurbaines des villes rassemblent plus de 40 % de la population française [57]. Or ces couronnes rassemblent également deux-tiers des exploitations agricoles (en nombre comme en superficie [58]). Mondes ruraux et mondes urbains se sont profondément entremêlés, liant leurs destins. Pour reconnecter l’humanité et le vivant, comme le demandent avec insistance certaines pensées écologistes, l’enjeu est d’articuler les dimensions campagnardes et citadines des territoires plutôt que de les opposer.

    • image non créditée (et qu’on trouve pourtant un peu partout)
      occasion de repointer vers les photos de Christoph Gielen dans Ciphers, relevé ici à la parution du livre (2014)
      https://seenthis.net/messages/275618

      depuis, il a un nouveau projet (que je met en billet plein par ailleurs)

      Supermax : Structures of Confinement and Rationales of Punishment
      Work — Christoph Gielen
      http://www.christophgielen.com/category/work

      Forthcoming:
      Exploring the rationales behind the building of maximum security prisons, “Supermax” offers rarely-heard industry insider assessments of the architectural aims behind these facilities and presents an otherwise not available opportunity to examine these places from directly above.

      “Supermax” is conceived as a video exhibition accompanied by a discussion forum that will address the future role of prison architecture and respond to the growing impasse facing the corrections praxis today.

  • Marc-André Selosse, biologiste : « Face aux inondations et aux sécheresses, nos sols sont une solution »

    Inondations dans l’Ouest, en Haute-Loire, dans les Hauts-de-France, à Cannes ou à Valence [Espagne] : que d’eau, de désarroi et de pertes économiques… Nos océans, plus chauds, évaporent plus d’eau dans une atmosphère dont le réchauffement augmente la capacité en eau. Le changement climatique nous promet des précipitations annuelles semblables ou accrues, mais davantage automnales ou hivernales, avec plus de précipitations extrêmes – et à l’inverse, des sécheresses en été (− 10% de précipitations estivales en 2050). La misère humaine sous les pluies violentes ne fait que poindre. Comment éponger cette eau ? Nos #sols sont une solution !

    En effet, sous une surface d’un mètre carré, le sol peut retenir de 40 à 500 litres d’#eau ! Les plus gros pores des sols laissent pénétrer l’eau, tandis que les plus petits la retiennent par capillarité. Entre deux pluies, les premiers se ressuient lentement dans les rivières et les nappes, tandis que les seconds nourrissent les plantes. Plus nos sols boiront d’eau, mieux nous écrêterons les #inondations et, du même coup, mieux nous mettrons en réserve pour les étés secs. Notre gestion des sols est-elle à la hauteur de ces enjeux ? Non.

    Car les trous du sol sont ceux de la vie : terriers de vers de terre ou d’insectes, creusement par le déplacement de petits organismes unicellulaires, racines ou filaments de champignon qui meurent en laissant un vide… Or, la vie s’effondre dans beaucoup de sols agricoles. D’abord, le labour tue les animaux, les champignons et les racines : autant de porosité perdue. Certes, labourer crée des trous, mais, grossiers et non moulés comme ceux des êtres vivants, ils s’effondrent, se « tassent » : on doit relabourer l’année suivante.

    Ensuite, nos sols manquent de matière organique, ces restes de végétaux morts : les engrais sont à présent en grande majorité minéraux ; nul engrais organique (fumier ou compost…) ne vient plus compenser la matière des plantes qu’on récolte. Paradoxalement, les bactéries survivent au #labour et, momentanément oxygénées par celui-ci, elles détruisent plus vite la matière organique du sol.

    Résultat : depuis l’après-guerre, les sols labourés de France ont perdu une grande partie de leur matière organique. Or, c’est elle qui relie les particules des sols, empêche l’érosion et stabilise les pores… Sans elle, la porosité devient instable et l’eau est moins retenue. Enfin, la charrue tasse le sol profond et crée des « semelles de labour » : ces zones empêchent l’eau de pénétrer plus en profondeur. Elles réduisent la portion de sol retenant l’eau et les réserves accessibles en été.

    Quand il pleut beaucoup, certains sols agricoles devenus moins capables de laisser entrer l’eau débordent, voire, s’ils ont perdu leur cohérence, se transforment en coulées de boue. Bien des inondations, comme à Valence ou dans les Hauts-de-France, sont faites de sols incohérents, qui s’écoulent : et c’est de la boue qu’on nettoie…

    Les vertus de l’élevage extensif

    En filigrane apparaissent les remèdes favorisant des sols plus gourmands en eau. Il faut réduire ou supprimer le labour et développer le semis direct, sur sol non labouré : cette agriculture dite « de conservation » occupe 33 % des surfaces cultivées en Amérique du Nord, contre seulement… 4 % chez nous. Il faut apporter de la matière organique au sol, comme le fait l’agriculture biologique, qui remplace les #engrais_minéraux par du fumier. Les déchets humains (nous produisons chacun un quintal de déchets organiques par an !) et les déchets de l’agroalimentaire doivent retourner massivement aux sols.

    De fait, la concurrence de la #méthanisation qui utilise la matière organique à des fins énergétiques ne fait l’objet d’aucune réflexion sur la balance entre les utilisations bioénergétiques et le retour aux sols. Notons que les pâtures non labourées ont, elles, des sols riches en vie souterraine et en matière organique (celle des racines mortes des plantes broutées) : elles stockent bien l’eau et soulignent les vertus de l’élevage extensif.

    La matière organique peut aussi provenir de cultures d’hiver, dites « intermédiaires » : elles remplacent les sols hivernaux bruns et nus, favorisent la vie souterraine et freinent l’érosion, puis livrent au sol de la matière organique à leur destruction au printemps. L’apport au sol de telles cultures intermédiaires représente 0,1 à 10 tonnes de carbone par hectare, soustraites au CO2 atmosphérique : enrichir les sols en matière organique lutte donc contre le réchauffement climatique.

    Enfin, la plantation d’arbres, dont les racines cassent les semelles de labour et fracturent le sol profond, aide l’eau à pénétrer plus loin. C’est l’un des intérêts des haies ou de l’agroforesterie (qui plante des arbres au-dessus des cultures ou des pâtures). D’ailleurs, les troncs et les racines des arbres stockent du carbone (environ 100 tonnes par kilomètre de haie) et luttent également contre le réchauffement climatique.

    Berlin, ville-éponge

    Notre incapacité à entretenir la soif en eau des sols n’est pas seulement agricole : l’#artificialisation_des_sols par les infrastructures de transports et les zones pavillonnaires, commerciales ou industrielles annihile plus encore leur rôle de stockage. Depuis 1970, 10 % de notre surface agricole, au voisinage des villes surtout, a été artificialisée. Le rythme (26 m2 par seconde !) est 3,7 fois plus rapide que notre croissance démographique ! Nos villes deviennent d’autant plus vulnérables aux pluies violentes.

    La loi « zéro artificialisation nette » (ZAN), qui veut enrayer l’artificialisation des sols en 2050, a donc un lien étroit avec le bien-être des habitants. Hélas, les difficultés à concilier le ZAN avec nos modes de développement local ont conduit le Sénat à détricoter ce texte… On comprend aussi la nécessité de restaurer des sols végétalisés dans nos rues et nos espaces urbains. La ville de Berlin fait ici figure de pionnière, restaurant ses sols pour devenir une ville-éponge et lutter contre les inondations et la sécheresse. Demain, notre #urbanisme doit gérer des sols urbains et périurbains salutaires.

    On le voit, toute notre société méconnaît et mutile la capacité des sols à stocker l’eau. Bien sûr, adapter nos sols ne suffira pas à éviter toutes les inondations. Face à une inondation domestique, vous n’épongez pas avant d’avoir bouché la fuite : de même, préparer nos sols à éponger sans agir sur le changement climatique serait ridicule et inefficace. Mais l’adaptation par des sols plus gourmands en eau sauvera des vies et des biens : on la doit aux victimes potentielles des inondations de demain… d’autant plus que ces sols, en meilleure santé, seront plus nourriciers.

    Marc-André Selosse est professeur du Muséum national d’histoire naturelle et à l’Institut universitaire de France. Spécialiste de la microbiologie des sols, il intervient dans des formations d’agriculteurs et plusieurs écoles d’#agronomie.
    https://www.lemonde.fr/idees/article/2025/02/05/marc-andre-selosse-biologiste-face-aux-inondations-et-aux-secheresses-nos-so

    #agriculture

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • [Nouvelle enquête] 4.000 ha de terres artificialisées en dix ans : le béton grignote le littoral breton
    https://splann.org/nouvelle-enquete-littoral-breton-tentation-beton

    « #splann ! » publie une enquête inédite sur l’artificialisation des côtes bretonnes et les failles de la #loi_littoral. À travers plusieurs cartes inédites et détaillées, l’enquête révèle qu’en dix ans, 4.000 ha ont été coulés sous le béton. Et rien n’arrête les bétonneuses. Surtout pas les réglementations. L’article [Nouvelle enquête] 4.000 ha de terres artificialisées en dix ans : le béton grignote le littoral breton est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #artificialisation_des_sols

  • [Nouvelle enquête] Littoral breton : la tentation du béton
    https://splann.org/nouvelle-enquete-littoral-breton-la-tentation-du-beton

    Splann ! publie une enquête inédite sur l’artificialisation des côtes bretonnes et les failles de la #loi_littoral. À travers plusieurs cartes inédites et détaillées, l’ enquête révèle qu’en dix ans, 4.000 ha ont été coulés sous le béton. Et rien n’arrête les bétonneuses. Surtout pas les réglementations. L’article [Nouvelle enquête] Littoral breton : la tentation du béton est apparu en premier sur #splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #artificialisation_des_sols

  • Euro Disney : ces plus-values qui interrogent la Cour des comptes


    Une vue générale du parc Euro Disney, à Marne-La-Vallée, en 2017. BERTRAND GUAY / AFP

    Comme souvent sur ces terrains particuliers qui entourent les parcs #Disneyland, dans l’Est parisien, la double transaction s’est déroulée dans la journée. La parcelle, 15 hectares préparés par l’établissement public EpaFrance au bord d’un golf, en Seine-et-Marne, a d’abord été proposée à la société Euro Disney. Laquelle, ce jeudi 5 septembre 2019, ne s’est pas fait prier pour l’acheter (1,63 million d’euros), ni pour la revendre aussitôt (17,2 millions d’euros) pour que la société de conseil Deloitte installe à deux pas de la gare TGV de Marne-la-Vallée, à huit minutes de Roissy, son campus européen de formation de cadres.

    « Soit un prix multiplié par plus de dix », relève la Cour des comptes, dans un rapport publié le 10 janvier consacré à EpaFrance, l’aménageur chargé de réaliser l’une des plus vastes opérations d’#urbanisme en métropole. L’une des plus singulières aussi, puisqu’elle est directement liée aux intérêts du géant américain, qui, il y a près de quarante ans, choisissait l’Ile-de-France pour investir l’Europe.

    La Cour ne se risque pas à recommander une remise à plat de la convention de 1987, celle-ci ayant quasi rang de traité international, dont l’Etat et Disney sont les principaux signataires, et les communes exclues. Elle ne nie pas non plus le succès de l’opération : 718 millions d’euros d’investissements publics, qui ont généré 8,8 milliards d’investissements privés depuis l’ouverture du premier parc en 1992. Disneyland Paris est la première destination touristique en Europe (deux fois plus de visiteurs qu’au Louvre, trois fois plus qu’à la tour Eiffel). Le chômage dans ce coin d’Ile-de-France est plus bas qu’ailleurs, 400 entreprises s’y installent chaque année.

    (...) la donne de départ « condui[t] l’Epa, organisme d’Etat, à mettre en œuvre les décisions d’une entreprise privée, dans des domaines relevant de l’action publique ».

    https://www.lemonde.fr/economie/article/2025/01/13/euro-disney-ces-plus-values-qui-interrogent-la-cour-des-comptes_6495544_3234

    https://justpaste.it/gtl5v

    edit on se souviendra que c’est un gouvernement PS qui a construit des routes, une gare, et concédé des terrains à cette boite, au nom de l’emploi.

    #spéculation #rente_foncière #immobilier #tourisme #artificialisation_des_sols #logement

  • « Une minorité d’agriculteurs profite de l’agrandissement des fermes », Thibaut Preux, géographe
    https://splann.org/grand-entretien-thibaut-preux-bocage

    Dans ce grand entretien avec Thibaut Preux, enseignant-chercheur en géographie, nous discutons du lien entre le recul du bocage et l’agrandissement des exploitations agricoles. L’article « Une minorité d’agriculteurs profite de l’agrandissement des fermes », Thibaut Preux, géographe est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres

  • Projet d’Arkea Park du #stade_brestois : l’environnement sur le banc de touche ?
    https://splann.org/stade-brestois-arkea-park-environnement

    Un nouveau stade de foot, l’Arkea Park, est dans les cartons à #Guipavas, près de Brest, sur des terres agricoles. Mais, selon l’Autorité environnementale, rénover l’ancien stade serait plus justifié. L’article Projet d’Arkea Park du Stade Brestois : l’environnement sur le banc de touche ? est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #Arkea_Park #Ligue_des_Champions

  • #stade_brestois : l’environnement sur le banc de touche ?
    https://splann.org/stade-brestois-lenvironnement-sur-le-banc-de-touche

    Un nouveau stade de foot, #Arkea_Park, est dans les cartons à #Guipavas, sur des terres agricoles. Mais, selon l’Autorité environnementale, rénover l’ancien stade serait plus justifié. L’article Stade Brestois : l’environnement sur le banc de touche ? est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #Ligue_des_Champions

  • [Nouvelle enquête] Révélations sur la pollution aux métaux lourds de la mine Imerys de Glomel
    https://splann.org/nouvelle-enquete-imerys-glomel-pollution

    À la veille d’une manifestation appelée par les Soulèvements de la terre du Merven contre la mine d’Imerys, à Glomel, en centre Bretagne, « Splann ! » publie la première partie de son dossier sur l’intoxication minière. Nous révélons des concentrations en nickel 60 fois supérieures à la valeur guide. L’article [Nouvelle enquête] Révélations sur la pollution aux métaux lourds de la mine Imerys de Glomel est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #Pollutions

    • Inondations : nous payons les héritages de décennies d’#incurie

      Les inondations de Valence ont déchaîné les #climatosceptiques. Les mêmes qui s’opposaient aux restrictions d’urbanisation en zone inondable et au zéro artificialisation nette s’improvisent anti-« béton » pour nier l’impact du #changement_climatique au nom du « bon sens ». Mais depuis 40 ans, l’exposition et la vulnérabilité ont augmenté et les catastrophes se succèdent. Nous le résultat de 30 ans d’inaction climatique.

      La catastrophe résulte toujours de la conjugaison de 3 éléments :

      - Un phénomène physique, l’#aléa (ici #submersion)
      – Des personnes et des biens exposés
      - Des facteurs individuels ou collectifs, conjoncturels ou structurels, qui rendent vulnérable au choc avant et pendant la crise.

      La submersion (inondation) résulte elle-même d’une combinaison de mécanismes : l’#eau peut venir du ciel (#précipitations), des #nappes_phréatiques, de la #mer, d’un #cours_d’eau lui-même alimenté par la pluie, la fonte des neiges ou de la rupture d’un barrage.

      Hors submersion marine, une inondation est étroitement liée au #ruissellement. En effet, lorsqu’il pleut, l’eau s’infiltre dans le sol. La partie qui n’est pas absorbée ruisselle et va rejoindre les cours d’eau qui vont l’évacuer vers la mer.

      Plusieurs facteurs peuvent naturellement limiter l’infiltration :

      - Le #gel
      – Un sol très sec ou au contraire détrempé
      – Un sol sans végétation (rôle des racines)
      - Un sol naturellement imperméable (argileux par exemple)

      voir : https://theconversation.com/en-france-les-pluies-de-mai-permettront-elles-de-mieux-affronter-la

      L’homme peut aussi imperméabiliser artificiellement les sols :

      - #bitumes, #béton, #toitures (y compris les #serres), etc.
      - manière de travailler le #sol agricole
      - #déboisement des versants
      - #busage des #drains_d’évacuation
      - modification de la #pente des versants

      Le ruissellement crée des #écoulements_de_surface qui sont aussi modifiés par les #aménagements (remblais pour des routes ou voies ferrées, etc). De plus, les #cours_d’eaux sont endigués, creusés, rectifiés, détournés, etc. avec un impact sur la vitesse et la hauteur d’eau.

      Dans les espaces urbanisés, l’eau de pluie est récupérée par des réseaux d’eaux pluviale pour éviter l’inondation des chaussées. En cas de forte pluie ou d’inondation des chaussées, ce réseau est insuffisant. Et devient lui-même un facteur d’inondation.

      En ville, d’autres #réseaux_souterrains (eau potable, tunnels, etc.) forment un #réseau_hydrographique_artificiel. En cas d’inondation à la surface, ils se remplissent d’eau, débordent à leur tour et inondent la ville.

      L’interruption de ces réseaux dits "critiques" paralyse en outre la gestion de crise. Ils peuvent être un facteur de #crise dans la crise. On a alors des aléas en cascade, avec des #effets_dominos, qui sont très redoutés par les gestionnaires.

      Par définition, l’urbanisation concentre les Hommes, les activités, les infrastructures. Elle accroît donc AUSSI l’exposition. La manière dont on construit la ville peut limiter l’#imperméabilisation (impact sur le ruissellement), pas l’exposition.

      L’exposition n’est pas un problème en soi si l’on agit sur la vulnérabilité : système de prévision et d’alerte, adaptation du bâti, utilisation de matériaux résistants, forme des bâtiments et morphologie de la ville, gestion de crise performante, évacuation, etc.

      Dans le cas d’épisodes méditerranéens, la #vitesse et la part d’#incertitude font que l’évacuation des populations est impossible et que la prévision a des limites. Il faut donc réduire l’exposition là où la vitesse et la hauteur d’eau sont fortes.

      Depuis des décennies, l’occupation des sols dans le bassin méditerranéen s’est concentrée dans des #zones_inondables. Depuis des décennies, les scientifiques alertent sur sur l’impact des activités humaines sur le ruissellement.

      En France, depuis des décennies, certains « responsables » politiques ont tout fait pour assouplir les #zonages des plans de prévention des risques. Cela a même été fait en toute légalité, malgré les combats des associations « écolo ».

      Alors oui, les épisodes méditerranéens ont toujours existé et oui, les sociétés du passé avaient su s’y adapter en construisant en hauteur notamment, au prix de lourdes pertes.

      Depuis 40 ans, l’exposition et la vulnérabilité ont augmenté et depuis 40 ans, les catastrophes se succèdent. Nous payons les héritages de décennies d’incurie. Et nous payons aussi le résultat de 30 ans d’inaction climatique.

      Car le changement climatique dope ces épisodes orageux. Et plus d’eau précipitée, c’est plus d’eau à évacuer. Quels que soient les plans d’adaptation, tant que la Terre se réchauffe, nous sommes condamnés à subir de plus en plus de #catastrophes.

      Malgré les progrès techniques, au-delà d’un certain niveau de réchauffement, ces territoires seront inhabitables.

      Seule l’atténuation, avec l’atteinte du net zéro émissions de CO2 stabilisera le réchauffement et permettra l’adaptation.

      https://blogs.mediapart.fr/magali-reghezza/blog/311024/inondations-nous-payons-les-heritages-de-decennies-d-incurie?at_acco

  • Acheter des terres pour en faire des réserves de vie sauvage, l’Aspas et Wild Bretagne passent à l’acte
    https://splann.org/nature-sauvage-bretagne

    Laisser la place à la nature sans la « gérer », c’est le principe du réensauvagement qui se propage actuellement en France. En Bretagne, plusieurs réserves dites de vie sauvage ont été créées. Un phénomène qui s’observe aussi à cause de la déprise agricole, mais qui soulève encore des inquiétudes. L’article Acheter des terres pour en faire des réserves de vie sauvage, l’Aspas et Wild Bretagne passent à l’acte est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #Artificialisation_des_terres #biodiversité #écologie #libre_évolution #rewilding

  • Quelque chose de grave se passe dans le ciel, Wu Ming 1
    https://lundi.am/Quelque-chose-de-grave-se-passe-dans-le-ciel

    Dans les premiers jours de mai 2023, et de nouveau deux semaines plus tard, de violents orages se sont abattus sur l’est de l’Émilie Romagne. Précédées d’une longue période de sécheresse, les fortes pluies prennent la population de court. (...)

    Un hectare de terre libre peut absorber jusqu’à 3 750 tonnes d’eau. Une eau qui en s’infiltrant s’en va rejoindre les nappes souterraines. Sur une dalle en béton ou une route en asphalte, l’eau rebondit et accélère sa course. Mais le problème ne se limite pas à ça. Dans le sprawl
    émilien-romagnol, l’eau a fait sauter les canalisations d’eaux usées, débordé les égouts, renversé les bennes à ordures, traversé des décharges, détruit des maisons, des usines, des magasins, des distributeurs, des garages et des entrepôts, emportant avec elle des substances nocives telles que des détergents, des cosmétiques, des engrais, des pesticides, des tonnes de plastique et, en traversant des élevages intensifs, charrié des animaux noyés...

    L’amas de ces bombes chimiques et bactériologiques stagna pendant plusieurs jours. Conselice, dans la province de Ravenne, devint la ville symbole de la catastrophe : elle resta envahie par ces effluents pendant deux semaines et l’odeur nauséeuse qui en émanait était perceptible à des kilomètres à la ronde.

    Le soleil rayonnait sur cette pourriture, Comme afin de la cuire à point, Et de rendre au centuple à la grande NatureTout ce qu’ensemble elle avait joint.
    Une charogne, Baudelaire

    Une fois que la boue a pu être évacuée – dans l’Adriatique, pouvait-il en être autrement ?! – et que les rues furent à nouveau sèches, les éventuels effets sur l’environnement et la #santé ne furent plus discutés. Le sujet disparut du discours public.

    Les causes de ce genre de catastrophes sont connues. Le réchauffement climatique provoque une alternance de périodes de #sécheresse et de fortes pluies, le fameux climate whiplash – le coup de fouet climatique. Dans le même temps, les inondations et les destructions sont le résultat de politiques qui défigurent le territoire depuis plus d’un demi-siècle, à commencer par les cours d’eau, déviés, artificialisés, amputés de leurs courbes, privés de leurs possibilités d’expansion au profit du béton. Les images de la Ravone – cette rivière canalisée et enterrée et qui, gonflée par les fortes pluies, repris possession de la via Saffi, une des artères principales de Bologne – en sont une bonne illustration.

    [...]

    Le maire de Ravenne, Michele De Pascale, reporta la faute des inondations sur les ragondins, coupables de creuser leurs terriers dans les digues, et sur de prétendus écologistes qui auraient empêché qu’on les abatte et lui auraient envoyé des menaces de morts. (...)

    #climat #artificialisation_des_sols #étalement_urbain #inondations #écologie #politique #sciences #complot #complotisme #géo-ingénierie #asymbolie #technosolutionnisme #Naomi_Klein #pandémie

  • « Le RN assume de poursuivre et de renforcer tout ce qui a contribué à inonder les maisons de Blendecques »
    https://www.lemonde.fr/idees/article/2024/06/23/le-rn-assume-de-poursuivre-et-de-renforcer-tout-ce-qui-a-contribue-a-inonder

    Blendecques (Pas-de-Calais) a été l’épicentre des inondations qui ont frappé le nord de la France tout au long de l’automne et de l’hiver 2023-2024. La petite ville a aussi été l’épicentre d’un paradoxe. Alors que ses habitants ont fait de première main l’expérience éprouvante des effets conjugués du réchauffement et d’un aménagement du territoire désastreux, ils ont massivement voté pour le Rassemblement national (#RN) – le parti le plus « écolosceptique » de l’échiquier politique – aux élections européennes. Dans le même temps, le score des partis portant la question environnementale s’est complètement effondré.

    Mi-juin, mon collègue Stéphane Mandard est allé promener son calepin et son stylo à Blendecques, et il a fait les comptes : la liste écologiste y avait rassemblé 7,1 % des suffrages en 2019, et seulement 1,7 % le 9 juin. Soit moins que l’Alliance rurale (2,5 %), moins que le Parti animaliste (2,2 %) et moins que les bulletins nuls (2,5 %) et blancs (2,2 %). Et beaucoup moins que le RN, qui caracole à 50,7 %. Des témoignages recueillis sur place, il sourd un sentiment de fatalité et d’abandon, et une colère étrangement retournée contre « les écolos ».

    « Dans le quartier, dit une habitante, tout le monde est en colère contre ces écolos qui préfèrent sauver les grenouilles plutôt que les maisons en interdisant les curages pendant les périodes de reproduction. » On voit là le succès d’un élément de langage martelé depuis des semaines par Xavier Bertrand, le président (Les Républicains) de la région, qui est parvenu à renverser le stigmate pour faire des « écolos » les responsables des inondations qui ont épuisé des milliers de foyers du Pas-de-Calais pendant des mois.

    En réalité, les épisodes de submersion qui se sont succédé dans la région ont moins à voir avec le curage des fossés et la protection des batraciens qu’avec les politiques publiques conduites depuis des décennies : le taux de bétonisation des sols est ainsi très élevé dans le Nord (22 %) et le Pas-de-Calais (15 %), par rapport à la moyenne nationale (10 %). C’est aussi dans le nord de la France que l’industrialisation de l’agriculture a contribué le plus fortement à l’agrandissement des parcelles, à l’arrachage des haies, à l’arasement des talus, à l’imperméabilisation des terres arables abîmées par un demi-siècle de pesticides, en bref à tout ce qui contribue à rendre les paysages de moins en moins résilients aux précipitations extrêmes renforcées par le changement climatique.

    Crise de l’intelligibilité du monde

    Le RN assume de poursuivre et de renforcer tout ce qui a contribué à inonder les maisons de Blendecques, mais rien ne semble pouvoir rendre ce constat audible dans la conversation publique. Les éléments de langage du camp conservateur dominent les discours, s’imposent, et effacent du paysage des liens de causalité pourtant simples. Il est certain que poursuivre l’#artificialisation des sols et l’industrialisation de l’agriculture, dans un monde où les fortes pluies seront de plus en plus fréquentes, va mécaniquement élever les risques d’inondation.

    Voter contre soi-même, voter pour la poursuite et l’approfondissement des causes dont on vient douloureusement d’éprouver les effets : il y a là la manifestation d’une sorte de crise de l’intelligibilité du monde, ou plus exactement d’une crise de la perception des chaînes causales. Ce que suggère le vote de Blendecques à propos d’environnement pourrait d’ailleurs être étendu à bien d’autres situations. Les difficultés d’accès aux services publics et au système de soins, par exemple, sont l’un des ressorts du vote pour l’extrême droite, mais comment tiendraient les hôpitaux publics, les maisons de santé et les Ehpad sans ces médecins, ces aides-soignants et ces infirmiers étrangers, que le RN veut discriminer et offrir à la vindicte raciste ?

    Des travaux d’épidémiologie conduits en France et aux Etats-Unis suggèrent que les épreuves de la vie, et en particulier les maladies chroniques, alimentent un ressentiment qui nourrit les populismes d’extrême droite. Il est plausible que la détresse provoquée par les calamités environnementales à répétition produise le même genre d’effet. Or, l’ultradroite n’a d’autre intérêt que de laisser s’enkyster les maux sur lesquels elle prospère.

    Endiguer le mensonge

    Comment lutter contre l’enclenchement de ces cercles vicieux et continuer de faire vivre la démocratie ? Une réponse a été proposée par Emmanuel Macron avec les conventions citoyennes, sur le modèle de celle sur le climat. Sur les sujets complexes, en articulant avec l’expertise de nouvelles formes de représentation, et en faisant vivre loin des réseaux sociaux et dans l’espace non bollorisé de la convention un débat rationnel et informé, il est possible de remettre les citoyens face aux conséquences prévisibles de leurs décisions. Et, peut-être, de faire qu’ils cessent de voter contre eux-mêmes. Dans cette ambiance crépusculaire où l’extinction du macronisme pourrait coïncider avec la fin de la Ve République, la question d’intégrer de tels dispositifs dans l’édifice institutionnel d’un nouveau régime devrait être posée.

    Ce ne serait finalement rien d’autre qu’un instrument d’endiguement du mensonge, qui a tant colonisé l’espace public que les constats du passé le plus sombre semblent d’une étrange actualité. « On n’a jamais menti autant que de nos jours. Ni menti d’une manière aussi éhontée, systématique et constante (…), disait en son temps Alexandre Koyré. Jour par jour, heure par heure, minute par minute, des flots de mensonges se déversent sur le monde. La parole, l’écrit, le journal, la radio… tout le progrès technique est mis au service du mensonge. » L’historien des sciences franco-russe écrivait ces mots depuis son refuge de New York, en janvier 1943.

    • y’a la solution dans l’article, on poursuit de plus belle

      Comment lutter contre l’enclenchement de ces cercles vicieux et continuer de faire vivre la démocratie ? Une réponse a été proposée par Emmanuel Macron avec les conventions citoyennes, sur le modèle de celle sur le climat.

  • Logement : « Le splendide isolement du gouvernement ne peut que conduire à renforcer la ségrégation et à approfondir la crise »
    https://www.lemonde.fr/idees/article/2024/05/08/logement-le-splendide-isolement-du-gouvernement-ne-peut-que-conduire-a-renfo

    Le mal-logement, qui touche près de quatre millions de personnes, et l’explosion du nombre de #sans-domicile (330 000 aujourd’hui, 2,3 fois plus qu’il y a dix ans) constituent les manifestations les plus visibles d’une crise du #logement qui n’affecte pas seulement les plus pauvres. L’explosion des prix de l’immobilier (le prix des logements anciens a été multiplié par trois depuis 1998, selon le rapport annuel de la Fondation Abbé Pierre) renforce les inégalités patrimoniales en même temps qu’elle pèse sur le pouvoir d’achat des ménages, qui consacrent désormais plus du quart de leur budget à cette dépense contrainte.

    La crise rejaillit sur les entreprises, qui peinent à recruter dans les territoires où les prix des logements ont atteint des niveaux qui les rendent inaccessibles aux classes moyennes. Elle contribue à la crise écologique en repoussant ces dernières vers des espaces périurbains toujours plus lointains, au prix d’une #artificialisation_des_sols et d’une automobilité contrainte. Elle renforce enfin la ségrégation sociospatiale, dont on mesure chaque jour les effets délétères sur la cohésion sociale et les inégalités.

    Le « choc d’offre » annoncé par Gabriel Attal dans son discours de politique générale pour résoudre cette crise, décliné dans un projet de loi relatif au développement de l’offre de logements abordables bientôt soumis au Parlement, laisse pour le moins circonspect. La promesse avait déjà été faite par le candidat Macron en 2017, mais les mesures adoptées depuis ont produit l’effet inverse.

    La ponction étatique sur les recettes des bailleurs sociaux, à hauteur de 1,3 milliard d’euros par an, a abouti à un effondrement de la construction HLM, passée sous le seuil des cent mille unités par an depuis 2020 (contre 126 000 en 2016). Combinée avec la hausse des taux d’intérêt, cette mesure a fait plonger la production neuve, qui a diminué de 35 % entre 2017 et 2023. Le gouvernement s’enferre ainsi dans une politique inefficace, restant sourd aux interpellations et aux propositions des acteurs du secteur comme aux analyses des chercheurs.

    Assouplissement des contraintes

    Le Conseil national de la refondation (CNR) logement, mis en place en septembre 2022, avait pourtant permis de rapprocher des acteurs aux intérêts éloignés, des promoteurs privés aux bailleurs sociaux en passant par les associations de défense des personnes mal logées. La concertation avait abouti à l’élaboration de nombreuses propositions visant à renforcer l’accès de toutes et tous à un logement digne, abordable et durable.

    La suite est connue : le ministre qui avait porté le CNR [Olivier Klein] a été exfiltré du gouvernement un mois après la fin de ses travaux, et son successeur [Patrice Vergriete] est resté en poste moins de six mois. Il a été remplacé en février dernier par Guillaume Kasbarian, dont les initiatives et les prises de position lorsqu’il était député laissaient peu de doute quant aux suites qui seraient données aux propositions du CNR.

    Le projet gouvernemental va aussi à rebours des connaissances établies par les chercheuses et les chercheurs, y compris lorsque celles-ci ont été réalisées à l’occasion de démarches évaluatives lancées par les administrations compétentes. C’est notamment le cas pour la #loi_SRU [loi solidarité renouvellement urbain] et son article 55 [qui vise à rééquilibrer l’offre de #logement_social sur l’ensemble du territoire], dont les effets et les limites ont été précisément mesurés à l’occasion de son 20e anniversaire.

    Le bilan aurait dû conduire à un durcissement des contraintes pesant sur les communes réfractaires au logement social. Au contraire, le gouvernement prévoit leur assouplissement, avec l’intégration des logements dits intermédiaires (s’adressant à des ménages dont les revenus dépassent les plafonds) dans les quotas de logements sociaux.

    « Préférence communale »

    Cet allégement de la loi SRU n’était demandé par personne, si ce n’est une poignée de maires de communes très favorisées qui transgressent délibérément la loi depuis de longues années, préférant payer des amendes plutôt que d’accueillir sur leur territoire du logement social. Le blanc-seing donné à ces élus délinquants, qui bénéficient d’une indulgence coupable de certains préfets, marque l’abandon de la principale mesure de l’arsenal législatif de la lutte contre la ségrégation résidentielle.

    La deuxième mesure annoncée par le premier ministre et reprise dans le projet de loi a été moins commentée, alors même que sa combinaison avec la première ne pourrait qu’amplifier la #ségrégation et réduire à néant les perspectives de mobilité résidentielle et d’accès à un logement digne pour des centaines de milliers de ménages. La promesse de « donner la main aux maires pour la première attribution des nouveaux logements sociaux construits sur leur commune » revient en effet à inscrire dans la loi une « préférence communale » qui est déjà une réalité dans de nombreux territoires, du fait d’arrangements informels entre élus, bailleurs sociaux et préfectures.
    Dans un contexte d’explosion des files d’attente à l’entrée du parc HLM (plus de 2,6 millions de personnes sont en attente d’un logement social en 2023), donner aux seuls maires la possibilité de choisir les locataires en limitera l’accès aux ménages déjà présents dans la commune et bloquera de façon corollaire les possibilités de mobilité de tous les autres.

    Ouvrir aux marchés financiers

    Au-delà de ces mesures affectant le logement social, c’est l’orientation austéritaire sous-tendant l’ensemble de la politique du logement menée depuis 2017 qui mérite d’être interrogée. L’effort public pour le logement a atteint un point historiquement bas : 1,6 % du produit intérieur brut en 2023, alors qu’il s’élevait à 2,2 % en 2010.

    Ce désengagement étatique s’accompagne d’incitations pressantes pour que les bailleurs sociaux vendent leur patrimoine. Depuis 2018, les tentatives se multiplient pour ouvrir le secteur aux marchés financiers, sans véritable succès jusqu’à présent – mais jusqu’à quand, compte tenu des pressions structurelles qui pèsent sur les bailleurs ? Comme le montrent, là encore, moult travaux scientifiques, les effets à moyen et long terme de ces politiques ne peuvent être que ravageurs.

    En enterrant les propositions du CNR et en restant sourde aux connaissances scientifiques solidement établies par les politistes, sociologues, géographes, économistes, etc., la politique du logement apparaît pour ce qu’elle est réellement : à l’antipode des principes de rationalité et de concertation sur lesquels le président comme le gouvernement prétendent fonder leur action, une politique guidée par une idéologie néolibérale et austéritaire. Ce splendide isolement ne peut que conduire à renforcer la ségrégation et à approfondir une crise du logement qui a déjà franchi plusieurs points de rupture, contribuant à dégrader durablement les vies de millions de nos concitoyens et la cohésion, y compris politique, du pays. Au moins les incendiaires sont-ils prévenus des conséquences de leurs décisions.

    Retrouvez ici la liste complète des signataires. https://sharedocs.huma-num.fr/wl/?id=4tAFm0kaPH2JzLRFuwaopsZjdR4pfquj&fmode=open
    Premiers signataires : Marine Bourgeois, maîtresse de conférences à Sciences Po Grenoble ; Anne Clerval, maîtresse de conférences à l’université Gustave-Eiffel ; Fabien Desage, maître de conférences à l’université de Lille ; Renaud Epstein, professeur des universités à Sciences Po Saint-Germain-en-Laye ; Pierre Gilbert, maître de conférences à l’université Paris-VIII Vincennes-Saint-Denis ; Antoine Guironnet, chercheur associé au CEE, Sciences Po ; Ludovic Halbert, chargé de recherche au CNRS ; Thomas Kirszbaum, chercheur associé au Centre d’études et de recherches administratives politiques et sociales ; Pierre Madec, chargé d’étude à l’OFCE, Sciences Po Paris ; Valérie Sala Pala, professeure des universités à l’université Jean-Monnet de Saint-Etienne.

    • Alerte !! Droit au logmùent (DAL), reçu par mel

      Droit Au Logement a pris connaissance de l’avant-projet de loi « développement de l’offre de logements abordables » et constate que ce texte attaque le #droit_au_logement, les victimes de la crise du logement, ses #locataires, et des fondements du logement social. Il acte une nouvel étape du désengagement de l’État dans le logement social et le logement des ménages modestes.

      Sous le titre trompeur « développer l’offre de logement abordable », ce projet de loi vise essentiellement à renforcer la production de #LLI logements intermédiaires, destinés aux catégories aisées, à compenser les effets désastreux de la réforme des APL et à relancer un nouveau cycle spéculatif pour un secteur #immobilier pris à son propre piège, celui du logement cher.

      Faute de rétablir les aides publiques nécessaires, le projet de loi ne permet pas de relancer à un niveau suffisant la production de logements sociaux au plus bas et érige des obstacles au relogement des prioritaires DALOs, des sans-abris et des ménages les plus vulnérables.

      Le Gouvernement tente une diversion en pointant les locataires-HLM-riches -qui-abusent-du-système, or ses effets seront marginaux. Par contre aucune sanction ne s’applique au locataire d’un LLI lorsqu’il dépasse les plafonds de ressource sans limitation une fois dans les lieux. 2 poids 2 mesures ; une loi pour les amis ?

      Pour loger des privilégiés en LLI dans des communes riches, la loi SRU est affaiblie, tandis que les #maires auront la main sur l’attribution des logements sociaux neufs. Ils pourront choisir « leurs » locataires, relançant le #clientélisme_municipal, social, voire la #préférence_nationale dans l’attributions des #HLM et pire encore ...

      Le Préfet pourra déléguer à Action Logement son contingent qui porte sur 25% des attributions annuelles logements sociaux et est dédié aux prioritaires. Si les prioritaires salariés pourront en bénéficier, que deviennent les non salariés et non employables exclus par Action Logement : retraités, personnes porteuses d’un handicap lourd, bénéficiaire de minimas sociaux (RSA, parents isolés ... ) ?

      Ce projet, plutôt que de restituer aux bailleurs sociaux les moyens financiers confisqués (RLS et aides à la pierre), remet en cause leur vocation initiale. Il prévoit :
      – d’augmenter les #loyers HLM des nouveaux locataires, créant un obstacle à l’accès des ménages modestes ;
      – de faciliter la #vente_de_logements_sociaux pour édifier des LLI : c’est des logements sociaux en moins ;
      – de faire le métier de promoteur pour vendre au privé des logements de rapport, faisant glisser les HLM vers les métiers spéculatifs et à haut risque, sans garantir que les recettes seront investies dans le logement social.

      Un durcissement du texte à sa lecture au Sénat courant Juin, est déjà annoncé dans le contexte actuel de surenchère politique anti-pauvre et xénophobe.

      Droit au Logement se mobilisera avec les sans-logis, les mal-logés, les locataires, les demandeurs HLM, les prioritaires DALO et toute les forces sociales engagées contre ce projet de loi qui fait encore reculer le droit au logement pour touTEs et les conquêtes sociales de ces dernières décennies, qui pousse les bailleurs sociaux à spéculer, augmenter les loyers et produire pour loger les cadres-sup.

      Réalisation de 200 000 vrais logement sociaux par an, arrêt des ventes et des démolitions de HLM,

      Baisse des loyers, des charges, et interdiction d’airbnb&Co,

      Lutte contre la fraude aux rapports locatifs, taxation des profits tirés de la spéculation immobilière,

      Application de la loi de réquisition et moratoire des expulsions,

      Renforcement des compétences de l’état en matière d’urbanisme et de politiques du logement,

      Abrogation de la loi Kasbarian-Bergé et abandon de toute poursuites contre les locataires en difficulté et les sans-logis qui occupent des locaux vacants pour se protéger .

      #guerre_aux_pauvres

  • RTS : L’inquiétude de la population qui vit sur le tracé du futur collisionneur du CERN

    À Genève et en France voisine, le projet gigantesque du nouvel accélérateur de particules du CERN, prévu pour 2045, fait débat. Actuellement à l’étude, son impact environnemental suscite déjà des craintes auprès de la population.

    La petite commune française de Charvonnex, située à 35 kilomètres au sud de Genève, est un lieu encore préservé : une route et, tout autour, des forêts et des champs.


    Ce tableau champêtre n’existera bientôt plus. La commune se situe en effet sur le tracé du futur collisionneur circulaire du CERN (FCC). C’est à cet endroit précis que prendra place l’un des huit sites de surface du FCC, d’une superficie de cinq hectares. Le tunnel, lui, sera creusé à 200 mètres de profondeur et mesurera 91 kilomètres.

    Une aberration écologique
    « C’est un territoire qui est déjà saturé par les travaux, la bétonnisation. On sent que les habitants en ont déjà marre, j’ai peur que le projet du CERN par dessus provoque une rébellion », peste Benjamin Joyeux, originaire de la commune de Fillinges, en Haute-Savoie.

    Alors qu’on demande aux habitants de faire un effort pour baisser leurs émissions de gaz à effet de serre, le projet du CERN vient ajouter des tonnes et des tonnes d’émissions de CO2
    Benjamin Joyeux, conseiller régional Auvergne-Rhône-Alpes 

    Le conseiller régional Auvergne-Rhône-Alpes craint les répercussions locales du projet, mais pas seulement. Membre du parti Les Écologistes, il estime que la consommation d’énergie et les émissions de CO2 qui découlent du futur FCC sont une aberration : « Alors qu’on demande aux habitants de faire un effort pour baisser leurs émissions de gaz à effet de serre, le projet du CERN vient ajouter des tonnes et des tonnes d’émissions de CO2. »

    Un projet à plusieurs tonnes de CO2
    La suite : https://www.rts.ch/info/regions/geneve/2024/article/l-inquietude-de-la-population-qui-vit-sur-le-trace-du-futur-collisionneur-du-cer

    #béton #cern #scientifiques #co2 #artificialisation des #sols #destruction #atomes #suisse #recherche

  • L’artificialisation des #sols : qui pour lutter contre ?
    https://metropolitiques.eu/L-artificialisation-des-sols-qui-pour-lutter-contre.html

    Depuis son adoption en 2021, l’objectif de limiter puis de compenser l’artificialisation des sols en France à l’horizon 2050 est sujet à de vifs débats. Jugé inatteignable par certains tandis que d’autres y voient l’opportunité de changer radicalement notre manière d’aménager, le ZAN est encore aujourd’hui une politique controversée et incertaine. Plus de deux ans après l’adoption de la loi climat et résilience, le cadre réglementaire relatif à la mise en œuvre de l’objectif du « zéro artificialisation #Essais

    / #droit, #droit_de_l'urbanisme, #gouvernance, #collectivités_territoriales, sols, #État

    https://metropolitiques.eu/IMG/pdf/met-desrousseaux.pdf

  • D’acier et de béton - Agnès Stienne - Visionscarto
    https://www.visionscarto.net/d-acier-et-de-beton

    Ici poussait du blé, là des tournesols, ailleurs des patates, des framboises et des oignons. Des arbres fruitiers, des fossés, des haies sculptaient des paysages ruraux vivants, garants de la vitalité des campagnes. Les terres ont été rasées. Des routes tracées, des dalles de béton coulées, des tonnes de ferrailles dressées sur des milliers de m2. Des rampes d’accès numérotées à intervalles réguliers. Un trafic routier intensifié. Artificialisation des sols, destruction des paysages, anéantissement des écosystèmes, pollutions diverses, des impacts largement négatifs sans réels bénéfices pour les communautés locales. Place aux entrepôts logistiques.
    par Agnès Stienne