• #Le_Corbusier, ou les racines fascistes du néolibéralisme

    Les phrases immondes du Corbusier, tout comme la dimension totalitaire de son #architecture, sont bien connues depuis plusieurs années. Et ne cessent de provoquer les émules.

    https://www.blast-info.fr/articles/2025/le-corbusier-ou-les-racines-fascistes-du-neoliberalisme-n2ZPyjmLQvmih3vYO

    Le projet Obus pour Alger en 1930

    Liaison des deux banlieues extrêmes d’Alger (...) par une route autostrade établie (...) au-devant des falaises (...) supportée par une structure de béton (...) dans laquelle seraient aménagés des logis pour 180000 personnes.

    https://www.fondationlecorbusier.fr/oeuvre-architecture/projets-urbanisme-projets-abch-alger-algerie-1930

    #urbanisme

  • Sans titre
    https://nantes.indymedia.org/tumbles/142552/142552

    NOUS PORTONS PLAINTE CONTRE #Nantes METROPOLE En février 2024, le Tribunal Administratif de Nantes a jugé illégal l’arrêté d’Autorisation environnementale de la ZAC et enjoint Nantes Métropole Aménagement (NMA) à mettre en place les mesures de compensation environnementales des destructions de la faune et de la flore dès la phase…

    #Ecologie #Gentrification #Nantes_nécropole #Urbanisation

  • L’écologisation urbaine : regards de praticiens
    https://metropolitiques.eu/L-ecologisation-urbaine-regards-de-praticiens.html

    La prise en considération des enjeux écologiques influence-t-elle vraiment les pratiques professionnelles des concepteurs, architectes, urbanistes, paysagistes ? Le #paysagiste Maxime Bardou pose la question à la lecture du dernier ouvrage du géographe Sylvain Rode sur l’écologisation urbaine. Pour l’enseignant-chercheur en géographie Sylvain Rode, l’urbanisme devrait assurer le bien-être des sociétés humaines en ménageant les milieux et le vivant. Prendre soin, s’adapter, préserver les ressources et #Commentaires

    / #écologie_urbaine, #droit, #urbanisme, #anthropocène, paysagiste, #paysage, #projet_de_paysage, (...)

    #métier
    https://metropolitiques.eu/IMG/pdf/met_bardou3.pdf

  • La città punitiva
    https://radioblackout.org/2025/03/la-citta-punitiva

    Panchine anti-bivacco, dissuasori lungo i marciapiedi, luci nei centri commerciali per scoraggiare gli adolescenti: in nome del #decoro, un’architettura ostile ridisegna le città reprimendo i comportamenti e scoraggiando chi non consuma. In certe aree urbane “riqualificate” per il #Giubileo, come piazza dei Cinquecento davanti alla stazione di #Roma Termini alcune panchine hanno i braccioli posizionati […]

    #L'informazione_di_Blackout #architettra_ostile #guerra_ai_poveri
    https://cdn.radioblackout.org/wp-content/uploads/2025/03/2025-03-11-città-ostili-gori.mp3

  • Transformer le système alimentaire ?
    https://metropolitiques.eu/Transformer-le-systeme-alimentaire.html

    En #France, le #système_alimentaire hérité du XXe siècle pose des problèmes de santé publique et de respect de la biosphère. Comment le transformer ? Ce dossier met en lumière de nouvelles façons d’aménager les villes pour en faire des territoires nourriciers et les adapter aux crises contemporaines. ▼ Voir le sommaire du dossier ▼ En 2021, 14,2 millions de tonnes de produits agricoles et alimentaires ont été importées pour nourrir les Franciliens (Mariasine et al. 2024). Ces aliments ont été produits à une #Dossiers

    / #agriculture_urbaine, système alimentaire, #alimentation, #urbanisme, #projet_urbain, #transition_socio-écologique, #crise, (...)

    https://metropolitiques.eu/IMG/pdf/met_introdossier_syst_alim.pdf

  • Les faiseurs de quartiers : quand la #Suisse allie les métiers de la ville et du travail social
    https://metropolitiques.eu/Les-faiseurs-de-quartiers-quand-la-Suisse-allie-les-metiers-de-la-vi

    En Suisse romande, des coordinateurs·trices de #quartier accompagnent les nouveaux projets urbains. Ces acteurs hybrides, alliant #urbanisme et travail social, favorisent la cohésion sociale et bousculent les dynamiques professionnelles. En Suisse romande, de nombreux grands projets urbains sortent actuellement de terre. Dans le contexte spécifique de la mise en service de ces quartiers, une nouvelle figure professionnelle émerge, celle des coordinateur·rices de quartier, se situant à la croisée #Essais

    / Suisse, #Genève, urbanisme, #métier, #participation, quartier

    https://metropolitiques.eu/IMG/pdf/met_lehec_gaberell.pdf

  • L’arbre, le maire et le terrain constructible
    https://laviedesidees.fr/L-arbre-le-maire-et-le-terrain-constructible

    L’objectif « Zéro artificialisation nette », ou ZAN, suscite de nombreux débats, souvent très techniques. Pourquoi empêcher les villes de s’étendre sur les espaces naturels, les forêts et les terres agricoles ? S’agit-il comme l’affirment certains élus d’une mesure « ruralicide » ?

    #Politique #ville #logement #agriculture #urbanisme #urbanisation
    https://laviedesidees.fr/IMG/pdf/20250214_zan.pdf

    • fin de l’article (dense et stimulant) :
      #artificialisation

      Sortir de l’opposition entre mondes urbains et ruraux
      Malgré les protestations, tensions et questions suscitées par le #ZAN, l’optimisme demeure possible car les débats ont accompagné une prise de conscience des enjeux pédologiques, et plus largement écologiques, associés aux sols. Beaucoup d’urbanistes et d’aménageurs, dont l’auteur de ces lignes, ignoraient toute l’importance des sols pour la biodiversité ou une agriculture écologique. À présent, la réduction des sols à du foncier plus ou moins constructible n’est plus permise. Pour le Sénat lui-même, la « sobriété foncière » est une exigence indiscutable.

      Le ZAN a donc redéfini les termes du débat. Comment consolider cet acquis ? Difficile de répondre. Si on prend le point de vue de l’écologie politique, quatre questions restent ouvertes. La première est, pour reprendre une formule qui a fait mouche, l’articulation des « fins de mois » et de « la fin du monde ». Cette question est centrale. Derrière le ZAN, une partie du pacte social français se trouve mise en cause pour les classes populaires.

      La seconde question est relative à la place des initiatives locales. Au vu du passé, et même du présent, faire confiance aux élus locaux pour garantir un usage des sols moins inconséquent peut paraître difficile. Mais jusqu’où l’État peut-il imposer ses vues à des dizaines de milliers d’élus (et même des centaines de milliers, en comptant les membres des conseils municipaux et intercommunaux) ? Et quand bien même il le pourrait, serait-ce souhaitable ? Pour l’écologie politique, la réponse à cette question renvoie au débat entre celles et ceux pour qui les urgences écologiques nécessitent un retour à une planification autoritaire et celles et ceux qui, inspirés par les mouvements des communs, le municipalisme ou les pensées libertaires, pour qui il faut faire ici et maintenant et que le changement ne peut venir que du bas, du local. Dans cette seconde perspective, les petites communes rurales peuvent constituer un levier majeur de transformation [55].

      Planification centralisée ou pas, il convient incontestablement de modifier les règles du jeu. Mais, et c’est la troisième question, quelles règles faut-il transformer ? L’enjeu est-il vraiment de mettre un terme aux extensions urbaines ? Plutôt que d’agir sur les symptômes, ne faut-il pas intervenir sur les causes, à savoir les plus-values retirées du classement en zone constructible ? Ces plus-values trouvant leur origine dans l’action des collectivités locales, il serait logique qu’elles reviennent à ces dernières plutôt qu’à des propriétaires privés.

      Quatrième question : la catégorisation des sols dédiés à l’agriculture. Cette question, relativement simple en théorie, est politiquement très délicate. L’enjeu est majeur pourtant. Redéfinir le ZAN pour imposer des contraintes à l’agriculture changerait beaucoup de choses. Cela créerait une pression très forte en faveur de l’agroécologie. Parallèlement, les communes seraient poussées à inclure l’agriculture dans leurs projets de territoire. Cela conforterait les démarches déjà engagées de projets agri-urbains [56], où les collectivités locales se mêlent d’agriculture pour favoriser les circuits courts et l’agroécologie (notamment parce que les citadins sont souvent très inquiets des épandages de pesticides et autres produits chimiques dans leur voisinage). Cela donnerait aussi et surtout une consistance politique à la périurbanisation, particulièrement intense en France. Aujourd’hui les couronnes périurbaines des villes rassemblent plus de 40 % de la population française [57]. Or ces couronnes rassemblent également deux-tiers des exploitations agricoles (en nombre comme en superficie [58]). Mondes ruraux et mondes urbains se sont profondément entremêlés, liant leurs destins. Pour reconnecter l’humanité et le vivant, comme le demandent avec insistance certaines pensées écologistes, l’enjeu est d’articuler les dimensions campagnardes et citadines des territoires plutôt que de les opposer.

    • image non créditée (et qu’on trouve pourtant un peu partout)
      occasion de repointer vers les photos de Christoph Gielen dans Ciphers, relevé ici à la parution du livre (2014)
      https://seenthis.net/messages/275618

      depuis, il a un nouveau projet (que je met en billet plein par ailleurs)

      Supermax : Structures of Confinement and Rationales of Punishment
      Work — Christoph Gielen
      http://www.christophgielen.com/category/work

      Forthcoming:
      Exploring the rationales behind the building of maximum security prisons, “Supermax” offers rarely-heard industry insider assessments of the architectural aims behind these facilities and presents an otherwise not available opportunity to examine these places from directly above.

      “Supermax” is conceived as a video exhibition accompanied by a discussion forum that will address the future role of prison architecture and respond to the growing impasse facing the corrections praxis today.

  • It’s Not Funny Anymore : #Vice to #Proud_Boys | #URBANIA Média
    https://urbania.media/fr/productions/it-s-not-funny-anymore-vice-to-proud-boys

    Découvrez Gavin McInnes, ce Canadien audacieux qui a laissé derrière lui deux héritages polarisants : d’un côté, l’empire médiatique VICE, évalué à plusieurs milliards et marqué par son progressisme, et de l’autre, les Proud Boys, une milice d’extrême droite violente, tristement célèbre pour son rôle lors de l’assaut du Capitole le 6 janvier.

    je découvre cette société de prod canadienne (progressiste non militante selon les dires du patron)...

    autre exemple de production :

    Substances | URBANIA Média
    https://urbania.media/fr/productions/substances

    Trois journalistes d’URBANIA, Hugo Meunier, Sara Buzzell et Jean Bourbeau, plongent dans l’univers des drogues en explorant sans tabou la place qu’elles occupent dans la société québécoise d’aujourd’hui. 

    Au fil des six épisodes portant sur le #cannabis, le GHB, le Xanax, la #cocaïne, le #Fentanyl et les #psychédéliques, les journalistes s’immergent dans l’univers d’une drogue en particulier, d’abord par leurs rencontres avec des expert.e.s, puis par une immersion sur le terrain.

    trouvée au hasard de lecture :

    https://www.lemonde.fr/economie/article/2025/02/10/les-medias-videos-comme-brut-ou-konbini-percutes-par-les-changements-d-algor

  • Près de Bordeaux, des habitants crient au « péril fécal »
    https://www.20minutes.fr/societe/4136271-20250210-pres-bordeaux-habitants-crient-peril-fecal
    https://img.20mn.fr/q7CcfyQRQNm_geVLfjc_rCk/1444x920_chez-frederic-encuentra-dont-la-maison-est-situe-sur-un-point-bas-
    #Péril_fécal

    L’association a alerté l’ARS sur la situation sanitaire et le « péril fécal » (risque de contamination par des micro-organismes présents dans les selles) représenté par ces reflux d’eaux usées dans des logements. Mais l’agence les a renvoyés aux « maires » ou à « leurs groupements » dont c’est la compétence. « On est au courant de cette situation depuis 2013, et on a fait des travaux, en mettant davantage d’avaloirs », commente Julie Samblat.

    « Trois jours après les inondations, mon épouse est tombée malade, avec fièvre et vomissements et elle était clouée au lit », témoigne Laurent Foerstner, qui précise que la bactérie Escherichia coli a été identifiée. « C’est un scandale sanitaire », s’indigne Nicole Assingue, qui vit avenue de Magudas et dont la cave est régulièrement inondée. « J’ai dû évacuer seul des brouettes de boues d’excréments », raconte encore Laurent Foerstner, furieux de l’inaction des pouvoirs publics. « On a fait de nombreuses réunions avec les riverains, assure Julie Samblat. La dernière en date remonte à quelques mois. »

  • Les #arbres en #ville : pourquoi il n’y a pas que le #nombre qui compte

    Combien d’arbres faudrait-il idéalement dans nos villes pour nous permettre de vivre dans des environnements frais, sains et agréables ?

    En tâchant de répondre à cette question, les chercheurs en écologie, Alain Paquette, Serge Muller et Bastien Castagneyrol rappellent au passage que beaucoup d’autres paramètres doivent être pris en compte pour verdir la ville au bénéfice de tous. Cette analyse est tirée de la conclusion de l’ouvrage qu’ils ont coordonné De l’arbre en ville à la forêt urbaine aux éditions Quae pour la France, et aux Presses de l’Université du Québec pour la distribution québécoise.

    De nombreuses études montrent un lien direct entre l’importance des arbres dans l’environnement urbain (habituellement rapporté par l’indice de canopée) et les effets sur la santé humaine, physique et mentale.

    Mais combien faut-il d’arbres ? Il n’y a pas de chiffre magique, bien que plusieurs aient été proposés. Pendant vingt ans, le chiffre de 40 % a circulé. Quarante pour cent, ce serait l’indice de canopée souhaitable, c’est-à-dire la proportion de l’espace urbain, qui serait occupée par les arbres si l’on regardait une ville d’en haut. Ce chiffre a été établi dans un article d’American Forests publié en 1997 après avoir analysé le couvert végétal de dizaines de villes aux États-Unis.

    Mais en janvier 2017, ce même organisme se rétractait, arguant que beaucoup d’autres facteurs étaient à considérer (densité de population, du bâti, climat, autre couvert végétal), et que la recherche des dernières années ne cautionnait plus cette valeur. Très récemment, d’autres auteurs ont établi que si la canopée d’une ville atteignait les 30 %, la température moyenne pourrait baisser d’environ un demi-degré et réduire d’un tiers les décès prématurés liés aux canicules. Trente pour cent, c’est moins que 40 %, mais c’est le double de la moyenne actuelle de l’indice de canopée des principales grandes villes à l’échelle mondiale.

    Des programmes souvent sans objectif clair

    Quel est l’indice de canopée souhaitable ? Trente pour cent ? Quarante pour cent ? Il n’y a pas de consensus, mais il est clairement apparu au travers des chapitres de l’ouvrage que la question n’est pas seulement de déterminer le nombre d’arbres dont nous avons besoin pour rendre nos villes durablement vivables. L’enjeu est aussi d’identifier les espèces d’arbres dont nous avons besoin, à quels endroits, et la façon dont nous pouvons les accompagner dans leur croissance et leurs interactions avec leur environnement biotique et abiotique pour tirer le maximum des services, nombreux, qu’ils peuvent fournir aux populations citadines.

    Il apparaît dès l’introduction de l’ouvrage que les programmes de verdissement des villes affichent dans leur grande majorité des objectifs en matière de nombre d’arbres à planter (ou, déjà mieux, de pourcentage de canopée), avec une promesse de bénéfices sur la santé et le bien-être. Paradoxalement, très peu de programmes de plantation mettent l’accent sur les services, comme réduire de 5 °C les températures extrêmes (Buenos Aires, Argentine). Ce choix est inquiétant car, sans cible claire, malgré les meilleures volontés et les ressources investies, le risque est grand de ne pas obtenir les effets escomptés ou, pire, de favoriser l’émergence de problèmes sanitaires, pour les arbres eux-mêmes et les espèces associées, l’espèce humaine comprise. Et parce que par ailleurs les programmes de plantation d’arbres urbains sont menés à grand renfort de communication sur les bienfaits attendus, il faut également s’inquiéter du risque insidieux de favoriser une forme de défiance des populations citadines vis-à-vis de la science si les promesses ne sont pas satisfaites et d’une défiance encore accrue de la part des populations habitant en dehors de ces cœurs métropolitains surinvestis par ces promesses.

    Planter aux bons endroits

    Un point commun qui revient dans plusieurs chapitres de l’ouvrage est la nécessité d’intervenir aux bons endroits. C’est bien sûr d’abord un problème d’écologie : les performances d’un individu (sa croissance, sa survie, sa reproduction) sont en premier lieu déterminées par la qualité et la quantité des ressources (l’eau, l’azote, la lumière, etc.). Le manque autant que l’excès sont délétères. Les gammes optimales de disponibilité en ressources varient d’une espèce à l’autre. Les chênes à feuilles sempervirentes sont par exemple plus résistants au manque d’eau que les chênes aux feuilles caduques. Il convient donc d’adapter les essences aux conditions locales de leur environnement. Or, en ville, ces conditions peuvent changer de manière abrupte sur quelques dizaines de mètres seulement. Mais ce qui fait « le bon endroit » pour un arbre urbain n’est pas qu’une question d’écologie. « Le bon endroit », c’est aussi là où l’arbre est et sera le plus utile pour les populations citadines.

    Aujourd’hui, de nombreux arbres urbains ne sont pas aux bons endroits. D’abord, parce que la majorité d’entre eux vivent dans des conditions environnementales qui frôlent, voire dépassent les seuils au-delà desquels leur survie est compromise. Ensuite, parce que les populations citadines les plus vulnérables sur le plan économique sont celles qui, en ville, sont les plus exposées aux chaleurs extrêmes et aux pollutions ; ce sont également celles qui sont les moins bien pourvues en #végétation.

    Viser plus de #diversité

    L’une des plus grandes menaces pour la #forêt_urbaine est son manque de diversité en matière d’essences, mais aussi de distribution dans l’espace, maintes fois documenté. En effet, dans la plupart des villes du monde, à peu d’exceptions près, les inventaires font état d’un grand nombre d’espèces au total, mais aussi d’un fort déséquilibre d’abondance entre essences, un petit nombre d’entre elles regroupant la majorité des effectifs. Ainsi, à Montréal, l’érable plane représente à lui seul plus de 17 % des arbres de la ville, et le genre Acer plus de 30 % des effectifs. Tout aussi alarmant, [l’écologue forestier Charles] Nock et ses collaborateurs ont montré en 2013 que les principales espèces utilisées dans les villes du nord-est de l’Amérique du Nord étaient les mêmes d’une ville à l’autre, et n’avaient aucun lien avec les forêts naturelles environnantes.

    Ces dernières années ont bien montré l’impact que peut avoir une surabondance de certaines espèces ou groupes, comme les frênes en Amérique du Nord, victimes d’un insecte, l’agrile du frêne, qui en absence de traitement tue pratiquement tous les arbres en quelques années. Or les frênes sont parmi les espèces les plus fréquentes dans la canopée des villes d’Amérique du Nord (plus de 20 % à Montréal, par exemple). Qu’un insecte ravageur s’installe durablement, et c’est la majorité de la forêt urbaine qui est menacée, avec des conséquences rapidement mesurables sur la santé humaine.

    Ainsi, la diversification des plantations est le meilleur outil que nous ayons pour réduire le risque lié aux changements climatiques, aux insectes et aux maladies exotiques. De la même manière que l’agricultrice avisée ne placera pas tous ses œufs dans un seul panier, ou que la banquière performante diversifiera son portefeuille d’actions, la diversification de la forêt urbaine diminue son exposition au risque par « effet de portefeuille », cette idée portant en effet le même nom en économie et en écologie. Seulement, il faut diversifier de façon efficace. Prenons encore l’image des portefeuilles financiers. Il est risqué de n’investir que dans des compagnies appartenant à un même secteur d’activité (pétrolier, par exemple) ; il faut plutôt miser sur des secteurs différents (technologies, énergies renouvelables, services). C’est pareil pour les arbres. La règle au doigt mouillé, dite « règle de Santamour » (pas plus de 10 % d’une espèce, 20 % d’un genre et 30 % d’une famille), est certainement utile, mais imparfaite, puisqu’elle ne tient pas compte des ressemblances fonctionnelles entre espèces non apparentées, et inversement. Un nouvel outil a ainsi été proposé s’appuyant sur les groupes fonctionnels, c’est-à-dire des groupes d’espèces qui se ressemblent (comme des compagnies appartenant au même domaine) ; il suffit de choisir des espèces appartenant à des groupes différents pour s’assurer d’une diversification et d’une réduction du risque efficace.

    La diversification vise donc non pas à augmenter les effectifs aujourd’hui, mais à s’assurer que la canopée dont nous aurons encore davantage besoin prochainement sera encore là pour garantir un niveau de services adéquat. Il est intéressant de noter que la diversification est aussi un moyen tout indiqué pour atténuer les desservices associés à la forêt urbaine, comme l’effet des pollens sur les allergies.
    Cibler des espèces d’arbres plus adaptées

    Le changement climatique menace de nombreuses espèces d’arbres qui sont actuellement abondamment présentes dans nos villes. Ainsi l’écologue Esperon-Rodriguez et son équipe ont montré en 2022 dans une étude concernant 3 129 espèces d’arbres et d’arbustes présentes dans 164 villes de 78 pays différents que les deux tiers de ces espèces pourraient être en situation de risque à l’échéance 2050.

    C’est pourquoi de nombreuses villes ont déjà commencé à anticiper ces changements et modifié leurs palettes végétales en y introduisant ou en renforçant la part des espèces résistantes à la sécheresse. Des outils ont été créés pour les aider dans le choix des essences les mieux adaptées aux différentes situations.

    Cependant, les objectifs de diversification et d’adaptation impliquent qu’il faut élargir l’offre et lancer rapidement, si ce n’est déjà fait, des essais avec des espèces de différentes provenances. Cela pose nécessairement la difficile question de l’indigénat, mais aussi de l’urgence de développer et de tester de nouveaux cultivars adaptés à la réalité urbaine. À partir d’espèces locales bien sûr, lorsque c’est possible, mais l’utilisation d’essences exotiques apparaît incontournable pour augmenter la diversité et la résilience.

    L’esthétisme sera toujours un élément important, ne serait-ce que pour l’acceptabilité publique des opérations d’intensification de la canopée. Mais il faut désormais, et de façon urgente, intégrer d’autres critères liés à la tolérance aux stress anticipés. Il serait aussi intéressant de cesser le développement et l’utilisation de cultivars dits « stériles » car ne produisant pas de fruits (graines), que d’aucuns trouvent indésirables, mais qui ne sont la plupart du temps que mâles, et produisant des pollens. Ce phénomène porte même un nom : le sexisme botanique. Bien que cette idée ait été largement reprise, aucune étude probante n’a documenté un effet réel sur les symptômes allergiques, et il serait intéressant de remettre au goût du jour les cultivars femelles, ou au moins réellement stériles.
    Des forets urbaines encore peu documentées

    Sans connaissances, impossible de poser des gestes concrets et sûrs pour augmenter la résistance et la résilience de la forêt urbaine de manière à assurer le bénéfice des précieux services écosystémiques qu’elle rend. Après des décennies de travaux en foresterie et en écologie forestière en forêts naturelles et aménagées, que peu de gens côtoient au quotidien, nous en avons développé une connaissance loin d’être complète mais suffisante pour faire des prédictions et des prescriptions avec une relative précision. Mais après tout au plus vingt ans de recherches encore parcellaires sur la forêt urbaine, nous allons de surprise en surprise et devons admettre que nous n’y connaissons pas grand-chose, et que la forêt urbaine est autrement plus complexe qu’imaginée au départ, comme le démontrent les chapitres de l’ouvrage.

    Au chapitre 1 par exemple, l’on montrait à quel point les conditions de croissance des arbres urbains sont souvent très différentes de celles de la forêt naturelle dans laquelle ils ont évolué. Les facteurs de stress et les maladies y sont aussi différents. On le sait désormais, l’arbre n’est pas seul, et supporte tout un microbiome complexe, partagé en partie avec les humains avec qui il cohabite dans la ville, et un nombre important d’autres organismes, petits et grands (insectes, oiseaux). La forêt urbaine est par définition indissociable des villes, et de leur développement historique et politique. Mais toute cette connaissance est très récente, et l’on commence à peine à connaître ces arbres avec lesquels nous partageons notre milieu de vie intime.

    La connaissance de la forêt urbaine, aussi trivial que cela puisse paraître, commence par son inventaire. Et cela peut même révéler de bonnes nouvelles ! La vaste majorité des inventaires de forêts urbaines disponibles se limitent aux arbres dans l’emprise publique, et sous la juridiction de la municipalité. En pratique, ces arbres représentent souvent moins de 50 % du total. Un écologue qui aurait réussi l’exploit d’échantillonner, de façon aléatoire, 50 % d’un habitat serait certainement en droit de prétendre à une excellente représentation. Mais justement, un échantillonnage centré uniquement sur l’emprise publique n’est pas aléatoire, et pourrait être fortement biaisé si les autres « propriétaires » d’arbres dans la ville prennent des décisions différentes, ce qui est hautement probable. Cela représente un frein au développement de plans d’intervention, par exemple pour augmenter la #résilience de la forêt urbaine.

    Les rares études ayant intégré les arbres privés (sur les terrains industriels, commerciaux, institutionnels et évidemment résidentiels) montrent que cette composante souffre elle aussi d’un manque de diversité causé par la surabondance de certaines espèces. Mais ces espèces ne sont pas les mêmes ! Ce qui a pour effet d’augmenter la diversité réelle de la ville, et c’est une excellente nouvelle.

    Au travers de cet ouvrage, nous avons cherché à ce que les arbres ne cachent pas plus la forêt urbaine que la forêt urbaine ne camoufle la complexité des interactions entre le vivant, humain et non humain, et son environnement minéral largement anthropisé. Ce sont les interactions entre la ville, les arbres, et nos choix d’aménagements qui façonnent la forêt urbaine, sa dynamique dans l’espace et dans le temps, et les bénéfices que nous en retirons. On retiendra donc que la ville fait la forêt urbaine, autant que la forêt urbaine fait la ville.

    https://www.tela-botanica.org/2025/02/les-arbres-en-ville-pourquoi-il-ny-a-pas-que-le-nombre-qui-compte
    #plantation #quantité #urbanisme #aménagement_urbain #urban_matters
    #livre

    • De l’arbre en ville à la forêt urbaine

      La plantation d’arbres est utilisée par de nombreuses municipalités comme solution naturelle pour faire face aux enjeux du changement climatique. Ce choix permet d’abaisser la température en luttant contre les îlots de chaleur urbains, de fournir un support à la biodiversité, d’améliorer le cadre de vie ainsi que la santé physique et mentale des citadins.

      L’arbre en ville, qu’il soit seul, en alignement ou dans un parc urbain, dépend de ses interactions avec les organismes qui lui sont associés dans les feuilles, le bois, le sol mais aussi de ses liens avec les arbres voisins et avec l’écosystème urbain. Fortement liés aux activités humaines, l’arbre en ville et la forêt urbaine font l’objet d’une gestion précise dont les enjeux et les modalités ont évolué au cours du temps.

      L’environnement urbain présente en effet des contraintes mais offre également des opportunités pour le développement des arbres. En retour, l’arbre et la forêt contribuent à façonner l’environnement urbain, avec un bénéfice recherché pour les populations humaines, faisant d’eux des objets autant écologiques que politiques.

      Cet ouvrage s’adresse à un public averti, et particulièrement aux personnes étudiantes et enseignantes en sciences du vivant et de l’environnement, en géographie, en sociologie et en sciences politiques. Il intéressera également les urbanistes, les gestionnaires des espaces verts et les élues et élus des municipalités.

      https://www.quae.com/produit/1861/9782759238804/de-l-arbre-en-ville-a-la-foret-urbaine

    • #Cartographie_collaborative du mobilier urbain hostile : organiser une collecte de groupe

      Certain-es appellent cela un “mapathon”, d’autres une “sortie de terrain” : récolter en groupe des données géolocalisées, les traiter rapidement, les ajouter à une base de données collective puis en faire des cartes simples est une manière efficace et motivante d’initier certains publics à la cartographie. L’idée est la suivante : amener des néophytes, dans le cadre d’un projet de groupe, à réaliser une carte en passant par toutes les étapes, de la collecte des données géolocalisées à l’édition de la carte, en passant par la création, la gestion de la base de données et le traitement des données dans un logiciel de SIG.

      C’est ce qu’ont fait, par exemple, les élèves géographes de 1ère année à l’ENS de Lyon sur les inscriptions et affiches murales dans le centre de Lyon (https://geoconfluences.ens-lyon.fr/informations-scientifiques/a-la-une/carte-a-la-une/epicollect).

      D’autres exemples existent, comme ces cartes réalisées autour de projets menés à l’UPEC, pour lesquels les relevés de terrain ont été réalisés en partie par des cohortes d’étudiant-es de L1 géographie dans le cadre d’un cours d’initiation à la cartographie, coordonné par Juliette Morel.

      Dans le cadre du projet de recherche sur la fabrique urbaine de l’indésirabilité, financé par la Défenseure des droits, nous avons créé une application de cartographie collaborative, visant à recenser le mobilier urbain dissuasif, hostile ou révélant des usages et usager-es indésirables (j’en parle ici). Je vous propose ici un tutoriel pour réaliser quelques cartes simples à partir de relevés de terrain sur le mobilier dissuasif, par exemple dans le cadre d’un module d’initiation à la cartographie de terrain. Ce tutoriel s’adresse aux enseignant-es du secondaires comme du supérieur, ainsi qu’aux collectifs militants qui souhaiteraient nous aider.

      Le recensement des dispositifs anti-indésirables peut se faire directement sur la carte en ligne, depuis chez soi, via l’onglet “Ajouter un élément”. Toutefois, il est possible, dans le cadre d’une sortie de terrain avec des élèves ou étudiant-es, ou simplement par envie de participer à la complétion de la carte en groupe constitué, de récolter les données “en masse” et en groupe, depuis son téléphone portable. Nous proposons pour cela d’utiliser l’application Epicollect5, développée par des chercheurs-ses de l’université de Cambridge et spécialement adaptée à la collecte de données géolocalisées sur le terrain. Les relevés du groupe, réalisés grâce aux smartphones sur le terrain, peuvent être exportés dans un fichier au format CSV ou JSON, puis importés dans un SIG pour réaliser des cartes à partir des données récoltées par le groupe. Vous pouvez ensuite nous envoyer le fichier pour que l’on ajoute les données que votre groupe a récoltées à la carte générale.

      1. Créer un groupe Epicollect5

      Après avoir créé un compte sur le site Epicollect5, il vous faudra créer un projet en cliquant sur “Create Project” en haut. Ensuite, il faudra prendre le temps de recopier le formulaire qui vous permettra de récolter des données compatibles avec les catégories de notre carte collaborative (catégorisation du mobilier, photo, géolocalisation, etc.). Voici le questionnaire :

      Pour ne pas faire d’erreur et pour ne pas perdre de temps à recopier le formulaire catégorie par catégorie, nous disposons aussi d’un groupe “témoin” qu’il est possible de cloner et sur lequel nous pouvons vous donner les droits d’administration. Pour cela, il suffit de m’écrire (milan.bonte@univ-lille.fr) et de me donner le nom et l’adresse mail associés à votre profil Epicollect. Vous deviendrez ainsi administrateur-rice d’un groupe muni d’un formulaire déjà opérationnel.

      Si vous ne travaillez pas en groupe mais que vous souhaitez utiliser Epicollect5 au quotidien, plutôt que l’interface de la carte collaborative, vous pouvez également m’écrire pour rejoindre un groupe pré-existant.

      2. Relever des dispositifs

      Une fois que votre groupe est créé et muni de son formulaire, vous pouvez sortir référencer des dispositifs. Il faut télécharger l’application Epicollect5 sur son téléphone, puis chaque contributeur-rice doit rejoindre le groupe que vous avez créé. Une fois sur le groupe, vous pouvez référencer les dispositifs que vous croisez sur le terrain en cliquant sur “Ajouter une entrée”. Le formulaire permet d’ajouter la localisation du téléphone et de prendre une photo, directement via l’application. Après avoir référencé des dispositifs, il faut bien synchroniser ses données et ses photos (petit nuage en haut à droite) pour qu’elles soient partagées avec les autres membres du projet.

      Vous pouvez utiliser un groupe Epicollect5 dans le cadre d’une sortie de terrain, pour collecter collectivement des données géolocalisées. Vous pouvez aussi rejoindre l’un des groupes associés au projet pour collecter des dispositifs au cours de vos déplacements quotidiens : c’est ce que nous faisons au sein du Collectif de Recherche sur l’Indésirabilité, qui porte le projet. L’application Epicollect5 est spécifiquement adaptée aux relevés de terrain.

      3. Exporter le fichier

      Une fois les relevés effectués, vous pouvez exporter vos données en format CSV ou JSON. Il suffit de se connecter à votre compte Epicollect5 sur un ordinateur, de cliquer sur “View Data” pour afficher le tableur contenant les données, puis sur “Download” pour le télécharger.

      Cela vous permet de télécharger un fichier CSV dans lequel sont contenues l’ensemble des données récoltées, ainsi que les photos, la latitude et la longitude de chaque dispositif. Voilà ce que ça donne :

      Voici, si besoin, un tuto pour importer un fichier CSV dans Excel. Notez que cette étape vous permet de visualiser votre fichier mais n’est pas nécessaire pour la suite.

      Une fois que vous avez ce fichier, n’oubliez pas de nous l’envoyer pour que nous puissions ajouter vos contributions à la carte générale !

      De votre côté, vous pouvez l’utiliser pour faire quelques cartes, si vous le souhaitez, avec votre groupe (par exemple, dans le cadre d’un module d’initiation à la cartographie ou aux relevés de terrain).

      4. Importer les données dans QGis pour réaliser quelques cartes

      Pour importer le fichier CSV dans QGis, vous ouvrez le gestionnaire des sources de données (ci-dessous), puis choisissez l’onglet “Texte délimité”.

      Vous choisissez ensuite votre fichier, indiquez que les informations sont séparées grâce à des virgules, avec encodage UTF8 (vous pouvez vérifier que l’aperçu de la table en bas de la fenêtre se charge bien avec des colonnes bien séparées les unes des autres). Vous indiquez la variable contenant la latitude, la longitude, puis importez votre fichier.

      Pour vous aider à vous repérer dans l’espace, vous pouvez utiliser un fond Open Street Map. J’aime bien les afficher en nuances de gris pour bien mettre en lumière les figurés ponctuels par-dessus (menu Propriétés > Symbologie).

      Vous pouvez ensuite décider de représenter l’un ou l’autre des types de dispositif grâce à des sélections attributaires – par exemple, seulement les assises, ou encore seulement les dispositifs manquants ou disparus (absence de bancs, suppression de bancs, etc.). Vous pouvez également classer les dispositifs par type et leur assigner une forme ou une couleur en fonction (sélections et symbologie).

      Si vous faites des relevés de grande ampleur dans une ville ou un quartier, vous pouvez aussi les compter par entité administrative (Vecteur > Compter les points dans les polygones). Cela rajoute un champ correspondant au nombre de dispositifs dans chaque entité administrative, ce qui vous permet d’en cartographier, par exemple, la densité en aplats de couleurs, ou simplement le nombre en cercles proportionnels.

      N’oubliez-pas de nous envoyer votre fichier CSV pour que vos relevés de terrain soient ajoutés à la carte collaborative ! Nous vous en remercions beaucoup par avance : la légitimité de ce projet repose principalement sur le nombre et la densité des collaborations.

      Vous pouvez m’écrire (milan.bonte@univ-lille.fr) ou contacter le CRI (Collectif de Recherche sur l’Indésirabilité – projetDDDindesirabilite@proton.me) pour toute question, remarque ou besoin de support.

      Bonne collecte !

      https://betonplumes.hypotheses.org/697

  • Marc-André Selosse, biologiste : « Face aux inondations et aux sécheresses, nos sols sont une solution »

    Inondations dans l’Ouest, en Haute-Loire, dans les Hauts-de-France, à Cannes ou à Valence [Espagne] : que d’eau, de désarroi et de pertes économiques… Nos océans, plus chauds, évaporent plus d’eau dans une atmosphère dont le réchauffement augmente la capacité en eau. Le changement climatique nous promet des précipitations annuelles semblables ou accrues, mais davantage automnales ou hivernales, avec plus de précipitations extrêmes – et à l’inverse, des sécheresses en été (− 10% de précipitations estivales en 2050). La misère humaine sous les pluies violentes ne fait que poindre. Comment éponger cette eau ? Nos #sols sont une solution !

    En effet, sous une surface d’un mètre carré, le sol peut retenir de 40 à 500 litres d’#eau ! Les plus gros pores des sols laissent pénétrer l’eau, tandis que les plus petits la retiennent par capillarité. Entre deux pluies, les premiers se ressuient lentement dans les rivières et les nappes, tandis que les seconds nourrissent les plantes. Plus nos sols boiront d’eau, mieux nous écrêterons les #inondations et, du même coup, mieux nous mettrons en réserve pour les étés secs. Notre gestion des sols est-elle à la hauteur de ces enjeux ? Non.

    Car les trous du sol sont ceux de la vie : terriers de vers de terre ou d’insectes, creusement par le déplacement de petits organismes unicellulaires, racines ou filaments de champignon qui meurent en laissant un vide… Or, la vie s’effondre dans beaucoup de sols agricoles. D’abord, le labour tue les animaux, les champignons et les racines : autant de porosité perdue. Certes, labourer crée des trous, mais, grossiers et non moulés comme ceux des êtres vivants, ils s’effondrent, se « tassent » : on doit relabourer l’année suivante.

    Ensuite, nos sols manquent de matière organique, ces restes de végétaux morts : les engrais sont à présent en grande majorité minéraux ; nul engrais organique (fumier ou compost…) ne vient plus compenser la matière des plantes qu’on récolte. Paradoxalement, les bactéries survivent au #labour et, momentanément oxygénées par celui-ci, elles détruisent plus vite la matière organique du sol.

    Résultat : depuis l’après-guerre, les sols labourés de France ont perdu une grande partie de leur matière organique. Or, c’est elle qui relie les particules des sols, empêche l’érosion et stabilise les pores… Sans elle, la porosité devient instable et l’eau est moins retenue. Enfin, la charrue tasse le sol profond et crée des « semelles de labour » : ces zones empêchent l’eau de pénétrer plus en profondeur. Elles réduisent la portion de sol retenant l’eau et les réserves accessibles en été.

    Quand il pleut beaucoup, certains sols agricoles devenus moins capables de laisser entrer l’eau débordent, voire, s’ils ont perdu leur cohérence, se transforment en coulées de boue. Bien des inondations, comme à Valence ou dans les Hauts-de-France, sont faites de sols incohérents, qui s’écoulent : et c’est de la boue qu’on nettoie…

    Les vertus de l’élevage extensif

    En filigrane apparaissent les remèdes favorisant des sols plus gourmands en eau. Il faut réduire ou supprimer le labour et développer le semis direct, sur sol non labouré : cette agriculture dite « de conservation » occupe 33 % des surfaces cultivées en Amérique du Nord, contre seulement… 4 % chez nous. Il faut apporter de la matière organique au sol, comme le fait l’agriculture biologique, qui remplace les #engrais_minéraux par du fumier. Les déchets humains (nous produisons chacun un quintal de déchets organiques par an !) et les déchets de l’agroalimentaire doivent retourner massivement aux sols.

    De fait, la concurrence de la #méthanisation qui utilise la matière organique à des fins énergétiques ne fait l’objet d’aucune réflexion sur la balance entre les utilisations bioénergétiques et le retour aux sols. Notons que les pâtures non labourées ont, elles, des sols riches en vie souterraine et en matière organique (celle des racines mortes des plantes broutées) : elles stockent bien l’eau et soulignent les vertus de l’élevage extensif.

    La matière organique peut aussi provenir de cultures d’hiver, dites « intermédiaires » : elles remplacent les sols hivernaux bruns et nus, favorisent la vie souterraine et freinent l’érosion, puis livrent au sol de la matière organique à leur destruction au printemps. L’apport au sol de telles cultures intermédiaires représente 0,1 à 10 tonnes de carbone par hectare, soustraites au CO2 atmosphérique : enrichir les sols en matière organique lutte donc contre le réchauffement climatique.

    Enfin, la plantation d’arbres, dont les racines cassent les semelles de labour et fracturent le sol profond, aide l’eau à pénétrer plus loin. C’est l’un des intérêts des haies ou de l’agroforesterie (qui plante des arbres au-dessus des cultures ou des pâtures). D’ailleurs, les troncs et les racines des arbres stockent du carbone (environ 100 tonnes par kilomètre de haie) et luttent également contre le réchauffement climatique.

    Berlin, ville-éponge

    Notre incapacité à entretenir la soif en eau des sols n’est pas seulement agricole : l’#artificialisation_des_sols par les infrastructures de transports et les zones pavillonnaires, commerciales ou industrielles annihile plus encore leur rôle de stockage. Depuis 1970, 10 % de notre surface agricole, au voisinage des villes surtout, a été artificialisée. Le rythme (26 m2 par seconde !) est 3,7 fois plus rapide que notre croissance démographique ! Nos villes deviennent d’autant plus vulnérables aux pluies violentes.

    La loi « zéro artificialisation nette » (ZAN), qui veut enrayer l’artificialisation des sols en 2050, a donc un lien étroit avec le bien-être des habitants. Hélas, les difficultés à concilier le ZAN avec nos modes de développement local ont conduit le Sénat à détricoter ce texte… On comprend aussi la nécessité de restaurer des sols végétalisés dans nos rues et nos espaces urbains. La ville de Berlin fait ici figure de pionnière, restaurant ses sols pour devenir une ville-éponge et lutter contre les inondations et la sécheresse. Demain, notre #urbanisme doit gérer des sols urbains et périurbains salutaires.

    On le voit, toute notre société méconnaît et mutile la capacité des sols à stocker l’eau. Bien sûr, adapter nos sols ne suffira pas à éviter toutes les inondations. Face à une inondation domestique, vous n’épongez pas avant d’avoir bouché la fuite : de même, préparer nos sols à éponger sans agir sur le changement climatique serait ridicule et inefficace. Mais l’adaptation par des sols plus gourmands en eau sauvera des vies et des biens : on la doit aux victimes potentielles des inondations de demain… d’autant plus que ces sols, en meilleure santé, seront plus nourriciers.

    Marc-André Selosse est professeur du Muséum national d’histoire naturelle et à l’Institut universitaire de France. Spécialiste de la microbiologie des sols, il intervient dans des formations d’agriculteurs et plusieurs écoles d’#agronomie.
    https://www.lemonde.fr/idees/article/2025/02/05/marc-andre-selosse-biologiste-face-aux-inondations-et-aux-secheresses-nos-so

    #agriculture

  • Les enfants, inspiration de la ville durable - ADEME Infos
    https://infos.ademe.fr/societe-politiques-publiques/2025/les-enfants-inspiration-de-la-ville-durable

    "Depuis des décennies, nos territoires sont conçus pour et autour de la voiture. Alors que les espaces urbains doivent être repensés au regard des nouvelles conditions liées au changement climatique (canicules, inondations…), intégrer la place des enfants dans l’espace public à cette réflexion est essentiel. Pourquoi ? Parce que s’intéresser aux enfants dans la conception et la gestion des espaces publics s’avère un excellent levier de transformation vers des territoires plus durables et inclusifs."

    -- Permalien

    #urbanisme

  • Répression urbaine
    https://labrique.net/index.php/43-urbanisme/1323-repression-urbaine

    Les Aviateurs à Bois-Blanc, l’Alma-Gare et l’Epeule à Roubaix font partie de la dizaine de quartiers de la métropole lilloise à être concernés par le Nouveau Programme National de Rénovation Urbaine (NPNRU). Menacé·es d’expulsion, les habitant·es de ces trois quartiers s’organisent pour lutter contre le démantèlement de leur communauté. La Brique a rencontré certain·es d’entre elleux pour comprendre les pratiques tout bonnement dégueulasses utilisées par les pouvoirs métropolitains pour les réprimer et passer en force…

    #En_vedette #Urbanisme

  • #utrecht construit un quartier sans voiture de 12.000 habitants
    https://carfree.fr/index.php/2025/01/31/utrecht-construit-un-quartier-sans-voiture-de-12-000-habitants

    A Utrecht aux #Pays-Bas, Merwede est un nouveau quartier urbain durable en cours de construction dans un endroit central non loin de la gare d’Utrecht. Il s’agit d’un projet quasiment Lire la suite...

    #Alternatives_à_la_voiture #Fin_de_l'automobile #Marche_à_pied #Quartiers_sans_voitures #Transports_publics #Vélo #Vie_sans_voiture #Ville_sans_voitures #carfree #projets #quartier_sans_voitures #santé #urbanisme

  • Personne ne se souviendra de nous
    https://toulouse.espacesensible.net/personne-ne-se-souviendra-de-nous

    Un documentaire sonore sur la violence de la « rénovation urbaine », dans lequel nous tendons l’oreille à trois histoires qui racontent ce que la disparition de son logement et de son quartier coûte à l’existence. Ces récits sont mis en perspective avec l’histoire de Toulouse et de son aménagement où la ruine, la destruction et la brutalité, loin d’être marginales, sont des éléments structurants. Source : Toulouse Espace Sensible

  • « Sous les pas vrais… la plage »

    Bon, en vrai il s’agit de la fameuse vidéo perdue, enfouie dans les méandres du serveur Skeptikon depuis 5 ans et jamais publiée.

    Elle s’appelle « Sous les pas vrais… la plage », et ça cause de pourquoi on ne se baigne plus dans les rivières en centre ville :

    Héraclite dit : on ne se baigne pas 2 fois dans la même rivière. Par peur des maladies ? Pourquoi nageait-on naguère dans l’Isère, et plus maintenant ? Une enquête de terrain de Mycose Mi-raison

    https://skeptikon.fr/w/s6dLq7vwKaBkjc1B6SvrEz

    avec cette #photo d’#archive :

    #baignade #Isère #rivière #Grenoble #baignade_en_ville #villes #urbanisme #rivières #France
    #podcast #audio

  • Je est un autre

    https://marshallbrownprojects.com/Je-est-un-autre

    C’est un titre emprunté à Arthur Rimbaud. C’est une expression qui reflète mon rejet des visions du monde puristes ou réductionnistes. Dans cette série, des fragments d’images sont sélectionnés, découpés à la main directement dans des livres, puis réassemblés pour créer de nouveaux espaces et des récits. Ce corpus d’œuvres puise dans des photographies réalisées par des figures marquantes de l’âge d’or de la photographie architecturale d’après-guerre, lorsque Julius Shulman, Lucien Hervé et Ezra Stoller utilisaient la photographie en noir et blanc à fort contraste pour mettre en valeur les formes.

    #art
    #architectue
    #urban_matter
    #poésie
    #collage

  • Piranesian Maps of Berlin

    Un projet de Marshall Brown

    https://marshallbrownprojects.com/Piranesian-Maps-of-Berlin

    Les projets de planification urbaines ’ordonnent’ la réalité urbaine tout en l’abstrayant. Les dynamiques de l’histoire, de la politique, de l’économie et de la culture sont figées et réduites à des traces superficielles (des rues, des bâtiments, des paysages et de noms de lieux). Bien qu’elles ne soient qu’une synthèse du réel, malgré tout ce qu’elles ne parviennent pas à représenter, la précision et la beauté des cartes nous rassurent : nous croyons en savoir suffisamment pour continuer à construire bien que nous ne soyons sur de rien.

    Évoquant la carte du Campus Martius (1762) de Giovanni Battista Piranesi, et celle de Rome qu’il a créée avec Giambattista Nolli (1748), ces cartes de Berlin se situent au croisement de la réalité et de l’incertitude – décrivant des villes qui auraient pu exister.

    Le matériel source est une série de documents techniques intitulée Die Stadtebauliche Entwicklung Berlins von 1650 bis heute (L’Évolution urbaine de Berlin de 1650 à aujourd’hui). Cette série a été créée par le Sénat de Berlin, Département du Développement Urbain et de la Protection de l’Environnement, en 1986, peu avant la réunification de la ville.

    #cartographie
    #cartoexperiment_2025
    #Berlin
    #Allemagne
    #urban_matter
    #Piranesi
    #Nolli

  • « Les ruines de #Mayotte ont mis en évidence l’importance de la #tôle_ondulée »

    https://www.lemonde.fr/idees/article/2025/01/02/les-ruines-de-mayotte-ont-mis-en-evidence-l-importance-de-la-tole-ondulee_64

    « Les ruines de Mayotte ont mis en évidence l’importance de la tôle ondulée »
    CHRONIQUE

    #Jean-Baptiste_Fressoz

    #Historien, chercheur au CNRS

    #prefabriqués

    La reconstruction de l’île dépendra plus des #matériaux disponibles, éprouvés et bon marché, que des solutions toutes faites comme le préfabriqué, constate l’historien Jean-Baptiste Fressoz dans sa chronique.Publié le 02 janvier 2025 à 05h30

    « On a été capables de rebâtir Notre-Dame en cinq ans, ce serait quand même un drame qu’on n’arrive pas à rebâtir Mayotte », lâchait Emmanuel Macron, le 19 décembre 2024, en déplacement sur l’île. Le 30 décembre, François Bayrou proposait un délai plus court encore : « Peut-être deux ans. » Et pour y parvenir, le premier ministre évoquait le recours à des maisons préfabriquées, bon marché, « faciles à monter ».

    Urgence, reconstruction, préfabrication : dans une thèse récemment soutenue à l’Ecole nationale supérieure d’architecture de Paris-Belleville, Antoine Perron a raconté l’histoire de cette association qui s’impose comme une évidence après les catastrophes du XXe siècle (« La machine contre le métier. Les architectes et la critique de l’industrialisation du bâtiment [France 1940 à 1980] »).

    Si l’idée de préfabrication apparaît au XIXe siècle, la pratique demeure marginale jusqu’à la première guerre mondiale. En 1918, face au manque de matériaux et de main-d’œuvre, l’espoir d’une reconstruction rapide des régions dévastées par les combats s’évanouit. La préfabrication s’impose pour loger les réfugiés. Le service des travaux de première urgence utilise d’anciennes baraques militaires, puis fait appel à la société Eternit qui commercialise des maisons préfabriquées en plaques d’amiante-ciment.

    Un capital important
    La préfabrication suscite un regain d’intérêt après la seconde guerre mondiale. Le déficit de logements est alors immense. En 1947, la France produisait un logement pour 1 000 habitants par an, cinq fois moins que les pays d’Europe du Nord. Le ministère de la reconstruction lance une série de concours visant à accélérer et à moderniser la construction par la préfabrication. Des subventions sont accordées en échange du respect par les entrepreneurs de plans types et de prix plafonds amputant parfois d’un tiers les devis classiques.

    La préfabrication est employée à grande échelle pour construire des villes entières. Ces concours se soldent le plus souvent par des échecs. La raison est principalement technique : transporter des éléments lourds est coûteux, leur précision dimensionnelle est insuffisante, ils jouent davantage avec les effets de la dilatation, et leur jointage est problématique : souffrant de nombreuses malfaçons, ces logements « modernes » d’après-guerre seront unanimement critiqués et souvent démolis.

    Si la préfabrication lourde fut un échec, l’utilisation d’éléments produits en usine a connu en revanche un succès extraordinaire. Les ruines de Mayotte ont mis en évidence l’importance de la tôle ondulée. Dans Quoi de neuf ? (Seuil, 2013), l’historien britannique David Edgerton soulignait son caractère crucial dans l’histoire des techniques du XXe siècle. Apparu dans le Royaume-Uni en voie d’industrialisation, son usage devient massif lors de l’urbanisation rapide du monde pauvre après 1950.

    Comme il s’agit d’un des rares éléments qui ne peuvent être produits sur place, les tôles ondulées constituent un capital important. Elles sont récupérées, réutilisées et revendues. En 1994, au Rwanda, les Hutu pillèrent systématiquement les tôles ondulées des Tutsi. Et quand les Hutu durent fuir au Congo, ils emportèrent les tôles ondulées ou les enterrèrent dans leurs champs. Si la tôle ondulée est une technique clé du monde pauvre, elle n’est pas antithétique à la construction en dur : en Australie ou en Nouvelle-Zélande, elle est utilisée par les colons depuis le XIXe siècle et a même acquis de nos jours un cachet d’architecture vernaculaire.

    La « reconstruction de Mayotte » est un défi sans commune mesure avec celle de Notre-Dame. Des centaines de milliers de logements ont été détruits ou endommagés. Rappelons que la France entière ne produit qu’environ 400 000 logements par an. Il est aussi probable que la reconstruction de l’île dépende moins de solutions techniques toutes faites comme les « maisons préfabriquées faciles à monter » invoquées par François Bayrou que de la disponibilité de matériaux de construction éprouvés et bon marché (pisé, briques, parpaing, ciment, tôle ondulée…).

    Quant à la construction en dur qui a montré son utilité pendant le cyclone, elle dépend surtout de la sécurisation du statut des populations précaires qui pourront investir à la fois leur temps et leur argent dans l’autoconstruction de leur maison.

    Jean-Baptiste Fressoz (Historien, chercheur au CNRS)

  • « Mamífera » : et si l’espace public facilitait l’allaitement ?
    https://topophile.net/savoir/mamifera-et-si-lespace-public-facilitait-lallaitement

    En 2023, alors que le festival MODEL - Festival d’Arquitectures de Barcelona, proposait de s’intéresser à l’idée d’« empathie radicale », les membres d’Equal Saree ont imaginé un pavillon d’allaitement collectif intitulé Mamífera. Composée d’architectes et de chercheuses, cette agence interroge la conception de nos espaces publics et la place qui y est faite au soin, aux... Voir l’article

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

  • Euro Disney : ces plus-values qui interrogent la Cour des comptes


    Une vue générale du parc Euro Disney, à Marne-La-Vallée, en 2017. BERTRAND GUAY / AFP

    Comme souvent sur ces terrains particuliers qui entourent les parcs #Disneyland, dans l’Est parisien, la double transaction s’est déroulée dans la journée. La parcelle, 15 hectares préparés par l’établissement public EpaFrance au bord d’un golf, en Seine-et-Marne, a d’abord été proposée à la société Euro Disney. Laquelle, ce jeudi 5 septembre 2019, ne s’est pas fait prier pour l’acheter (1,63 million d’euros), ni pour la revendre aussitôt (17,2 millions d’euros) pour que la société de conseil Deloitte installe à deux pas de la gare TGV de Marne-la-Vallée, à huit minutes de Roissy, son campus européen de formation de cadres.

    « Soit un prix multiplié par plus de dix », relève la Cour des comptes, dans un rapport publié le 10 janvier consacré à EpaFrance, l’aménageur chargé de réaliser l’une des plus vastes opérations d’#urbanisme en métropole. L’une des plus singulières aussi, puisqu’elle est directement liée aux intérêts du géant américain, qui, il y a près de quarante ans, choisissait l’Ile-de-France pour investir l’Europe.

    La Cour ne se risque pas à recommander une remise à plat de la convention de 1987, celle-ci ayant quasi rang de traité international, dont l’Etat et Disney sont les principaux signataires, et les communes exclues. Elle ne nie pas non plus le succès de l’opération : 718 millions d’euros d’investissements publics, qui ont généré 8,8 milliards d’investissements privés depuis l’ouverture du premier parc en 1992. Disneyland Paris est la première destination touristique en Europe (deux fois plus de visiteurs qu’au Louvre, trois fois plus qu’à la tour Eiffel). Le chômage dans ce coin d’Ile-de-France est plus bas qu’ailleurs, 400 entreprises s’y installent chaque année.

    (...) la donne de départ « condui[t] l’Epa, organisme d’Etat, à mettre en œuvre les décisions d’une entreprise privée, dans des domaines relevant de l’action publique ».

    https://www.lemonde.fr/economie/article/2025/01/13/euro-disney-ces-plus-values-qui-interrogent-la-cour-des-comptes_6495544_3234

    https://justpaste.it/gtl5v

    edit on se souviendra que c’est un gouvernement PS qui a construit des routes, une gare, et concédé des terrains à cette boite, au nom de l’emploi.

    #spéculation #rente_foncière #immobilier #tourisme #artificialisation_des_sols #logement