• Développer l’ingénierie participative par le recours aux savoirs des #communs fonciers
    https://metropolitiques.eu/Developper-l-ingenierie-participative-par-le-recours-aux-savoirs-des

    Les #communes_rurales expriment de longue date un besoin d’ingénierie pour les aider dans la gestion de leur territoire. Face à l’inadéquation des réponses de l’État, l’idée de recourir à l’expérience collective de gestion des communs fonciers ouvre de nouvelles perspectives. L’ingénierie territoriale est définie comme l’ensemble des savoirs professionnels dont ont besoin les collectivités et les acteurs locaux pour conduire le développement ou l’aménagement durable des territoires. Elle #Essais

    / communs, #ingénierie_territoriale, #participation, communes rurales, #ANCT

    https://metropolitiques.eu/IMG/pdf/met-lerique.pdf

  • Penser l’#après-voiture, une #utopie nécessaire

    L’inertie qui entoure la place prépondérante de la #voiture_individuelle est telle que seul un choc d’investissements massifs peut permettre de sortir de cette #dépendance.

    On ne sortira pas facilement d’un système du #tout-voiture autour duquel l’organisation de la société a été pensée. La toute-puissance de l’#automobile est telle, son #inertie si grande, que même la certitude de la catastrophe climatique ne change rien ou pas grand-chose à nos usages. Les déplacements sont le seul domaine où les émissions de gaz à effet de serre ne reculent pas. Et les voitures en sont responsables pour plus de la moitié.

    Sans même parler de #climat, que certains ont encore la naïveté de penser comme un problème lointain, la liste des méfaits du #tout-automobile est déjà très longue. La #pollution aux #particules_fines ou aux #oxydes_d’azote tue. La #mortalité_routière, même si elle a baissé dans des proportions incroyables, demeure à un niveau intolérable sans susciter l’émotion que devrait provoquer la perte de plus de 3 000 de nos concitoyens chaque année. La #sédentarité induite par la voiture est un problème de #santé public majeur, tout comme les #nuisances_sonores ; son omniprésence a confisqué l’#espace_public. A cela s’ajoutent tout un ensemble de dépendances économiques qu’elle entretient. Le statu quo n’est ni tenable ni enviable.

    Si l’on admet qu’un changement de paradigme est indispensable, nous devons être prêts à des renoncements. Mais le sommes-nous ? « Circuler librement » est un droit consacré par la Déclaration universelle des droits de l’homme. Mais il n’est nulle part écrit que celui-ci doit s’exercer grâce à un véhicule à moteur à quatre roues, que possèdent certains foyers en un ou deux exemplaires, et qui assure plus de 80 % des kilomètres parcourus en France.

    Dans ce contexte, toutes les initiatives pour réduire notre dépendance devraient être saluées. Non parce qu’elles sont parfaites – aucune ne l’est –, mais parce que, si elles fonctionnent, elles pourraient faire tache d’huile, si l’on ose dire. A Paris, la politique de la Mairie a été accusée de tous les maux, jusqu’à l’absurde. Pourtant, les résultats sont là : la #circulation_automobile y a baissé de moitié depuis le début du siècle et, entre 2012 et 2022, selon Airparif, les émissions de gaz à effet de serre ont baissé de 35 %.

    L’exemple de #Paris, une métropole dense avec un maillage exceptionnel de transports en commun, n’est guère transposable. Pourtant, un phénomène de rééquilibrage similaire s’observe dans bien des villes : 57 % des personnes interrogées pour une étude de l’IFOP commandée par Keolis, filiale de la SNCF exploitant des réseaux de transport, plébiscitent une réduction forte (15 %) ou progressive (42 %) de la place de la voiture en ville. « Globalement, le choix de réduire la place de la voiture est accepté, même si le rythme est questionné », résume le directeur de l’IFOP, Jérôme Fourquet, dans l’étude, publiée le 19 novembre.

    On rétorquera que certains n’ont pas le choix. Lancez un débat et ils seront nombreux à soudainement se soucier des personnes âgées ou en situation de handicap, des artisans, des taxis ou des travailleurs de nuit. Certains ont besoin de leur voiture, c’est un fait que personne ne devrait contester, pas même les plus zélés défenseurs du vélo ou des transports en commun. Mais ce ne sont pas les pistes cyclables, ni les voies de bus, ni même les plans de circulation qui gênent ces obligés de la voiture. Ce sont les #bouchons créés par ceux qui sont automobilistes par choix et par flemme, tous ceux qui auraient les moyens physiques et géographiques d’agir autrement.

    Un système qui exclut

    Le nœud du problème n’est pas en #ville, il est dans sa périphérie et au-delà. C’est autant un enjeu écologique que de #cohésion_sociale. Une partie de la réponse se trouvera dans les #services_express_régionaux_métropolitains (#SERM), lancés par Emmanuel Macron en 2023 sous le nom de « #RER_métropolitains ». Les 26 projets labélisés sont fondés sur des études locales de besoins, ne nécessitent pas de travaux pharaoniques, franchissent les barrières administratives, et mêlent trains, bus, cars et pistes cyclables, selon leur pertinence respective. Ils ont l’ambition de révolutionner la #mobilité autour des grandes villes, hors Paris. L’année 2026 sera cruciale, car les projets doivent obtenir du ministère leur « statut » de SERM, ouvrant les discussions concrètes sur leur financement et leur développement.

    Les SERM parviendront-ils à faire baisser la part modale de la voiture ? Même dans les pays cités comme exemple – les Pays-Bas pour sa politique du tout-vélo ou la Suisse comme paradis des trains à l’heure –, cette part est à peine plus faible qu’en France, de l’ordre de 70 %. Sans révolution dans nos #infrastructures, sans un colossal « choc d’offre » dans les #transports_collectifs, il est peu probable que des changements majeurs adviennent.

    Le groupe de réflexion #Forum_vies_mobiles, financé par la SNCF, a imaginé dans une vaste étude en septembre ce que pourrait être un « système alternatif de mobilité ». Pas question de grands travaux, mais de #réaffectation de 40 % du million de kilomètres de routes françaises à d’autres usages, du #vélo aux #transports_en_commun cadencés. Le #coût pourrait paraître rédhibitoire – 177 milliards d’euros d’investissement et 55 milliards d’euros de fonctionnement par an –, mais il est « tout à fait raisonnable, en comparaison avec le coût du “système voiture”, estimé à plus de 300 milliards d’euros annuels », selon Sylvie Landriève.

    La directrice du Forum vies mobiles et autrice de l’étude rappelle que ce système exclut plus qu’il n’inclut : un tiers des Français ne conduisent pas et seuls 18 % des détenteurs du permis se disent libres de conduire quand ils le souhaitent. La proposition a eu droit à son procès en irréalisme. Mais on aurait tort de se gausser de ces travaux, fussent-ils utopiques. C’est une base réfléchie et chiffrée pour penser un après-voiture dont l’usage sera probablement bouleversé par l’arrivée de la voiture autonome, qui en est à ses balbutiements.

    https://www.lemonde.fr/idees/article/2025/12/18/penser-l-apres-voiture-une-utopie-necessaire_6658466_3232.html
    #aménagement_du_territoire #urbanisme #espace

  • Vieni via con me

    “Raccontare come stanno le cose vuol dire non subirle”

    Otto capitoli, otto storie, un ritratto unico dell’Italia di oggi firmato dall’autore del bestseller internazionale Gomorra. Roberto Saviano scava dentro alcune delle ferite vecchie e nuove che affliggono il nostro Paese: il mancato riconoscimento del valore dell’Unità nazionale, il subdolo meccanismo della macchina del fango, l’espansione della criminalità organizzata al Nord, l’infinita emergenza rifiuti a Napoli, le troppe tragedie annunciate. Accanto alla denuncia c’è anche il racconto – commosso e ammirato – di vite vissute con onestà e coraggio: la sfida senz’armi di don Giacomo Panizza alla ’ndrangheta calabrese, la lotta di Piergiorgio Welby in nome della vita e del diritto, la difesa della Costituzione di Piero Calamandrei. Esempi su cui possiamo ancora contare per risollevarci e costruire un’Italia diversa.
    Ideato e condotto da Roberto Saviano e Fabio Fazio, Vieni via con me è stato l’evento televisivo degli ultimi anni, più seguito delle partite di Champions League e dei reality show. Ora è anche un libro che racconta queste storie in una forma ampiamente rivista e arricchita. Facendole diventare, ancora una volta, storie di tutti.

    https://www.feltrinellieditore.it/opera/vieni-via-con-me-1
    #livre #Roberto_Saviano
    #démocratie #macchina_del_fango #démocratie #délégitimation #martiri_di_Cerace #Locride #mafia #liberté_d'expression #Giovanni_Falcone #Rocco_Chinnici #honneur #baptême #picciotto_d'onore #fratelli_di_sangue #contrasto_onorato #rites #giuramento #hiérarchie #Polsi #bunker #déchets #écomafia #sous-sol #Compare_Nuzzo #Carmelo_Novella #mariages #Aspromonte #Madonna_delle_Montagne #Domenico_Oppedisano #Vincenzo_Mandalari #Pino_Neri #Pasquale_Zappia #Carlo_Antonio_Chiriaco #contrôle_du_territoire #Gianfranco_Miglio #répression #restauration #aménagement_du_territoire #sous-traitance #appels_d'offre #Naples #Terra_dei_Fuochi #Naples #ecoballe #Impregeco #Ce4 #Casalesi #Na1 #Na3 #Fibe #Impregilo #Nicola_Cosentino #camorra #écomafia #Villaricca #Operazione_Mosca #Sergio_Orsi #Michele_Orsi #Eco4 #Caserta #santé_publique #cancer #Parco_del_Vesuvio #Terzigno #Giacomo_Panizza #Don_Giacomo #Torcasio #Giampà #Giovanni_Torcasio #Lamezia_Terme #Progetto_Sud #Antonio_Torcasio #L'Aquila #tremblement_de_terre #Casa_dello_Studente #élections

  • Les #abris_PC rouvrent à #Genève. Ils restent inhumains.

    C’est avec consternation que nos associations ont appris la réouverture d’un abri de protection civile à Genève pour y loger des personnes en quête d’asile. La Coordination asile.ge appelle les autorités cantonales à trouver urgemment des solutions de logement humaines et dignes, à court et à long terme.

    Fin novembre, l’abri PC de Balexert a ouvert ses portes pour y héberger une soixantaine de requérants d’asile déboutés, transférées d’une halle de Palexpo. Un autre abri serait prêt ou aurait déjà été ouvert.

    Voici plus de sept ans que l’utilisation des abris PC par les autorités cantonales avait pris fin, à la suite d’une longue mobilisation de personnes résidant dans ces bunkers et de la société civile. Cela fait bien plus d’années encore que nous dénonçons un dispositif d’hébergement cantonal qui ne cesse de se densifier, jusqu’à arriver à saturation, sans qu’une politique territoriale concrète et réfléchie soit mise sur pied sur le long terme.

    A celles et ceux qui avanceront les arguments usuels de la situation du logement à Genève et de la hausse des arrivées de personnes en quête d’asile, nous rétorquerons inlassablement que les fluctuations des arrivées dans le domaine de l’asile sont par essence imprévisibles. Elles sont le reflet des désordres et des inégalités du monde, et l’actualité internationale ne permet malheureusement pas de prévoir une embellie prochaine de la situation.

    Dans ce contexte, l’absence de planification de solutions ces sept dernières années pour créer des places d’hébergement, mais aussi pour favoriser la sortie des foyers de celles et ceux qui ont un statut stable et ainsi libérer d’autres places, relève d’un manque d’anticipation extrêmement regrettable de la part des autorités. La situation n’est ni nouvelle, ni inattendue. Aujourd’hui, ce n’est pas seulement l’ouverture d’un abri PC qui se joue, mais bien la capacité d’accueil de notre canton sur le long terme.

    Genève ne peut pas se contenter d’ouvrir des abris PC à la moindre surcharge du système. S’il faut le répéter encore et toujours : les bunkers ne sont en aucun cas une solution, même de dernier recours.

    N’oublions pas que les conditions de vie y sont intenables : ils sont prévus pour des situations d’urgence et de courte durée, pas pour y héberger des êtres humains pendant une durée indéfinie. A ce titre, la Commission nationale de prévention de la torture répétait en 2024 : « Les installations souterraines sont problématiques en vertu des droits humains en raison du manque de lumière naturelle, de l’apport souvent insuffisant d’air frais et du manque de possibilités de retrait, et ceci même lorsqu’il n’existe pas d’autres possibilités d’hébergement. »[1]

    N’oublions pas la parole des personnes qui y étaient logées, il y a de cela plus de 10 ans : « Nous vivons sous terre, entassés, sans fenêtres, sans air, sans soleil […]. Nous avons de gros problèmes d’hygiène, de nourriture et de sommeil, qui altèrent gravement notre santé tant physique que psychique. […] La promiscuité nous expose sans cesse aux maladies et à la contagion, d’un simple rhume à la grippe intestinale en passant par la gale. Sans parler des punaises de lit. L’air est difficile à respirer. Nous souffrons de problèmes oculaires et de maladies de peau. […] La lumière est allumée 24 heures sur 24, nous empêchant de dormir. Tout comme le bruit, la ventilation, le fait que les lits soient connectés entre eux, les ronflements des uns et les cauchemars des autres. Nous n’avons aucune intimité. »[2]

    A celles et ceux qui argueront que seront hébergées uniquement des personnes déboutées, qui devraient de toute façon quitter le territoire, rappelons ici que la réalité est bien plus complexe. Bon nombre de personnes déboutées sont frappées d’une décision de non-entrée en matière (NEM), c’est-à-dire que leur demande de protection n’a pas été examinée sur le fond, autrement dit sur leurs motifs d’asile. Elles sont donc susceptibles d’obtenir une protection en Suisse et de rester sur territoire genevois. Par ailleurs, le statut d’une personne n’excuse en rien le traitement qui lui est fait.

    Pour toutes ces raisons, les associations de la Coordination asile.ge demandent :

    La fermeture des abris de protection civile.
    La mise sur pied d’une solution urgente de remplacement, digne et humaine en recourant à tous les lieux d’hébergement temporaires publics ou religieux qui peuvent être mobilisés.
    Un meilleur accompagnement dans la recherche de logements individuels pour les titulaires d’un statut de séjour (permis F, B et C).
    La mise en place d’une politique d’accueil et un plan d’action concret qui respectent la dignité humaine, indépendamment du statut administratif de la personne, et qui tiennent compte du besoin structurel sur le canton de nouvelles places d’hébergement dans le domaine de l’asile.

    [1] CNPT, Rapport de la CNPT au Secrétariat d’État aux migrations (SEM) sur ses visites dans les centres fédéraux d’asile (CFA) de la région d’asile Suisse romande de février à juin 2024, décembre 2024.

    [2] Extrait d’une lettre du collectif Stop bunkers adressée aux autorités genevoises, hiver 2014.

    Source : newsletter de la Coordination asile Genève, 08.12.2025
    –-

    #sous-sol #souterrain #asile #migrations #réfugiés #Suisse #bunkers #hébergement #déboutés #urgence #planification_du_territoire #aménagement_du_territoire

  • « Là, la cocotte explose » : le tracé « aberrant » du TGV Lyon-Bordeaux remet en lumière les territoires « oubliés » | franceinfo
    https://www.radiofrance.fr/franceinfo/podcasts/les-documents-franceinfo/la-la-cocotte-explose-le-trace-aberrant-du-tgv-lyon-bordeaux-remet-en-lu

    La ligne Ouigo remontera en région parisienne pour éviter le centre de la France. Il faut dire que, faute d’investissement, la ligne existante qui traverse le Massif central n’est pas en état d’être utilisée.

    L’annonce ne passe vraiment pas. En Creuse, les élus ne décolèrent pas après l’annonce du tracé de la SNCF pour la prochaine ligne Ouigo Lyon-Bordeaux. Au lieu de traverser la France d’ouest en est, elle remontera finalement jusqu’en région parisienne, contournant ainsi le Massif Central.

    "J’ai cru à une fake news parce que c’est tellement aberrant que je me suis dit qui a pu concevoir ce tracé ?" peste Marie-Françoise Fournier, la maire de Guéret. Aberrant car ce tracé fera 930 km tandis que la ligne directe, fermée en 2012, ne fait que 500 km. "Je crois que les habitants de nos territoires n’en peuvent plus d’être méprisés, d’être oubliés et que là, la cocotte explose" poursuit la maire.

    Une pétition a été lancée, les élus montent au créneau à l’Assemblée mais sans trop d‘espoir : il y a trois mois, la petite ligne Guéret-Felletin a fermé malgré leur mobilisation.

    “Le problème pour le Massif central c’est que le TGV n’est plus un service public, analyse sur franceinfo François Delétraz, président de la Fédération nationale des associations d’usagers des transports. Le TGV, c’est Ryanair, c’est EasyJet. C’est la même chose, il faut qu’il fasse de l’argent, et pour faire de l’argent, il faut qu’il passe par là où il y a du monde et là où il y a des voies."
    Des rails en mauvais état

    Et si la ligne qui passe par Limoges, Montluçon ou encore Roanne existe bien, elle est aujourd’hui désaffectée. “Et donc si on voulait la réouvrir, il faut passer par le processus très très long de réouverture de ligne, d’accord de la sécurité ferroviaire, etc.” explique François Delétraz qui souligne aussi le mauvais état des rails.

    D’autant qu’une partie de la ligne n’est pas électrifiée, ce qui empêche le TGV d’y circuler et ce qui prendrait des années. "C’est tout le problème d’aujourd’hui, c’est-à-dire que le TGV est une activité qui n’est plus subventionnée et qui doit être rentable, souligne François Delétraz. Et donc ils font de moins en moins de péréquations entre des lignes rentables et des lignes moins rentables.”

    "Quand ils étaient en situation de monopole, ils pouvaient faire ça facilement, mais aujourd’hui, comme ils ont de la concurrence qui arrive, ils ne peuvent plus, et ça va poser le problème de savoir qui va opérer demain toutes les lignes non rentables" tranche-t-il.

  • Découvrez les #Enquêtes_publiques et projets d’aménagements en cours en Bretagne en octobre 2025
    https://splann.org/enquetes-publiques-octobre-2025

    Chaque mois, « Splann ! » met en avant des #enquêtes_publiques programmées en Bretagne. Informez-vous sur les projets d’aménagement initiés près de chez vous et prévenez votre entourage. L’article Découvrez les enquêtes publiques et projets d’aménagements en cours en Bretagne en octobre 2025 est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #agriculture #aménagement_du_territoire #décarbonation #élevage_intensif #énergie #industrie #logement #méthanisation #photovoltaïsme #réserve_naturelle #station_d'épuration

  • Le #racisme d’élus locaux expose les #gens_du_voyage à la #pollution

    Les décisions d’#urbanisme sont le terreau de l’#injustice_environnementale dont sont victimes les gens du voyage. Publiée le 26 août dans la revue Nature Cities (https://www.nature.com/articles/s44284-025-00307-w), une analyse #statistique inédite prouve que les #aires_d’accueil des #Voyageurs, qu’on appelle communément « gens du voyage » (les communautés gitanes, manouches, etc.), sont plus exposées à la pollution que nul autre quartier résidentiel. Y compris ceux des autres ménages les plus défavorisés.

    « Les zones autour d’une aire ont trois fois plus de probabilité d’être à proximité d’une #déchetterie — à moins de 300 mètres —, et plus de deux fois plus de probabilité d’être à proximité d’une #station_d’épuration ou d’une #autoroute — à moins de 100 mètres, déclarent dans The Conversation les auteurs de l’étude (https://theconversation.com/pres-des-autoroutes-et-des-dechetteries-les-gens-du-voyage-face-aux). Elles ont aussi 30 % de risque supplémentaire d’être proches d’un #site_pollué et 40 % de probabilité en plus d’être à proximité d’une usine #Seveso — présentant un #risque_industriel. »

    De précédents travaux avaient déjà dévoilé le caractère systémique de la #discrimination_environnementale subie par ces communautés en France, notamment ceux du juriste #William_Acker, auteur de l’ouvrage Où sont les « gens du voyage » ? Inventaire critique des aires d’accueil.

    D’après cette nouvelle étude, la combinaison de deux mécanismes alimenterait ces inégalités : un processus de #réduction_des_coûts, et des stratégies d’#exclusion délibérées de la part des pouvoirs publics. Autrement dit, du racisme environnemental : « L’#antitziganisme est fortement ancré dans la société française, comme en témoignent de nombreux discours médiatiques ou politiques, soulignent les chercheurs. Il est alors possible que certains élus cherchent à placer les aires loin des quartiers résidentiels pour éviter les réactions hostiles. »

    https://reporterre.net/Le-racisme-d-elus-locaux-expose-les-gens-du-voyage-a-la-pollution
    #racisme_environnemental #aménagement_du_territoire

  • "We Love Car-Free School-Streets!". Until We Have to Make Them a Reality.

    It’s easy to get people to agree that our cities would be less polluted, more pleasant, and safer—for the elderly, for kids, for everyone—if we relied less on cars.

    It’s equally easy to get them to acknowledge that we should be encouraging children to get more exercise by walking or riding their bicycles to school.

    What’s hard—really hard—is to get anybody to do anything concrete about it. When it comes to removing parking, or closing streets to cars, lofty statements of good intentions too often vanish into the (increasingly smog- and smoke-filled) air.

    (#paywall)

    https://www.highspeed.blog/we-love-car-free-school-streets

    #car-free #voitures #écoles #écoles_sans_voitures #urbanisme #aménagement_du_territoire #villes #enfants #enfance #urban_matter

  • « On est un peu les sacrifiés de la Data City ! » : à Marseille, les data centers colonisent les quartiers populaires - L’Humanité
    https://www.humanite.fr/social-et-economie/numerique/on-est-un-peu-les-sacrifies-de-la-data-city-a-marseille-les-data-centers-co


    Les conflits de l’eau devraient être plus rapides.

    Le collectif cartographie les fermes de données marseillaises, mais mène aussi des actions d’éducation populaire, par le biais de balades organisées notamment. « Le data center est l’incarnation matérielle d’une certaine forme de capitalisme, poursuivent les militants. Il résume de nombreux enjeux contemporains : l’impérialisme américain, le technocapitalisme, l’extractivisme, la course à l’intelligence artificielle… »

    L’écolo Sébastien Barles, qui fut l’un des tout premiers à se mobiliser, ne dit pas autre chose : « À Marseille, c’est une forme de prédation à la fois foncière et énergétique, pour des retombées économiques très contestables. Un data center crée en moyenne dix fois moins d’emplois qu’une industrie manufacturière classique ! Pour des conflits d’usage en matière d’électricité qui sont évidents. »

    Au cours des dix prochaines années, l’ensemble des data centers de la région devraient avoir besoin de 1 200 MW d’électricité supplémentaires, selon les données officielles. Cela représente autant d’électricité qu’il en faudra pour décarboner toute l’industrie régionale et six fois plus que pour l’aménagement urbain et les hôpitaux. « Il est évident que nous aurons besoin de plus de puissance électrique, convient Sébastien Barles. Mais il faudrait réfléchir en termes d’utilité sociale : bien souvent, les data centers servent à alimenter l’essor des transactions financières, du bitcoin ou de la pub imposée. »

    • Enquête : à Marseille comme ailleurs, l’#accaparement du territoire par les infrastructures du numérique

      Depuis fin 2023, le collectif marseillais Le Nuage était sous nos pieds enquête, analyse et lutte contre les impacts sociaux, écologiques et politiques des infrastructures du numérique à Marseille, en particulier des câbles sous-marins et des data centers. Ce collectif est composé d’habitant·es de Marseille, affilié·es à au moins trois entités : le collectif des Gammares, collectif marseillais d’éducation populaire sur les enjeux de l’eau, Technopolice Marseille, qui analyse et lutte contre les technologies de surveillance policière et La Quadrature du Net, association de défense des libertés fondamentales dans l’environnement numérique. Dans cet article, nous restituons une partie de l’enquête menée par le collectif sur les infrastructures numériques à Marseille, leur impact socio-environnemental et le monde délétère qu’elles représentent, enquête que nous élargissons au delà du territoire marseillais, inspiré·es notamment par les échanges lors du festival « Le nuage était sous nos pieds » qui a eu lieu les 8, 9 et 10 novembre dernier à Marseille.

      Arrivent à Marseille aujourd’hui environ seize câbles sous-marins intercontinentaux qui atterrissent, transitent et relient l’Europe et la Méditerranée à l’Asie, au Moyen Orient, à l’Afrique, aux États-Unis. Ce sont ces câbles intercontinentaux qui permettent à l’information numérique de circuler, en particulier sur le réseau Internet, et aux services numériques déployés dans ce qu’on appelle « le cloud », d’apparaître sur nos écrans : mails, réseaux sociaux, vidéos et films en streaming. Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés en surchauffe renferment des milliers de serveurs qui rendent possible le technocapitalisme et ses données numériques invisibles : la collecte massive de données personnelles, servant à l’analyse de nos comportements constamment traqués et traités à des fins marketing, la publicité numérique qui pollue nos cerveaux, la vidéo-surveillance policière et plus largement la gouvernance et la surveillance algorithmiques dopées à l’intelligence artificielle qui discriminent et sapent nos libertés fondamentales. Derrière ces infrastructures, ce sont également l’accaparement des terres et des ressources en eau, mais aussi la pollution de l’air, la bétonisation de nos villes réchauffées, et les réalités tachées du sang de l’extractivisme numérique colonial que les puces des serveurs qui peuplent ces data centers renferment. Et ce sont encore une fois des industries peu scrupuleuses qui, aidées par des politiques honteuses, s’accaparent nos territoires et nos vies.

      Data centers et #câbles_sous-marins transcontinentaux

      La présence de ces 16 câbles sous-marins intercontinentaux attire à Marseille les gestionnaires de data centers, ces entrepôts géants où s’empilent des serveurs par milliers, appartenant en grande majorité à Google, Amazon, Microsoft, Meta, Netflix, Disney+, Capgemini, Thalès, etc. Des serveurs qui stockent et font transiter des données, des serveurs qui rendent possibles les services numériques et les échanges de données décrits plus haut. Depuis une dizaine d’années, et de façon accélérée depuis 2020, une douzaine de data centers ont été construits un peu partout dans Marseille intra muros, et plusieurs nouveaux sont en chantier ou annoncés dans la ville et aux alentours. On y trouve ainsi cinq data centers de Digital Realty, un géant américain d’investissement immobilier coté en bourse, spécialisé en gestion de data centers dits neutres ou de colocation. Cette entreprise construit, aménage et gère le fonctionnement du bâtiment, et loue ensuite les emplacements de serveurs à d’autres sociétés, telles Microsoft, Amazon, Google, Netflix ou d’autres. Ces data centers de colocation sont bien implantés en France, mais dans d’autres pays et territoires, Amazon, Microsoft, Google et autres géants du numérique construisent leurs propres bâtiments de data centers et toute l’infrastructure nécessaire à leur fonctionnement : postes électriques de transformation du courant, réseaux fibrés terrestres, câbles sous-marins transcontinentaux, etc.

      À Marseille, le géant Digital Realty, un des trois leaders mondiaux de data centers de colocation, possède quatre data centers MRS1, MRS2, MRS3, MRS4 et est en train d’en construire un cinquième, MRS5, tous sauf MRS1 situés dans l’enceinte du Grand Port Maritime de Marseille (GPMM). Les autres data centers marseillais sont souvent situés dans le nord de la ville. Dans le quartier de Saint-Henri notamment, où un data center de colocation de Free Pro est actuellement en cours d’agrandissement pour doubler de taille, se partageant l’espace avec un data center de Telehouse. Dans le quartier de Saint-André, un projet de data center surdimensionné de Segro viens d’être annoncé. Tandis qu’à la Belle-de-Mai un data center de Phocea DC est en construction. Il y a même eu un projet de data center flottant dans le Grand Port, par l’entreprise Nautilus ! Hors des limites municipales, à Bouc-Bel-Air, Digital Realty a également un projet de construction d’un sixième data center, bien plus grand que les précédents, baptisé MRS6.

      Marseille n’est pas la seule ville concernée. La France, avec ses plus de 300 data centers, se situe aujourd’hui au 6ème rang mondial des pays en accueillant le plus, après les États-Unis, l’Allemagne, le Royaume-Uni, la Chine et le Canada. En Île-de-France, premier territoire d’implantation française avec plus de 160 data centers en 2023, juste devant Lyon (18), puis Marseille (12), Digital Realty y possède 2 hubs d’un total de 17 data centers (et plusieurs autres en construction), concentrés pour la plupart en Seine-Saint-Denis. Equinix, autre géant du top 3 mondial des data centers de colocation en possède 10, tandis que Data4, Scaleway ou Free Pro, OVH, Telehouse, Verizon, Zayo et autres acteurs se partagent les 72 restants.

      Les seize câbles sous-marins intercontinentaux qui arrivent aujourd’hui à Marseille sont répertoriés par Telegeography, une entité qui maintient Submarine Cable Map, une des cartes mondiales de référence de ce type de câbles. Ils sont construits et déployés au sein de consortiums internationaux regroupant plusieurs entreprises et multinationales du numérique. On y retrouve en premier lieu les géants du numérique — Google, Facebook/Meta, Microsoft et Amazon — qui sont désormais les premiers financeurs et les acteurs principaux des projets de déploiement de ces câbles sous-marins intercontinentaux. On y retrouve également des entreprises de télécommunications telle que Orange, mais aussi des opérateurs internationaux, qui seront souvent en charge de l’atterrissement des câbles sur les plages, ainsi que des stations ou centres d’atterrissement de ces câbles, permettant la transition entre les infrastructures sous-marines et le réseau câblé terrestre. On y retrouve également des entreprises qui fabriquent et déploient ces câbles en mer, comme Alcatel Submarine Networks qui vient d’être racheté par l’État français, et qui est un des trois leaders mondiaux dans ce domaine avec TE SubCom (Suisse) et NEC Corporation (Japon).

      Mainmise des géants du numérique

      Ces câbles sous-marins et leurs centres d’atterrissements sont aujourd’hui des infrastructures stratégiques, avec des enjeux géopolitiques mondiaux importants, mais où la domination des géants numériques est, là aussi, en passe de devenir la norme. Ainsi à Marseille, la plupart des nouveaux câbles sous-marins construits ou en cours de construction ces dernières années ont pour principal acteur Facebook (2Africa), Google (Blue), et Microsoft (SeaMeWe-6). Parmi les opérateurs télécoms et fournisseurs d’accès à Internet du monde entier que la présence de câbles sous-marins intercontinentaux attire également à Marseille, on retrouve la multinationale française Orange, qui possède dans la ville au moins un data center pour ses propres besoins et plusieurs centres d’atterrissements de câbles sous-marins. On retrouve aussi Verizon, opérateur américain de télécommunications avec un data center couplé à un centre d’atterrissement de câbles sous-marins, Omantel, la compagnie nationale de télécommunications d’Oman qui en possède également un — pour ne citer que les opérateurs identifiés par le travail d’enquête et de cartographie des infrastructures numériques à Marseille réalisé par le collectif Le Nuage était sous nos pieds. Vous pouvez retrouver ce travail de cartographie mené sur le terrain, sur la carte libre et collaborative OpenStreetMap, et de façon condensée sur cette carte élaborée lors de cette enquête.

      On retrouve également à Marseille la présence de plusieurs Internet Exchange Points (IXP), ou points d’échange d’Internet, des infrastructures physiques où opérateurs télécom, fournisseurs d’accès à internet (FAI) mais aussi entreprises offrant leurs services numériques, se branchent et s’échangent du trafic sans coûts à travers des accords mutuels. Ainsi, comme l’explique Stéphane Bortzmeyer dans L’interconnexion pour les nuls, un client de Sfr qui envoie un mail via sa connexion gérée par son opérateur, donc via des infrastructures terrestres de Sfr, peut interagir avec d’autres clients que ceux de Sfr et même accéder à tout internet. Cette interconnexion, qui se fait essentiellement au sein des IXP, s’appelle aussi le « peering », et constitue, selon l’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse en France), « une relation technico-économique au fondement de l’Internet ». L’avantage des IXP réside dans le fait que ce sont des infrastructures souvent gérées de façon non commerciale et neutre, souvent par des structures associatives (comme FranceIX en France parmi d’autres) et qui permettent ainsi l’interconnexion des réseaux sans surcoûts, en optimisant les coûts d’échange, mais aussi la latence et la bande passante. Ces IXP sont très souvent localisés physiquement dans les data centers.

      Il y a au moins 6 points de présence IXP aujourd’hui à Marseille comme on peut le voir sur cette base de données européenne accessible librement. Les IXP marseillais semblent tous localisés dans les data centers de Digital Realty, et on peut voir pour chacun d’eux (onglet Points of Presence) la liste des acteurs numériques qui y sont branchés : TikTok, Google Cloud, Amazon Web Services, Disney+, Netflix, Zoom, la liste des géants habituels est longue. La proximité de ces IXP avec les câbles sous-marins transcontinentaux à Marseille permet une latence et une bande passante optimales, tandis que leur présence au sein même des data centers, au plus près des services numériques qui y exploitent l’espace, est également un argument commercial supplémentaire pour ces derniers. Au niveau national, Paris, avec sa douzaine d’IXP, est avec Marseille le territoire où se trouvent la plupart des IXP, devant Lyon et d’autres grandes métropoles. On trouve les emplacements et les spécificités des IXP dans le monde sur une carte maintenue par Telegeography.

      L’ensemble des câbles sous-marins intercontinentaux, les points d’échanges Internet et les data centers hébergeant les nombreux services numériques des entreprises dominantes mondiales du secteur font de Marseille le deuxième hub numérique français après Paris, et le 7ème au rang mondial, en passe dit-on de devenir le 5ème.
      Data centers : une implantation territoriale opportuniste et des politiques d’État accueillantes

      Partout dans le monde, l’implantation des data centers se fait de façon opportuniste, tirant avantage des spécificités de chaque territoire. Ainsi, à Marseille c’est la présence des câbles sous-marins de liaison Internet transcontinentales, ainsi que celle des grands acteurs des télécoms et des points d’échange Internet. Mais c’est également une opportunité foncière peu chère au sein du territoire du Grand Port Maritime de Marseille (GPMM), cet établissement public placé directement sous la tutelle de l’État, ayant des missions de service public administratif et de service public à caractère industriel et commercial. En réalité le GPMM est géré comme une entreprise, et ses dirigeants nommés directement par l’État, trouvent dans ces projets d’entrepôts de données numériques une opportunité de mutation lucrative pour son patrimoine immobilier, autrefois occupé par des activités portuaires en déclin. Comme aime à le souligner Christophe Castaner, président du conseil de surveillance du GPMM, le « French smartport de Marseille-Fos […] ouvre la voie au concept de hub maritime des données », et est un port entrepreneur qui « craint avant tout sa désindustrialisation ».

      En Île-de-France, l’implantation des data center se fait essentiellement dans le département de Seine-Saint Denis, en particulier à La Courneuve, Aubervilliers et Saint-Denis, membres de l’établissement public territorial de Plaine Commune, en charge de leur aménagement et développement économique, social et culturel. Autrefois territoire agricole alimentant les Halles de Paris, ces zones sont devenues progressivement industrielles dans les années 60 – 70, se désindustrialisant brutalement à partir des années 90. Les anciennes friches industrielles, à bas prix malgré leur proximité immédiate avec Paris, deviennent alors une opportunité foncière peu chère pour de nouvelles industries telle les data centers et les opérateurs télécoms qui s’y installent en masse depuis les années 2010. On retrouve donc là encore des dynamiques foncières et économiques, poussées par des politiques d’État, similaires à celles de Marseille.

      Mais de façon générale, comme aime le dire l’association France Datacenters, la plus grande association de lobbying en la matière, la France est « la destination idéale », une véritable « data centers nation ». En effet, détaille l’association dans cette vidéo promotionnelle, la France possède des secteurs économiques solides et diversifiés, tels ceux du numérique et des télécommunications, de la finance, de l’automobile ou de l’aéronautique, secteurs moteurs des data centers. Le gouvernement français a, poursuit-elle, lancé de nombreuses initiatives et des financements dédiés à la numérisation des industries (10 milliards dédiés au secteur numérique au cours des dernières années), permettant au secteur des data centers une croissance multipliée par deux entre 2016 et 2021, avec un milliard d’euros d’investissement annuel. Mais aussi et surtout, un foncier peu cher et facilement accessible, une énergie électrique à bas coût (la deuxième la moins chère en Europe, avec une moyenne de 84 euros le mégawattheure en 2020) et à faibles émissions carbone (car majoritairement nucléaire). L’infrastructure réseau de la France, avec son réseau fibré, sa 5G et ses câbles intercontinentaux, est également présentée comme un atout majeur à bas coût d’accès. L’infrastructure électrique française est présentée comme très développée et solide, ayant un coût de maintenance infrastructurelle gratuit pour les data centers, car maintenue par les entreprises publiques RTE et Enedis, qui ont promis un investissement de plus de 100 milliards d’euros d’ici 2035 sur cette infrastructure. Cette vidéo souligne de plus que les industries disposent en France de nombreux avantages fiscaux, et même de financements régionaux pour leur implantation.

      Le lobby des data centers de France peut en effet compter sur des politiques favorables. En 2018, l’Assemblée nationale a voté, sur proposition du député Bothorel, une aide fiscale pour les data centers, consistant à appliquer un tarif réduit à la taxe intérieure de consommation finale d’électricité (TICFE), d’ordinaire de 22,5 euros par mégawattheure (MWh), qui sera alors divisée par 2 pour les data centers, soit 12 euros par mégawattheure, au-delà du premier GWh consommé. En 2019, l’ancien ministre de l’économie Bruno Le Maire, lors de l’inauguration à Pantin d’un data center d’Equinix hébergeant, parmi des géants américains, Docaposte (groupe La Poste) et les serveurs de la SNCF, déclarait :

      Notre ambition c’est que la France soit la première terre d’accueil de data centers en Europe. […] L’installation sur le territoire national de data centers est une nécessité pour accélérer l’accès des entreprises aux outils de la transformation numérique et un enjeu de souveraineté pour maintenir sur le territoire national les données sensibles des entreprises.

      Deux ans plus tard, en 2021, le ministre, accompagné de Cédric O, alors secrétaire d’État chargé du numérique, lançait, dans le cadre du Plan « France Relance », la stratégie nationale d’accélération pour le Cloud :

      Doté de 1,8 milliard d’euros, dont 667 millions d’euros de financement public, 680 millions d’euros de cofinancements privés et 444 millions d’euros de financements européens, […] vise à renforcer le soutien à l’offre de la filière industrielle de cloud française et mise sur l’innovation et les atouts de l’écosystème français du Cloud, […] accélérant le [en gras dans le texte] passage à l’échelle des acteurs français sur les technologies critiques très demandées, telles le big data ou le travail collaboratif […]

      Ce plan a surtout servi les GAFAM et leur implantation plus profonde dans nos territoires. Ainsi, peu après, les français OVH et Dassault Systems concluent un partenariat avec les clouds de Google et Microsoft, que le gouvernement approuve sous couvert de leur localisation dans des data centers en France, pour accueillir des données sensibles. C’est ce qui permettra au Health Data Hub, ce projet de privatisation des données de santé des français, que nous dénoncions en 2021, de continuer à être hébergé par Microsoft en France jusqu’au moins en 2025, malgré de nombreuses contestations de la société civile et d’associations. Orange, quant à lui, a conclu dès 2020 un accord avec le cloud AWS d’Amazon pour « accélérer la transformation numérique des entreprises vers le cloud AWS ». Google, suite à l’annonce du plan stratégique cloud en 2021, déclare alors commencer son plan d’implantation en France, qui est désormais terminé avec succès. Plus récemment, sur le site de l’Élysée, on peut lire l’annonce du dernier plan d’investissement de Microsoft (4 milliards d’euros en France) pour étendre son infrastructure cloud dédiée à l’IA, « le plus important à ce jour dans le pays, pour soutenir la croissance française dans la nouvelle économie de l’intelligence artificielle » salué par Emmanuel Macron qui s’est déplacé pour l’occasion jusqu’au siège français de l’entreprise. On peut y lire :

      Microsoft a ainsi dévoilé l’extension de son infrastructure cloud et IA en France avec l’expansion de ses sites à Paris et Marseille qui doteront le pays d’une capacité allant jusqu’à 25 000 GPU de dernière génération d’ici fin 2025, et l’ouverture de nouveaux sites pour héberger des centres de données de nouvelle génération dans les agglomérations de Mulhouse et de Dunkerque.

      À Mulhouse, le data center dédié IA de Microsoft a déjà commencé à être construit à Petit-Landau, village de 800 habitants, qui possède ironiquement, la distinction de Commune Nature, pour ses « actions orientées vers la préservation de la biodiversité et l’amélioration de la qualité des eaux du bassin Rhin-Meuse ».

      Les data centers : ces mega-ordinateurs bétonnés en surchauffe aux multiples dangers environnementaux

      Un data center, infrastructure pilier de ce qu’on a appelé le « cloud », n’a rien de nuageux, de léger ou de vaporeux. Au contraire, ces grands entrepôts sont des bâtiments bétonnés de plusieurs étages, aux planchers et parois fortifiés, lourds et massifs, pour pouvoir supporter sans risques d’effondrement le poids conséquent des milliers de serveurs qu’ils abritent. Ces serveurs, qui tournent en permanence, utilisent de grandes quantités d’électricité. Ils sont dotés chacun de nombreuses puces et composants électroniques tels des processeurs et cartes graphiques, qui génèrent de la chaleur en quantité. Ces serveurs ont besoin, pour garder un fonctionnement optimal et éviter les pannes, de bénéficier d’une température d’air ambiant ne dépassant pas les 28 degrés Celsius. Bien souvent, par précaution, les data centers ne souhaitent pas dépasser les 23 – 25 degrés. C’est pourquoi ils sont toujours équipés de systèmes de climatisation et de refroidissement de la température ambiante. Il s’agit de systèmes classiques basés sur l’air climatisé par fluides frigorigènes, ou de circuits de refroidissement utilisant la fraîcheur de l’eau. Parfois les deux types de systèmes, par air conditionné et eau, cohabitent dans un data center.

      Les data centers consomment de grandes quantités d’électricité et d’eau. Pour satisfaire ces besoins, ils sont raccordés en France au réseau d’électricité national, et bien souvent aux circuit d’eaux potable de la ville ou des territoires sur lesquels ils se trouvent. C’est le cas par exemple de PAR08, le data center de Digital Realty à la Courneuve, dont le directeur France Fabrice Coquio, surfant lui aussi sur la vague du marketing olympique, aime dire qu’il a été très important à l’occasion des Jeux Olympiques de Paris 2024. Construit au sein d’un complexe de quatre data centers surnommé le « vaisseau spatial », avec une surface totale de 40 000 m² de salles machines (correspondant à 7 terrains de football) et 120 Megawatt de puissance électrique, ce data center est aujourd’hui le plus grand de France. Dans ce rapport de la Direction régionale de l’environnement, de l’aménagement et du logement (DREAL) d’Île-de-France, PAR08 est pointé du doigt pour son utilisation annuelle massive de 248 091 m3 d’eau, provenant directement du circuit d’eau potable de la ville de Saint-Denis, dans une zone sujette aux sécheresse répétées depuis 2003, comme le pointait cette étude de l’OCDE (Organisation de coopération et de développement économiques) en 2023 sur « la gestion du risque de raréfaction de la ressource en eau liée au changement climatique dans l’aire urbaine fonctionnelle de Paris ». Cette eau est utilisée par le data center pour son système de refroidissement adiabatique, mais aussi pour la vaporisation des espaces qui doivent garder une hygrométrie optimale. Outre le besoin excessif en eau, le rapport pointe le manque de plan d’aménagement de l’usage de l’eau en cas de crises de sécheresse, obligatoire dans de telles circonstances. Mais la priorité est encore une fois ici politique et économique, et non pas environnementale, ce data center ayant profité du contexte lié aux JOP 2024.

      Ces systèmes de refroidissement à eau sont désormais privilégiés par les constructeurs de data centers dans le monde entier. D’abord parce que les systèmes de refroidissement purement électriques, comme ceux qui opèrent par fluides frigorigènes, sont très énergivores et ont donc un coût économique important. Ensuite, parce que l’eau n’est pas une ressource qui rentre dans le calcul des impacts usuels des data centers sur l’environnement, celui-ci étant en général basé sur la consommation d’électricité et le Power Usage Effectiveness (PUE), ou indicateur d’efficacité énergétique.

      Parfois, ces systèmes de refroidissement, quand ils ne sont pas reliés au réseau d’eau potable du territoire les accueillant, captent directement l’eau potable de nappes phréatiques, de fleuves ou de lacs à proximité. C’est le cas par exemple du data center de Facebook situé sur la ville espagnole de Talaveira de la Reina, dans la région de Castilla-La Mancha en Espagne, que le collectif Tu Nube Seca Mi Rio (« Ton nuage assèche ma rivière ») dénonce, entre autre pour son utilisation de plus de 200 millions de litres d’eau par an, équivalent à la consommation de 4 181 habitant⋅es de la région. Il s’agît ici d’un data center dit « hyperscaler », aux grandes dimensions et capacités de stockage et de traitement des données, sans qu’il y ait un consensus sur la définition. D’une puissance de 248 Megawatt, étendu sur plus de 300 000 m2 de terrain, ce data center géant bénéficie d’un soutien politique national et local. Bien que la zone de son implantation connaisse un fort stress hydrique permanent depuis des décennies, d’abord de par sa situation géographique et son climat quasi désertique, et désormais par la crise environnementale qui l’aggrave, le coût du litre d’eau y est faible. Ici encore, l’implantation des data centers sur le territoire est régie par des impératifs avant tout économiques, et non par des critères sociaux ou environnementaux, car comme le déplore Aurora Gomez du collectif « Ces entreprises extérieures s’imposent et accaparent les ressources. C’est du technocolonialisme ! […] Les autorités restent sourdes à nos alertes et font semblant de ne pas nous voir. ».

      Pour assurer une électrification continue des serveurs, les data centers disposent d’une triple alimentation en énergie. En plus d’être raccordés au réseau électrique, ils disposent également de groupes électrogènes et de leurs cuves de fioul prêts à prendre la relève en cas de coupure d’électricité, et de batteries et autres accumulateurs d’énergie censés assurer les quelques secondes de passage entre réseau électrique et groupes électrogènes. L’ensemble de ces dispositifs (serveurs, refroidissement, cuves de fioul, batteries) est potentiellement dangereux pour l’environnement et les riverain·es : fluides frigorigènes qui sont susceptibles de polluer l’air en cas de fuites, mais aussi nuisances sonores, que ce soit à l’intérieur du bâtiment, du fait des milliers de serveurs qui tournent en permanence avec chacun plusieurs ventilateurs, mais aussi du bruit extérieur et des vibrations causées respectivement par les systèmes réfrigérants placés sur les toits ou par les sous-stations de transformations électriques et les systèmes de générateurs au fioul qui sont testés plusieurs heures par mois. Ces nuisances sonores sont réglementées en France, et les data centers classés ICPE sont toujours concernés et font l’objet d’obligations et de contrôles en la matière, et ont par le passé fait l’objet de plaintes de riverains.
      Une autre source de nuisances environnementales sont les cuves de fioul et les locaux à batteries lithium qui constituent des risques de pollution des nappes phréatiques pour le premier, et des risques d’incendies dans les deux cas. En particulier, les feux de ces batteries au lithium ne sont pas des feux ordinaires : ils sont bien plus difficiles à éteindre et ont une durée bien plus longue, comme l’explique cet article de Reporterre qui relate l’effort démultiplié des pompiers pour éteindre ce type de feu, ou comme l’illustre l’incendie récent d’un data center de Digital Realty à Singapour, lequel rappelle également l’incendie de deux data centers d’OVH à Strasbourg en 2021.

      C’est en raison de tous ces risques que les data centers sont le plus souvent qualifiés d’« Installation classée pour la protection de l’environnement » (ICPE). D’après le site du ministère de la Transition écologique, de l’Énergie, du Climat et de la Prévention des risques, ce label ICPE recense les établissements « susceptibles de créer des risques pour les tiers-riverains et/ou de provoquer des pollutions ou nuisances vis-à-vis de l’environnement ». Du fait de ce classement, les data centers sont réglementairement soumis à un certain nombre d’obligations et de contrôles de la part du ministère, entre autres à travers les services déconcentrés que sont les DREAL, Direction régionale de l’environnement, de l’aménagement et du logement, placées sous l’autorité du préfet de région et des préfets de départements.
      Data centers de Digital Realty : fuites répétées de gaz fluorés à fort potentiel de réchauffement climatique

      De nombreuses irrégularités ont été observées par les inspections de la DREAL de Provence-Alpes-Côte d’Azur s’agissant des data centers MRS2, MRS3 et MRS4 de Digital Realty à Marseille. Ces éléments passés sous les radars, révélés récemment par le journal indépendant Marsactu, sont pourtant documentés dans les rapports d’inspections consultables sur la base de données Géorisques.

      L’irrégularité la plus préoccupante concerne le data center MRS3 : depuis 2021, ce dernier fait l’objet de fuites répétées de gaz fluorés, ainsi rejetés dans l’atmosphère. Les services de l’inspection de la DREAL ont demandé à plusieurs reprises au géant américain de prendre les mesures nécessaires pour arrêter ces fuites. Faute de réaction, cela a abouti en octobre 2023, trois ans après les premiers constats de fuites, à une mise en demeure de la société Digital Realty (ex-Interxion) par un arrêté préfectoral n°2023-215-MED. Voici un extrait de cette mise en demeure (consultable en intégralité ici) :

      « Considérant que la société Interxion France [ancien nom de Digital Realty] est autorisée à exploiter un data center, dénommé MRS3, situé sur la commune de Marseille ;
      Considérant que lors de la visite du site en date du 3 mars 2023, l’inspecteur de l’environnement a constaté que les équipements ne sont pas équipés d’un dispositif de détection de fuite fonctionnel ;
      Considérant que ce constat constitue un manquement aux dispositions de l’article 5 du règlement européen n°517/2014 du 16 avril 2014 relatif aux gaz à effet de serre fluorés ;
      Considérant que lors de cette visite il a également été constaté que les dispositions prises par l’exploitant sont insuffisantes pour éviter la survenue de fuites récurrentes de gaz dans l’environnement depuis 2021, ce qui constitue un manquement aux dispositions de l’article 3.2 du Règlement européen n°517/2014 précité ;
      Considérant que les installations de production du froid du site MRS3 ont dû être rechargées, du fait de fuites, par 745 kg de fluide frigorigène R134A depuis 2021, ce qui correspond en équivalent CO2 à une distance de près de 9 millions de kilomètres effectuée avec un véhicule thermique sans malus ni bonus écologique (émissions de CO2 d’environ 120g/km) ;
      […]
      Considérant de plus que, compte tenu de l’absence de système de détection de fuite sur l’équipement, qui réglementairement alerte l’exploitant ou une société assurant l’entretien lorsqu’une fuite entraîne la perte d’au moins 10% de la charge de fluide contenu dans l’équipement, ne permettant pas à l’exploitant de mettre en œuvre les actions correctives limitant l’émission de gaz à effet de serre dans l’atmosphère, il convient d’imposer à l’exploitant les mesures nécessaires pour prévenir les dangers graves et imminents pour la santé, la sécurité publique ou l’environnement, conformément à l’article L.171-8 du code de l’environnement ; »

      Le fluide frigorigène R-134A dont il est ici question, autrement nommé HFC-134A, est un gaz fluoré qui contribue grandement à l’effet de serre, avec un Potentiel de Réchauffement Global sur 100 ans (PRG100 ou GWP100 en anglais) de 1430. Ces fluides frigorigènes fluorés et leurs effets sur l’environnement sont connus depuis les années 1990, puisqu’à l’époque ils ont été reconnus comme principale cause du trou et de l’amincissement de la couche d’ozone. Certains types de gaz frigorigènes, dont ceux responsables de ce trou, ont déjà été interdits à la circulation. D’autres, dont celui utilisé ici par MSR3, font aujourd’hui l’objet, après les conventions de Kyoto et de Paris sur le climat, de réglementations contraignantes de l’Union Européenne (régulations dites F-Gas I, II et III). Celles-ci visent à interdire progressivement mais entièrement d’ici 2030 ces gaz fluorés polluants, alors que de nouveaux types de gaz fluorés non polluants sans effet de serre sont déjà largement commercialisés depuis plusieurs années.

      En partant du calcul de la DREAL ci-dessus, qui fait correspondre ces fuites répétées depuis 2021 à un équivalent CO2 rejeté dans l’atmosphère de 9 millions de km effectués en voiture thermique, nous estimons que cela correspond également à (9M 0,120 kgCO2eq) 1 080 tonnes équivalent CO2 émises depuis 2021. Nous pourrions continuer les calculs d’équivalence et ramener cette quantité à l’émission par nombre d’habitants, par nombre de piscines au par nombre de vols Paris-New-York que cela représente. Mais ce qui nous préoccupe ici, c’est le fait que ce géant américain, tout en se permettant de polluer, multiplie les déclarations de greenwashing dans la presse, en bénéficiant de surcroît d’un climat politico-médiatique fait de louanges et de connivences de la part des préfets, élus de la ville et dirigeants de la région, alors même que les services de l’État alertent sur ces pollutions. Ainsi, la présidente de la métropole Aix-Marseille, Martine Vassal, adressait ses voeux de nouvelle année en janvier 2023 depuis MRS3, le data center mis en demeure peu de temps après. Plus récemment, l’adjoint au numérique responsable de la ville de Marseille, Christophe Hugon (Parti Pirate), accompagné de représentants du préfet de région, de la présidente de la métropole et du président de la Région Sud, tenaient pour leur part des discours élogieux à l’égard de Digital Realty, prenant la pose ensemble lors de l’évènement presse organisé par l’entreprise au palais du Pharo pour célébrer le dixième anniversaire de sa présence sur Marseille.

      Ces fuites de gaz fluoré ne sont pas les seules irrégularités constatées par les services de la DREAL au cours des différentes inspections portant sur les data centers de Digital Realty à Marseille. Le data center MRS2, à proximité immédiate de MRS3 et du futur MRS5, est ainsi à l’origine d’incidents de fuites de fluides frigorigènes fluorés qui n’ont pas été déclarées aux autorités, alors même que ces déclarations sont obligatoires au-delà d’une certaine quantité, comme le soulève le rapport d’inspection de la DREAL de mars 2023.

      Par négligence, Digital Realty est donc responsable d’émissions répétées de gaz à effet de serre. Cette négligence aggravée, voire cette faute intentionnelle compte tenu du fait que l’exploitant a été mis au courant dès 2021 et que ces fuites se sont répétées par la suite, devrait suffire à mettre un coup d’arrêt aux déploiements en cours de Digital Realty. Or, c’est le contraire qui se produit. A Marseille : le projet de construction du data center MRS5 vient d’obtenir un avis positif de la part des autorités environnementales, de la ville et de la préfecture, et même du commissaire en charge de l’enquête soi-disant publique, et ce malgré une trentaine d’avis négatifs d’associations d’habitantes et habitants, d’organisations environnementales telle France Nature Environnement, d’élues et du collectif Le nuage était sous nos pieds qui répondaient à cette enquête.

      Nous sommes d’autant plus interpelées par la lecture des rapports de la DREAL que, à travers la voix de son président en France Fabrice Coquio, Digital Realty se vante largement dans les médias, dans la presse spécialisée et dans les conférences techniques des industriels des data centers de l’exemplarité environnementale de MRS3 (le site mis en demeure) et de MRS4. À l’en croire, ces sites industriels seraient des modèles du genre en termes écologiques, des « data centers verts » grâce notamment au système de refroidissement dit « river cooling » dont ils sont dotés, mais qui n’a visiblement pas empêché cette pollution considérable par gaz fluorés. Qui plus est, cette pollution a été dissimulée par F. Coquio et les autres dirigeants de Digital Realty. Un « data center vert » aux 1080 tonnes de CO2 de pollution en gaz fluorés émis depuis trois ans par négligence intentionnelle, voilà la réalité que Digital Realty et les pouvoir politiques locaux, cachent et habillent de greenwashing.
      Le river-cooling : privatisation et accaparement de ressources en eau de qualité potable

      La « Galerie à la Mer », construite en 1905, permet d’évacuer le trop plein d’eau des anciennes mines de charbon de la ville voisine de Gardanne, située plus au Nord. Ce trop plein est versé dans la Méditerranée au niveau de Cap Pinède à Marseille. Gérée depuis 2007 par le Bureau de Recherches Géologiques et Minières (BRGM), l’autorité nationale de service géologique, la Galerie est composée d’une partie supérieure, utilisée pour évacuer les eaux d’exhaure (ferrugineuses) de l’ancienne mine vers la mer, et d’une partie inférieure, dite « cunette », qui permet de collecter et évacuer les eaux de ruissellement et d’infiltrations provenant du Massif de l’Étoile à proximité. D’après le document de conclusion à l’enquête publique en 2018, écrit par le commissaire enquêtaire en charge, l’eau de la cunette est une eau « de très bonne qualité » et de « qualité potable » pouvant donc servir à la population ou de réserve stratégique en cas de besoin, dans une région sujette aux sécheresses.

      En 2018, l’entreprise Digital Realty a obtenu de la Préfecture l’autorisation de détourner pour une durée de sept ans les eaux de la cunette de la Galerie à la Mer, afin de les récupérer pour refroidir son data center MRS3. Les eaux fraîches de cette cunette, qui sont à 15,5 degrés Celsius toute l’année, sont ainsi captées et injectées dans un circuit de refroidissement dans le data center, pour échanger leurs « frigories » contre des « calories » dans des « échangeurs thermiques ». Elles repartent ensuite, réchauffées à environ 27 degrés, dans la Galerie à la Mer, à destination de la Méditerranée au niveau de Cap Pinède. Ce système est appelé « river-cooling ».

      Tandis que le dirigeant en France de Digital Realty, Fabrice Coquio, proclame dans une vidéo promotionnelle, que le rejet d’eau chaude dans la Méditerranée « n’a aucun impact sur la faune et la flore », les conclusions de l’enquête publique précédemment citée, soulignaient dès 2018 des inquiétudes relatives aux effets du rejet de ces eaux chaudes dans le milieu marin, pointant notamment les « risques d’eutrophisation » (déséquilibre du milieu provoqué par l’augmentation de la concentration d’azote et de phosphore) entraînée par les rejets d’eau rechauffée de la Galerie à la mer, risques accrus en période estivale. Mais, d’après l’enquête, bien d’autres impacts sont méconnus à ce jour, comme par exemple « l’éventuelle prolifération des algues filamenteuses ». Il faut par ailleurs noter que ce rapport se basait sur des estimations proposées par Digital Realty à 23,4 degrés, et non pas les 27 degrés effectivement constatées depuis la mise en place du système. Malgré ces alertes, le river cooling d’abord mis en place pour MRS2 et MRS3, n’a pas été mis en pause, mais au contraire étendu aux data centers MRS4 et MRS5. La question des eaux réchauffées par ces data centers et renvoyées dans le milieu marin, dans un contexte où le réchauffement des mers entraîne des taux de mortalité importants dans les communautés biotiques sous marines, n’est pas prise en compte. Aucun suivi ni mesures sérieuses des effets de ce rejet ne sont aujourd’hui publiées, d’après les collectifs locaux tels le collectif des Gammares ou l’association des habitants du 16ème arrondissement dont nous parlerons plus bas, directement concernés par ces enjeux.

      Ainsi, dès 2018, lors de l’enquête publique relative à la construction du river cooling pour MRS3, plusieurs communes se situant sur le tracé de la Galerie à la Mer entre Gardanne et Marseille avaient émis des réserves sur l’accaparement de l’eau publique par une entreprise et proposé d’autres usages pour ces eaux. Les conclusions de l’enquête allaient même dans ce sens, pointant que l’eau potable devait en premier lieu servir l’intérêt général. La commune de Septème-les-Vallons demandait par exemple que soit priorisée la possibilité de pomper une partie des eaux potables de la Galerie à la Mer pour le soutien de l’activité agricole et de la biodiversité et pour le déploiement de dispositifs de prévention des incendies (DFCI). La ville de Mimet demandait aussi à pouvoir utiliser cette réserve d’eau douce. Le collectif des Gammares à Marseille, qui analyse en profondeur les enjeux de l’eau à Marseille, pointe ainsi ces enjeux en septembre 2024, dans sa réponse à l’enquête publique sur la construction de MRS5, qui utilisera lui aussi le river cooling :

      « Alors que les hydrologues enjoignent à la sobriété et régénération des cycles naturels de l’eau, le choix de refroidir les data centers pour que des géants du numérique puissent louer des espaces pour leurs serveurs ne nous parait pas d’intérêt général.
      Dans un contexte d’accroissement des épisodes climatiques extrêmes ayant pour cause le réchauffement climatique, où les sécheresses s’intensifient et se produisent de plus en plus régulièrement en Région Sud et ailleurs, mettant en cause l’approvisionnement en eau potable ou à usage agro-alimentaire, il serait urgent à ce que soient systématisées et publiées toutes les enquêtes portant sur cette ressource commune qui est l’eau et nous considérons que les eaux doivent être autant que possible allouées à des usages d’utilité publique ou pour les milieux qui en ont besoin. ».

      Détourner des eaux fraiches de qualité potable pour refroidir gratuitement ses data centers et rejeter de l’eau réchauffée en mer : voici donc le river cooling de Digital Realty à Marseille.
      Le river cooling : du greenwashing mensonger financé par de l’argent public

      Ce river cooling est devenu un argument phare de la communication de Digital Realty, en France et dans le monde entier. Dans la presse généraliste il est présenté comme une « solution innovante verte minimisant l’impact écologique » de l’entreprise. Dans la presse spécialisée, Digital Realty se vante d’utiliser de l’eau gratuite d’une installation publique. Ce n’est pas uniquement l’eau qui est gratuite pour l’entreprise. L’État français a financé en partie les travaux de détournement des eaux de la Galerie à la Mer vers les data centers de Digital Realty, à travers deux subventions publiques. Sur un total d’à peu près 15 millions d’euros d’investissements, la Région Sud a ainsi apporté 800 000 euros, tandis que l’Agence publique de la transition écologique, l’ADEME, a subventionné le projet à hauteur d’1,9 millions d’euros au nom du fond de « décarbonation de nos industries ».

      Dans le dossier de maîtrise d’ouvrage inclus dans les conclusions du commisaire rapporteur, déposé en 2018 par Digital Realty, on peut lire que le système de « river cooling » permettrait de réduire de 90% la consommation d’électricité destinée au seul refroidissement de ses data centers marseillais. En septembre 2024 son dirigeant Fabrice Coquio parle d’une réduction de 30% de la consommation totale d’électricité de l’ensemble des data centers à « river cooling » grâce à ce système. Or, pour son prochain data center en construction MRS5, selon les chiffres donnés par l’entreprise lors de l’enquête publique du projet, on constate que le « river cooling » permettra de réduire de seulement 4,33% la consommation totale en électricité (calcul d’après les données page 107 : (241 133 856 kWh – 230 695 705 kWh) / 241 133 856 kWh 100). En effet, la dépense d’énergie la plus importante d’un data center se situe au niveau des serveurs. Ces derniers occupent 79 à 83 % de l’énergie totale du data center MRS5 d’après l’entreprise (page 107 du dossier précité).

      La dépense énergétique de ces data centers qui s’agrandissent et s’étendent sans cesse, malgré des optimisations à la marge via des méthodes comme le « river cooling » est globalement nettement en hausse, et c’est là une tendance globale. Ces optimisations sporadiques, baissent les coûts pour l’entreprise tout en lui permettant de garder un potentiel commercial constant ou grandissant, et sont donc intéressantes pour elles, mais se font toujours et encore à travers l’accaparement de nouvelles ressources qui peuvent servir les habitantes et habitants.

      La communication de Digital Realty laisse également entendre que le « river cooling » serait l’unique système de refroidissement des data centers. Ce qui s’avère faux à la lecture de ce rapport. Ce système ne remplace pas les systèmes de refroidissement par air conditionné à fluides frigorigènes, qui causent les fuites de gaz fluorés mentionnées plus haut dans l’article, mais vient s’y ajouter. Le refroidissement des data centers de l’entreprise à Marseille ne se fait qu’en petite partie par « river cooling ». Mais le plus grave dans la communication mensongère du dirigeant de Digital Realty est le fait qu’il prétend que l’eau utilisée pour le river cooling serait de l’eau sale provenant des mines de Gardanne, comme il le répète dans les médias et la vidéo promotionnelle avec Jamy citée plus haut. C’est faux, comme le montre d’ailleurs, cette vidéo d’Interxion (ancien nom de Digital Realty) trouvée sur un compte Viméo d’une employée de l’entreprise, vidéo qui explique bien la construction du river-cooling et son utilisation de l’eau de la nappe phréatique récoltée dans la cunette.

      De l’argent public utilisé pour financer les data centers d’un géant américain côté en bourse, utilisant une ressource commune précieuse, l’eau de qualité potable, tout en rejetant des gaz fluorés à fort impact de réchauffement climatique, voilà la réalité des data centers de Digital Realty aujourd’hui à Marseille. Le plus ironique est que c’est précisément ce river cooling que l’Etat a aidé à financer, qui sert aujourd’hui d’argument de greenwashing médiatique mondial à cette entreprise.

      Accaparement de l’énergie électrique au détriment de projets d’intérêt commun à urgence environnementale

      Bien que l’électricité, majoritairement issue de la filière nucléaire, soit présentée comme « verte » en France, elle est bas carbone, mais pas neutre en carbone. En effet, l’intensité carbone de l’électricité en France est de 32 gCO2eq par kilowatt-heure d’après le gestionnaire du réseau de transport d’électricité en France RTE. Nous n’allons pas ici calculer les émissions CO2 dues à l’utilisation massive d’énergie électrique par l’ensemble des data centers marseillais. Nous n’avons aucun doute quant au fait que cette consommation est considérable, et qu’elle est également grandissante. En effet, nous constatons partout en France et dans le monde une tendance au lancement de projets de data centers de plus en plus grands et de plus en plus énergivores. Les data centers de type « hyperscaler » se multiplient partout, et les prévisions ne vont qu’en augmentant avec l’arrivée de l’Intelligence Artificielle, qui crée un effet de passage à l’échelle multiple. En effet l’Intelligence Artificielle demande des serveurs dotés de puces dédiées et de cartes graphiques puissantes, consommant plus, chauffant plus, nécessitant des systèmes de refroidissements dédiés, modifiant en profondeur les bâtiments et la globalité de la structure d’un data center. Ce qui nous intéresse ici ce sont les effets systémiques de ces infrastructures et de ce numérique qu’on nous impose, les effets rebonds qu’ils génèrent sans cesse et qui ne sont jamais débattus.

      Les data centers de Digital Realty à Marseille utilisent l’énergie électrique disponible que les deux gestionnaires de réseau et de transport énergétiques nationaux, RTE et Enedis, sont en capacité d’acheminer à Marseille, avec les infrastructures électriques actuelles. Plutôt qu’une simple « utilisation », il s’agit d’un véritable accaparement. Car l’énergie électrique nécessaire à ces data centers est captée au détriment de projets d’intérêt commun à urgence environnementale de la ville. Dans leur rapport « L’impact spatial et énergétique des data centers sur les territoires » les chercheuses Fanny Lopez et Cécile Diguet notaient un premier conflit d’usage en 2012, au détriment de l’électrification des bus municipaux à Marseille (p. 62) :

      « Pour Brigitte Loubet, conseillère spéciale chaleur de la DRIEE, comme pour Fabienne Dupuy, adjointe
      au Directeur territorial Enedis en Seine-Saint-Denis, les demandes des data centers peuvent être
      bloquantes pour les territoires. La commande d’électricité se résumant à : premier arrivé / premier servi,
      des files d’attentes se constituent sur différents sites. […] C’est l’exemple de Marseille, où le maire Jean-Claude Gaudin a dû négocier avec Interxion pour récupérer 7 MW « parce qu’ils avaient oublié de les
      réserver pour leurs bus électriques » » .

      C’est à nouveau le cas aujourd’hui pour l’électrification des quais au Grand Port Maritime de Marseille, électrification qui permettrait aux nombreux navires de croisière, ferrys de lignes reliant la ville à la Corse ou à d’autres villes de Méditerranée, et au Chantier Naval de Marseille de se brancher électriquement lors de leurs escales, évitant ainsi le rejet dans l’atmosphère d’une pollution considérable due à la combustion de fioul. Cette pollution aux oxydes d’azote (NOx) et autres particules nocives a des effets immédiats sur la santé des habitantes et habitants les plus proches, mais aussi sur l’ensemble des habitant⋅es de la ville, ville où l’on comptabilise tous les ans environ 2 500 morts de pollution d’après les autorités de santé. Cette électrification en plusieurs étapes, entamée depuis de longues années, est insuffisante pour accueillir la croissance du flux estival des bateaux, Marseille étant devenue une ville où le tourisme pollueur par croisières n’a de cesse d’augmenter comme le constate et déplore l’association Stop Croisières.

      De surcroît, cette électrification est sans cesse repoussée ou ralentie. Lors de sa réponse à l’enquête publique en vue de la construction de MRS5, la fédération des Comités d’intérêts de Quartier du 16ème arrondissement de Marseille qui regroupe les associations des habitantes et habitants, demandant un arrêt de la construction de tous les data centers de la ville, écrit :

      « […] les riverains sont confrontés aux pollutions atmosphériques des navires et aux nuisances sonores des activités portuaires. Le directeur général adjoint du GPMM a estimé la puissance électrique encore nécessaire aux activités du port et à l’électrification des quais à 100 à 120 MW. […] La puissance totale des data centers actuels s’élève à 77 MW, […] la puissance totale des data centers programmés est de 107 MW. Les data centers de Digital Realty situés dans l’enceinte du GPMM sont alimentés par le poste source de Saumaty, situé dans quartier de Saint-André. Le futur data center de Segro situé à Saint André sera lui alimenté par le poste source de Septèmes-les-Vallons situé à 11 km. Le poste source de Saumaty serait-il saturé ? … L’electrification des quais du Chantier Naval de Marseille dans le GPMM est repoussée à 2029. Les data centers seraient-ils servis avant le GPMM ? ».

      Ce conflit d’usage d’électricité entre data centers et électrification des quais de navires, c’est la mairie elle-même qui le constate dans sa délibération au conseil municipal d’octobre 2023, votant également la constitution d’une commission régulatoire sur les data centers. Cette commission semble parfaitement insuffisante. C’est également ce que pointe Sébastien Barles, adjoint en charge de la transition écologique de la ville de Marseille. Ce dernier demandait un moratoire sur les data centers de la ville, moratoire qui a été écarté, alors qu’il constitue une étape indispensable pour avancer vers un début de maîtrise de ces infrastructures en pleine expansion. Par ailleurs, peu de choses sont aujourd’hui révélées par la mairie autour de cette commission régulatoire de la ville — dont feraient partie, autres autres, le dirigeant de Digital Realty et l’adjoint du Parti Pirate élogieux à son égard, Christophe Hugon. Ce manque de transparence n’est pas nouveau, la mairie de Marseille et en particulier C. Hugon, adjoint également à la transparence et l’Open Data de la ville, ayant déjà été pointé du doigt dans notre campagne Technopolice, pour son hypocrisie politique mais aussi pour son manque de transparence et son défaut de réponse aux demandes d’accès aux documents administratifs, qui sont pourtant un droit et une obligation constitutionnelle.
      Îlots de chaleurs urbains

      Ces data centers qui s’accumulent sur le territoire de Marseille sont de véritables « grille-pains en surchauffe » pour reprendre les termes de Laurent Lhardit, adjoint à la mairie de Marseille en charge du dynamisme économique, de lʼemploi et du tourisme durable.

      En effet, les lois de la thermodynamique font que la chaleur qu’on évacue des serveurs de ces data centers ne disparaît pas, mais se retrouve rejetée dans l’air entourant les bâtiments, dans les nuages, les vrais, ou dans l’eau de mer réchauffée par le river cooling. Dans une ville au climat chaud comme Marseille, sujette à des épisodes caniculaires de plus en plus nombreux, il est inquiétant de continuer à ignorer ce problème qui devient vital. Les scientifiques alertent déjà sur les effets que ces pics de chaleur répétés ont sur la vie humaine, et sur le fait qu’à plus ou moins court terme, des régions entières de notre planète et de l’Europe deviendront progressivement inhabitables en raison de cette chaleur insoutenable (voir par exemple cet atlas de prévisions des chaleurs mortelles à venir dans le monde).

      Il est grand temps de penser l’urbanisme en priorisant les espaces verts, avec des végétaux qui rafraîchissent et créent de l’ombre pour rendre les villes plus habitables, moins nocives pour la santé, plus soutenables face aux changements environnementaux en cours.

      Récupération de « chaleur fatale » ou comment faire perdurer le statu quo écocidaire

      L’utilisation de la « chaleur fatale » consiste en la récupération de la chaleur émise par les data centers, qui deviendraient alors, dans un idéal d’économie circulaire technomagique, des sortes de chaudières numériques capables de chauffer des immeubles ou des piscines olympiques. En réalité, ces projets de récupération de chaleur dite « fatale » (parce qu’elle est inévitable), ne sont pas toujours efficaces ni même possibles. Pour que cela fonctionne, il faudrait que la récupération de chaleur se fasse au plus près de la source, donc du data center, car plus la distance augmente, plus les pertes seront significatives. Mais compte tenu du bruit et des autres nuisances atmosphériques générées par un data center, réchauffer des immeubles habités ne semble pas très attrayant. Sans considérer le fait que, dans des villes aux climats chauds comme Marseille, la chaleur récupérée ne serait utile que peu de mois dans l’année, la chaleur dégagée par ces data centers devenant problématique la majorité du temps. Ainsi, un rapport de l’Uptime Insitute concluait en 2023 que les cas où cela peut être efficace sont rares, non systématiques, situés dans des zones de climat froid, et peuvent même parfois être contre-productifs (traduit de l’anglais) :

      La possibilité de réutiliser la chaleur résiduelle des centres de données est généralement limitée aux climats plus froids et peut nécessiter des connexions à des systèmes de chauffage urbain ou à des sites de fabrication. La disponibilité de ces connexions et/ou installations est fortement concentrée en Europe du Nord. La configuration d’une installation pour la réutilisation de la chaleur perdue augmente souvent la consommation d’énergie (puisque des pompes à chaleur sont nécessaires pour augmenter la température de la chaleur sortante), mais peut réduire les émissions globales de carbone en réduisant l’énergie qui serait autrement nécessaire pour le chauffage.

      Mais le vrai problème, encore une fois, n’est pas technique. Ces systèmes étant coûteux et n’ayant aucun intêrét commercial pour les data centers, ces derniers préfèrent largement y échapper, ou alors promettre constamment qu’ils les mettront en place dans un futur proche. C’est exactement ce que le lobby France Datacenter s’est employé à faire en 2022, comme le montre le registre obligatoire de déclaration de leurs acivités de lobbying auprès de la Haute Autorité pour la Transparence de la Vie Publique (HATVP), où nous pouvons lire, parmi d’autres actions de diminution de taxation ou d’échappement à des obligations de pollueurs :

      Liste des fiches d’activités
      […]
      Retirer un amendement au projet de loi énergies renouvelables visant à rendre obligatoire la réutilisation de chaleur fatale.

      Cette activité a été un succès, l’amendement rendant obligatoire la récupération de chaleur fatale a été retiré du projet de loi énergies renouvelables, au profit de « mesures incitatives » qui ont consisté, depuis 2015 au moins, à faire financer par des fonds publics, via notamment l’ADEME, les travaux de récupération de chaleur fatale qu’un data center aurait l’amabilité d’entreprendre. Les quelques cas existants servent, comme dans le cas du « river cooling », de greenwashing monté en exemple et surpublicisé. Mais cela permet aux industriels de continuer à profiter des territoires sans limites, en faisant croire que des solutions technomagiques sont possibles, tout en s’employant à repousser les obligations réglementaires qui les contraindraient à les mettre en place. Les États, quant à eux, sont tout entiers à leur service.
      Une croissance exponentielle, un extractivisme colonial sanglant

      Si l’ensemble des data centers de Digital Realty à Marseille, MRS1 à MRS5, ont une puissance électrique maximale de 98 Megawatt (16+16+24+20+22), le prochain data center de Digital Realty à Bouc-Bel-Air, MRS6, aura une capacité de 50 mégawatts à lui tout seul. Celui de PAR08 à la Courneuve, le plus grand actuellement en France, toujours de Digital Realty, a une capacité de 120 MW. Celui qui doit être construit à Dugny, en Seine-Saint Denis, toujours par Digital Realty et qui sera le futur plus grand data center de France, aura une capacité de 200 mégawatts, soit l’équivalent de 20% de la puissance d’un réacteur nucléaire EPR. L’empreinte du numérique était estimée à 2,5% de l’empreinte carbone annuelle de la France en 2020, et les data centers représentaient environ 16% de cette empreinte carbone totale du numérique selon l’Ademe et l’Arcep. Cette empreinte du numérique devrait doubler d’ici 2040 et les data centers pourraient y jouer un rôle majeur selon un avis d’expert de l’Ademe en octobre 2024.

      À l’échelle mondiale, les data centers hyperscales constituaient déjà en 2022, 37% de la capacité mondiale des data centers, et devraient en représenter 50% en 2027, cette part augmentant régulièrement. D’autre part, le besoin en eau de ces « hyperscales » augmente régulièrement. Sous la pression des pouvoirs publics en 2023, Google révélait que ses centres de données, aux Etats-Unis uniquement, utilisaient plus de 16 milliards de litres d’eau par an pour leur refroidissement. On apprenait également récemment que ses émissions de CO2 ont grimpé de 48% au cours des 5 dernières années et son usage en eau devrait augmenter de 20% encore d’ici 2030. Microsoft, quant à lui, a vu l’utilisation en eau de ses data centers augmenter de 34% en 2022 seulement, à cause de son usage de l’IA, et on peut voir la pléthore d’annonces d’investissements dans la construction de nouveaux data centers dédiés à l’IA, qui laisse présager une croissance à venir encore plus forte et inquiétante.

      Mais ces calculs institutionnels ou provenant des géants numériques, purement basés sur l’énergie électrique et son empreinte carbone, et parfois sur la consommation d’eau pour le refroidissement, ne prennent pas en compte la totalité des conflits et des accaparements de vies et de ressources vitales que ce numérique cause pour exister et s’accroître. En commençant par la phase d’extraction des nombreux minéraux qui composent les puces des processeurs et des cartes graphiques que ces data centers renferment par milliers. Génération Lumière, une association écologiste qui agit à la fois en France et en République démocratique du Congo (RdC), dénonce depuis des années un extractivisme sans scrupules de minéraux stratégiques pour nos industries numériques. En effet, la RdC renferme 70 % du cobalt mondial, utilisé pour fabriquer les batteries lithium de nos voitures électriques, de nos smartphones, et des data centers. La RdC est aussi une terre d’extraction de coltan, de cuivre, d’or, des minéraux utilisés pour les puces électroniques. Et cette extraction qui sert les industries numériques ainsi que les géants tels Apple, Nvidia (fabricant de puces graphiques) et désormais même Google, Amazon et Microsoft, est démultipliée par l’arrivée de l’IA, qui s’insère partout dans les appareils et les serveurs. Or, cette extraction se fait, comme le dit Génération Lumière, « avec notre sang », et crée en République démocratique du Congo, outre les prob lèmes dus au minage lui-même qui se fait dans des conditions inhumaines d’exploitation des travailleurs, de nombreux conflits et massacres sur le territoire.

      Ces calculs institutionnels laissent également de côté, ou ignorent à dessein, les enjeux de la fabrication des puces électroniques, de la purification des minéraux posés sur les wafers, sortes de galettes de silicium, jusqu’à leur devenir puces. L’association StopMicro, qui lutte contre l’accaparement des ressources et les nuisances causées par les industries grenobloises, et en particulier celles de la microélectronique de Soitec et de STMicroelectronics, nous rappelle ainsi que : « Derrière le dérèglement climatique et les injustices socio-environnementales, il y a des décisions politiques, des entreprises et des intérêts économiques qui conditionnent nos choix de société ». Dans ses nombreuses brochures d’analyses et dans le livre « Toujours puce » qu’elle vient de publier, l’association mène une enquête technique, sociale, politique et environnementale poussée, à la place des pouvoirs publics pourtant chargés de le faire. En prenant l’exemple de son territoire, elle explique comment on s’accapare et pollue de l’eau potable pour fabriquer des gourdes connectées avec les puces de STMicroelectronics ou Soitec, quand ce n’est pas pour équiper des armes qu’on exporte au service des guerres coloniales en cours.

      Ce numérique n’est pas le nôtre

      En regardant la liste des principaux clients de Digital Realty, nous retrouvons en masse des acteurs aux pratiques numériques contestables vis à vis des droits fondamentaux et des réglementations en vigueur. Fabrice Coquio, président de Digital Realty France, déclarait il y a peu « Sans nous, il n’y a pas d’Internet », avant de lister une bonne partie des clients de ses data centers marseillais : Facebook, Amazon, Microsoft, Netflix, Disney+, Zoom, Oracle, Youtube… Le data center MRS3, où se sont produits des rejets répétés de gaz fluorés hautement polluants, abrite en son sein les services « cloud » de Microsoft déployés dans les mairies, écoles, collèges, lycées et universités publiques, forçant tout élève dès son plus jeune âge à la création de comptes Microsoft sans grand moyen de s’y opposer.
      Sticker « Le nuage était sous nos pieds » collé sur un poteau. Photo prise lors de la balade du festival Le Nuage était sous nos pieds le 9 novembre 2024. Autocollant fabriqué lors d’un atelier organisé par le hackerspace transféministe Fluidspace à Marseille.

      Comme en atteste également le travail de La Quadrature du Net depuis ses débuts il y a plus de 15 ans, à travers notamment sa campagne d’actions de groupe contre les GAFAM, ces acteurs ont monopolisé et fait d’Internet un espace commercial géant, où règnent les violences faites aux communautés minoritaires et les discriminations en tout genre. Ces acteurs, qui utilisent en toute illégalité et immoralité nos données personnelles pour nous imposer de la publicité, polluent nos espaces en ligne et nos cerveaux, et s’accaparent notre attention à coup d’algorithmes jouant sur nos biais cognitifs et visant à susciter des dépendances psychologiques. Cette publicité est aujourd’hui coupable à son tour de l’aggravation de la crise environnementale, de par la surconsommation et le modèle insoutenable qu’elle engendre et qu’elle alimente en permanence. Couplée à l’obsolescence marketée et organisée sur tout objet de consommation, qu’il soit numérique ou non, aidée et rendue possible par les infrastructures industrielles numériques polluantes, cette publicité que les GAFAM et les géants numériques contrôlent en grande majorité est une des causes majeures de l’aggravation de la crise socio-environnementale et systémique en cours.

      L’argent public que l’État met si facilement dans les mains de tels industriels pollueurs, comme l’illustrent le fond de « décarbonation de nos industries » mentionné plus haut de même que les différents contrats publics conclus avec ces géants numériques, est ainsi distribué au détriment de projets publics à intérêt commun telle l’électrification des équipements publics, la constitution de réserves d’eau, ou encore l’air que nous respirons et la ville où nous habitons. Ces projets d’intérêt général, parfois littéralement vitaux, sont laissés de côté car la priorité est constamment donnée à la croissance numérique, qui passe par l’installation croissante de data centers et d’autres types d’infrastructures numériques.
      Ce monde-là n’est pas le nôtre

      Ce numérique de la domination, dont les câbles et les data centers sont la colonne vertébrale, imposé par la vision hégémonique de la Silicon Valley et par des politiques étatiques complices de géants sans scrupules, n’est pas le nôtre.

      Cet Internet qui reproduit les dynamiques coloniales et qui repose sur l’accaparement des ressources du sol, des minerais, de l’eau, de nos territoires, mais aussi de nos corps et espaces mentaux, structuré autour de la collecte massive de données sur nos vies, source infinie de pouvoir et de profit, n’est pas le nôtre. Ce numérique qui renforce les dominations et les inégalités, fondé sur la normativité de nos comportements, sur la police prédictive et la prise de décisions automatisées, destiné à nous contrôler et à nous surveiller, pour mieux réprimer notre colère légitime, n’est pas le nôtre. Ce numérique responsable à son tour de la crise socio-environnementale sans précédent qui nous traverse, n’est pas le nôtre et nous devons le refusons.

      Notre monde à nous est un monde de soin, soin pour soi-même, pour les unes et les autres, et pour la Terre. Notre monde numérique à nous est celui d’un autre numérique, qui nous aide à nous protéger de la surveillance et des oppressions, qui nous aide à porter des savoirs communs et d’entraide, qui nous permet de hacker, bidouiller et créer des outils, des serveurs alternatifs, des réseaux décentralisés, pour mieux s’organiser et lutter pour que d’autres mondes soient possibles.

      https://www.laquadrature.net/2024/11/20/accaparement-du-territoire-par-les-infrastructures-du-numerique

    • Le nuage était sous nos pieds

      On a cru pendant longtemps que les données volaient dans les airs. Des grappes de bits dans l’éther du « cloud » qui, imperceptiblement, se faisaient mail ou vidéo une fois l’ordinateur allumé. Et puis on a regardé sous nos pieds. La plaque en fonte Pont-à-Mousson. La trappe dans le goudron, nommée « regard », estampillée « télécom », où se lovent les câbles qui transmettent les informations à l’échelle mondiale. Un fil dont l’âme est de verre et qui transmet les données à la vitesse de la lumière. Sous nos pieds, la prolongation terrestre de grands câbles sous-marins, autoroutes qui relient et contournent les continents. Sur nos plages, leurs chambres d’atterrissement.

      Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés renferment des milliers de serveurs qui rendent possible le technocapitalisme : le trading à haute fréquence, la publicité et le pistage de données personnelles, la smart-city, l’agriculture connectée, la surveillance algorithmique via intelligence artificielle. Des « services » à n’en plus finir, imposés, marchandés, marketés, pour mieux accaparer nos territoires et nos vies, sous l’égide des plus grandes multinationales de ce monde.

      Puis, dans ces serveurs, des millions de puces et composants électroniques, des puces faites de minéraux : du silicium, du gallium, de l’or, du cuivre, du coltan, du lithium, du cobalt … À nouveau sous nos pieds, on déchire la terre pour en extraire ce qui depuis longtemps sommeille. Une extraction qui a le prix du sang, entachée des conflits qu’elle déclenche dans les pays où l’industrie numérique rejoue encore et toujours la colonisation. Ces minerais qui deviennent puces, qui deviennent gadgets, qui deviennent armes et autres instruments au service des pouvoirs politiques et industriels.

      Il n’y a pas de fatalité au « tout numérique ». Nous pouvons reprendre le contrôle. Nous devons nous organiser pour résister et mettre un terme à la destruction socio-environnementale que la trajectoire dominante de l’informatique occasionne. Nous pouvons, toutes ensemble, imaginer d’autres mondes possibles.

      https://lenuageetaitsousnospieds.org

  • #OpenAI and partners are building a massive AI #data_center in #Texas

    On Tuesday, OpenAI announced a partnership with #Oracle to develop 4.5 gigawatts of additional data center capacity for its #Stargate AI infrastructure platform in the US. The expansion, which TechCrunch reports is part of a $30 billion-per-year deal between OpenAI and Oracle, will reportedly bring OpenAI’s total Stargate capacity under development to over 5 gigawatts.

    The data center has taken root in #Abilene, Texas, a city of 127,000 located 150 miles west of Fort Worth. The city, which serves as the commercial hub of a 19-county region known as the “Big Country,” offers a location with existing tech employment ecosystem, including Dyess Air Force Base and three universities. Abilene’s economy has evolved over time from its agricultural and livestock roots to embrace technology and manufacturing sectors.

    “We have signed a deal for an additional 4.5 gigawatts of capacity with oracle as part of stargate. easy to throw around numbers, but this is a gigantic infrastructure project,” wrote OpenAI CEO Sam Altman on X. “We are planning to significantly expand the ambitions of stargate past the $500 billion commitment we announced in January.”

    The new agreement builds on OpenAI’s initial $500 billion commitment announced at the White House in January to invest in 10 gigawatts of AI infrastructure over four years. The company estimates that the 4.5 GW expansion will generate jobs across construction and operations roles, including direct full-time positions, short-term construction work, and indirect manufacturing and service jobs.

    The 5 gigawatts of total capacity refers to the amount of electrical power these data centers will consume when fully operational—enough to power roughly 4.4 million American homes. It turns out that telling users their every idea is brilliant requires a lot of energy.
    Stargate moves forward despite early skepticism

    When OpenAI announced Stargate in January, critics questioned whether the company could deliver on its ambitious $500 billion funding promise. Trump ally and frequent Altman foe Elon Musk wrote on X that “They don’t actually have the money,” claiming that “SoftBank has well under $10B secured.”

    Tech writer and frequent OpenAI critic Ed Zitron raised concerns about OpenAI’s financial position, noting the company’s $5 billion in losses in 2024. “This company loses $5bn+ a year! So what, they raise $19bn for Stargate, then what, another $10bn just to be able to survive?” Zitron wrote on Bluesky at the time.

    Six months later, OpenAI’s Abilene data center has moved from construction to partial operation. Oracle began delivering Nvidia GB200 racks to the facility last month, and OpenAI reports it has started running early training and inference workloads to support what it calls “next-generation frontier research.”

    Despite the White House announcement with President Trump in January, the Stargate concept dates back to March 2024, when Microsoft and OpenAI partnered on a $100 billion supercomputer as part of a five-phase plan. Over time, the plan evolved into its current form as a partnership with Oracle, SoftBank, and CoreWeave.

    “Stargate is an ambitious undertaking designed to meet the historic opportunity in front of us,” writes OpenAI in the press release announcing the latest deal. “That opportunity is now coming to life through strong support from partners, governments, and investors worldwide—including important leadership from the White House, which has recognized the critical role AI infrastructure will play in driving innovation, economic growth, and national competitiveness.”

    https://arstechnica.com/ai/2025/07/openai-and-partners-are-building-a-massive-ai-data-center-in-texas
    #centre_de_données #infrastructure #aménagement_du_territoire

  • La mise à mort programmée du système ferroviaire français
    https://www.mediapart.fr/journal/economie-et-social/090725/la-mise-mort-programmee-du-systeme-ferroviaire-francais

    Cela leur a pris trente ans. Mais ils y sont en train d’y parvenir : le dernier clou dans le cercueil de la SNCF et du système ferroviaire français est en train d’être enfoncé. Selon des informations publiées le 4 juillet par le site l’Informé, les concurrents de l’entreprise publique ferroviaire qui s’apprêtent à exploiter des lignes TGV en France seront dispensés de toute obligation de service public en France.

    [...]

    « Comment s’en étonner. C’est la logique même de l’ouverture à la concurrence. Nous l’avions annoncé depuis des années : le privé va exploiter tout ce qui ce qui est rentable et laisser tout le reste. La SNCF est la vache à lait du privé », constate Julien Troccaz, responsable du syndicat Sud-Rail.

    Le gouvernement – et tous ceux qui l’ont précédé – a décidé d’appliquer à la SNCF la même logique que celle qui a été imposée à EDF lors de l’ouverture des marchés de l’énergie : faire subventionner par le public les profits futurs du privé. Au nom de la concurrence libre et non faussée, les entreprises publiques sont priées de céder à leurs concurrents une partie des bénéfices et des avantages dont elles bénéficient historiquement pour permettre au privé d’exister.

    Dans le cas d’EDF, cela s’est traduit par l’accès régulé à l’électricité nucléaire historique (ARENH), avec le succès que l’on sait : une explosion des prix, des milliards de bénéfices pour des intermédiaires privés sans aucun profit pour les usagers, la sécurité du système et l’intérêt général. Tout est en place que les mêmes effets se produisent à la SNCF, en pire.

    [...]

    Ce qui pourrait sembler des coups de canifs dans l’organisation ferroviaire française risque, de l’avis de nombreux experts, de mettre tout à terre. Car la SNCF est tenue de respecter la règle d’or, c’est-à-dire d’assurer constamment son équilibre financier. Une clause qui a été imposée par la Commission européenne et qui n’a jamais été contestée par la présidence française – à la différence d’autres États membres –, en contrepartie d’une reprise partielle de la dette de la compagnie ferroviaire.

    Privée d’une partie des recettes des lignes à grande vitesse, qui constituent l’essentiel de son chiffre d’affaires, la SNCF risque de ne pas pouvoir faire face à toutes ses charges. Tous les principes de péréquation territoriale, qui permettaient d’assurer le financement des lignes déficitaires grâce aux lignes rentables, sont ébranlés.

    Désormais, chaque ligne va devoir être rentable par elle-même. Des dessertes considérées comme vitales dans toute la France sont déjà menacées notamment dans le Centre-Val-de-Loire, la Savoie ou une partie de la Bretagne. « Une ligne qui ferme ne rouvre jamais », prévient Bérenger Cernon, ayant en tête des centaines d’exemples de voies ferrées démantelées, converties en pistes cyclables alors qu’elles assuraient auparavant un maillage dense du territoire.

    [...]

    Nombre d’historiens, à commencer par Fernand Braudel, ont souligné le rôle majeur qu’ont joué les chemins de fer pour la cohésion territoriale et sociale de la France moderne. C’est toute cette cohésion qui est en train de se défaire. Après avoir vu disparaître leur palais de justice, leur centre d’impôt, leur hôpital, c’est leur gare qui est appelée à être supprimée dans nombre de villes moyennes. La France, selon les vues de la technostructure partagées par les groupes privés, ce n’est que neuf à dix métropoles : Paris, Strasbourg, Lille, Rennes, Nantes, Bordeaux, Toulouse, Marseille et Lyon et Grenoble. En dehors de ces grandes villes, point de salut.

    Tout cela ne peut participer qu’au sentiment de déclassement et d’injustice sociale qui anime la majorité des Français, et fait le lit du populisme d’extrême droite. Mais l’exécutif, comme nombre d’élus politiques, s’en moque. Après tout, dans les gares, il n’y a que « des gens qui ne sont rien ».

  • City of Cameras

    Atlanta is the most surveilled city in the United States. With 124.14 surveillance cameras per 1,000 people, we not only lead the country, we have more than twice as many cameras per capita as 2nd ranked Washington, DC and more than four times as many as 3rd ranked Philadelphia, Pennsylvania. But no matter how surveilled we are here in Atlanta, it never seems to be enough for our city’s leaders.

    A few years ago, the city council considered requiring all new commercial and residential buildings within the city limits to install surveillance cameras. Another proposal was targeted at ensuring a working surveillance camera was mounted on every single 24-hour gas pump in the city. Wealthy white neighborhoods in the city have taken to raising money themselves to install more of these devices. We’ve even got privately-run apartment complexes employing robotic AI surveillance dogs monitored by low-wage laborers in Colombia. Despite all the ways that surveillance has shifted to focusing on the digital traces produced by our phones and social media activity, video monitoring of our collective existence in, and movements through, public space remain central to the modern carceral state. And the City of Atlanta has latched onto basically every surveillance technology that exists for precisely this purpose.

    But for all the ink spilled about Atlanta’s expansive and ever-growing surveillance network, journalists, academics and activists haven’t previously been able to identify where these cameras actually are. That’s because the Atlanta Police Department (APD) has, to my knowledge, rejected every single open records request for this information (including my own!) on the specious grounds that releasing it would lead to terrorism. Given that the purported promise of these surveillance cameras is creating a comprehensive, real-time view of the city, it’s deeply ironic that the city obstructs the public’s view of the system itself. As long as I’ve wanted to follow the geographer Brian Jordan Jefferson’s suggestion to use “the digital infrastructure of the racial state against itself, turning its tendency to document everything into a vulnerability, scrutinizing its datasets, producing data on the practices it seeks to hide,” because of the city’s intransigence about sharing this data, we’ve had no way to turn the proverbial camera around and get the same kind of comprehensive picture… until now.

    About a year-and-a-half ago, the good folks at the Atlanta Community Press Collective reached out because they’d seen me griping online about my aforementioned open records request being denied. Turns out that, in the course of fulfilling a separate, unrelated open records request, the APD had shared with them an Excel spreadsheet with a list of 1,755 video surveillance cameras and automated license plate readers (LPRs) and their approximate locations. Combining that dataset with another 152 proposed locations for cameras and LPRs that I was able to get my hands on via an open records request, we were able to deduce locations for 1,878 of these devices. All in all, we had the location for 1,158 video cameras and 568 LPRs, along with 68 proposed video cameras and 84 proposed LPRs.

    Of course, this number pales in comparison to the total of over 60,000 cameras attributed to the city in their #1 ranking, or even the nearly 45,000 cameras listed as “connected” or “integrated” on Connect Atlanta’s website as of writing. That’s because the vast majority of the cameras in the city that are connected to the Atlanta Police Foundation (APF)-funded Loudermilk Video Integration Center (VIC) are not owned and operated by the city itself. Instead, these larger numbers include cameras that are privately-owned and/or operated, whether by individual homeowners and businesses, or by larger institutions, like the 140 cameras owned and operated by the Midtown Alliance, 1,100 operated by Georgia State University (not to mention countless others on Atlanta college and university campuses), or even the 20,000+ cameras owned and operated by MARTA. These cameras are then either fully integrated into the VIC for real-time monitoring or are registered with the APD such that footage can be accessed on demand.

    This means that what we’ve been able to map here represents no more than 4.2% of the City of Atlanta’s total surveillance capacity, and probably even less. But given that our total number of locatable cameras is only off by two from this August 2023 snapshot of the system, we think it represents a reasonably good proxy for the cameras owned and operated by the city itself (at least as of a couple years ago), and the geographies that APD has prioritized for continued surveillance. Any better picture of the geography of surveillance in Atlanta would require a successful lawsuit challenging the APD’s claim that such records are exempt from the Georgia Open Records Act, or an insanely herculean effort to crowdsource the locations of an additional 58,000 cameras (which probably isn’t the best use of anybody’s time).

    So where are all of these cameras located? As the table below shows, Downtown Atlanta is the most surveilled neighborhood in the city, with most of the rest of the top 10 neighborhoods being located on the city’s predominantly Black west and south sides. Of the 411 cameras Downtown, 93 are located at APD’s headquarters and another 68 are in City Hall, potentially making these two buildings the most surveilled places in the entire city. And yet, that doesn’t seem to stop some of the people who work there from doing all kinds of nonsense that is substantially more criminal and damaging in both its intent and its effect than whatever the surveillance cameras they’ve got embedded throughout the rest of the city are picking up.

    Given how much these interior cameras can distort our geographic picture, we’ve filtered them out and broken down the following maps by type of surveillance device. The map on the left in green represents the concentrations of just those exterior-facing conventional video surveillance cameras, while the one on the right shows the locations of LPRs on their own. Even still, Downtown and the neighborhoods surrounding it continue to show up as the primary hotspots, with some barely perceptible differences between their respective geographies otherwise.

    By putting the two data sources into conversation with one another via calculating an odds ratio as we do in the map below, we can suss out some of the finer distinctions between the geographies of video cameras and LPRs. This also allows us to compare the relative balance of the two types even though there are roughly twice as many video cameras as LPRs across the full dataset. So here, any of the areas marked in green have a higher-than-expected concentration of video cameras, while those in shades of purple have more LPRs than one would expect based on the overall balance of the two device types. Though the pattern isn’t dramatic, the biggest clustering of LPR-dominant areas is located throughout Buckhead, while most of those more generally surveilled areas in and around Downtown have either a balance of cameras and LPRs or more cameras than expected. While nothing more than speculation, it seems this could reflect a strategy of APD seeking to surveil the city’s most populated neighborhoods, along with those that are otherwise predominantly Black, with video cameras pointed at street level, while the LPRs concentrated in wealthy and whiter neighborhoods reflect a means of drawing a boundary around these spaces, assuming that any crime will be captured by cars entering or exiting the neighborhood.

    But do these cameras actually do anything to help prevent or solve crime? Or do they just record it? Several years ago, APF claimed that these cameras reduce crime 20-50% in their vicinity, but more recently they’ve revised that figure down to just 5%. The only evidence that’s been shared publicly to support these claims is entirely anecdotal. Given that the APD won’t release the full data necessary to fully evaluate these relationships – not to mention the fact that data on crime is extremely unreliable, if not functionally useless, in the first place – there’s no reason for us to take these claims seriously. The people responsible for managing these cameras don’t even know how many of them there are. APD has even admitted to something like 10-20% of their cameras not working at any one time, either because of problems with the technology or their own administrative incompetence. So if these cameras don’t actually stop crime or help to solve it, what are they for?

    The City of Atlanta’s massive investment in surveillance technology represents both a strategy of counterinsurgency and a kind of “extractive abandonment”. That is, it is a means of criminalizing and repressing social movements, political protest and dissent, as well as a way to commodify the general neglect of certain people and places into a publicly-funded revenue stream for private corporations when those dollars could be better spent actually providing the kind of meaningful services to Atlantans that prevents “crime” from happening in the first place.

    Even if these maps represent just a fraction of the full surveillance infrastructure blanketed across the city, they represent the first time that we’ve been able to visualize the geography of Atlanta’s surveillance cameras in this way. And if the APD believes this data is an insufficient or inappropriate sample, they’re more than free to release the full dataset on surveillance camera locations to the public for everyone’s benefit.

    https://mappingatlanta.org/2025/06/09/city-of-cameras
    #surveillance #caméra_de_surveillance #Atlanta #USA #cartographie #visualisation #cartographie_critique #cartographie_radicale #urbanisme #aménagement_du_territoire
    #ressources_pédagogiques
    via @fil

  • Zurich ouvre le plus grand #tunnel_à_vélos de Suisse

    Après deux ans de travaux, un passage autoroutier jamais utilisé construit sous la gare de Zurich s’est mué en large infrastructure cycliste. Un « jalon important » pour faciliter la pratique de la petite reine en ville, se réjouit la municipalité, sans ignorer qu’il reste encore beaucoup de travail

    https://www.letemps.ch/suisse/suisse-alemanique/zurich-ouvre-le-plus-grand-tunnel-a-velos-de-suisse
    #tunnel #vélo #Zurich #aménagement_du_territoire #urbanisme #Suisse

  • Intempéries dans le Var : « Ce ne sont pas des images de guerre, mais de bêtises urbanistiques »

    Alors que des #pluies_torrentielles ont causé mardi 20 mai la mort de trois personnes dans le Var, l’urbaniste Amandine Richaud-Crambes estime que ces #événements_extrêmes dévoilent les lacunes en matière d’#adaptation du pays ainsi qu’une perte de mémoire du risque naturel.

    Près de 250 millimètres (mm) d’#eau tombés en une heure. Le 20 mai, #Le_Lavandou, station balnéaire varoise, a été frappé par des pluies torrentielles à la suite d’un violent épisode orageux. Les #précipitations dans le département ont provoqué des #inondations puissantes qui ont conduit à la destruction d’#infrastructures publiques – station d’épuration, ponts, routes – ainsi qu’à la mort de trois octogénaires, dont les corps ont été retrouvés au Lavandou et à Vidauban.

    Le pourtour méditerranéen est devenu une des régions mondiales les plus touchées par le réchauffement planétaire, comme l’a précisé le dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). Les scientifiques estiment que ce bassin océanique se réchauffe 20 % plus vite que le reste du globe.

    Urbaniste et ingénieure en environnement, Amandine Richaud-Crambes, experte des #risques_naturels en région méditerranéenne, revient sur cet événement extrême qui a frappé le Var. Elle rappelle les dangers de l’#artificialisation_des_sols à tous crins, la nécessaire adaptation au réchauffement planétaire et les besoins d’inculquer une culture de la #prévention_des_risques à l’heure du #chaos_climatique.

    Mediapart : L’épisode orageux violent qui a frappé le 20 mai Le Lavandou est-il un phénomène exceptionnel ?

    Amandine Richaud-Crambes : Ce n’est pas un événement rare. Le problème est qu’il n’est pas normal que ce type de phénomène se déroule au printemps. Les épisodes méditerranéens sont très fréquents, surtout sur cette partie du Var. Et, malheureusement, ce n’est pas la première fois qu’il y a des morts à la suite d’intempéries aussi violentes.

    Sauf que ces événements catastrophiques sont accentués par deux facteurs. Tout d’abord, le changement climatique : habituellement, les épisodes méditerranéens se déroulent en automne et jusqu’à décembre. Mais à cause de chaleurs printanières anormales, la mer Méditerranée se réchauffe déjà, ce qui conduit à des dépressions météorologiques et donc à des précipitations importantes. À cela s’ajoutent des températures au sol très chaudes sur le littoral du Var, intensifiant la violence de l’épisode orageux.

    Le Lavandou a enregistré près de 250 mm de précipitations en une heure.

    C’est ce qui se passe normalement pour un épisode méditerranéen. Ce sont d’énormes volumes d’eau qui peuvent tomber entre une heure et vingt-quatre heures. Dans la région, on a observé encore cet hiver des épisodes méditerranéens de cette envergure-là.

    Concernant Le Lavandou, on se retrouve donc sur un territoire où il a fait très chaud mais aussi avec une commune qui a dans son dos le massif des Maures, qui va bloquer les nuages – un peu comme durant ce qu’on appelle les #épisodes_cévenols. C’est pour cela que les #orages et les pluies intenses se sont concentrés à un endroit très précis.

    Et ce qui s’est passé, c’est qu’un des #cours_d’eau locaux qui va jusqu’au Lavandou, la #Môle, est très urbanisé, très canalisé, comme presque toutes les #rivières en France. Particulièrement artificialisées, elles représentent ce qu’on appelle des #lits_secondaires qui originellement jouaient le rôle de #bassins_de_débordement des eaux.

    En conséquence, non seulement l’#urbanisation de ces rivières empêche l’#infiltration des pluies dans les sols, mais accélère aussi les flux d’eau. Associé à la #topographie du Lavandou, un événement pluvieux important devient alors très violent. Ces mêmes éléments – des précipitations fortes et stationnaires, une topographie particulière, l’artificialisation des rivières – ont été à l’origine des inondations meurtrières à Valence, en Espagne, à l’automne dernier.

    Les messages d’urgence type #FR-Alert qui ont été envoyés sur les téléphones portables de la population pour rappeler les consignes de sécurité sont-ils selon vous suffisants ?

    Les #systèmes_d’alerte qui existent actuellement sont multiples et déjà très efficaces. Il faut savoir les respecter. Une #alerte orange avait été émise pour le Var, ce qui appelle déjà à de nombreuses mesures de prévention. Et les services de l’État, la sécurité civile, les pompiers étaient prêts à intervenir.

    Mais il faut avoir en tête que, dès que l’alerte est orange, on ne va pas chercher sa voiture, on ne sort pas, on évite les zones à risque. C’est là que nous avons un souci, parce que malheureusement un couple est mort au Lavandou parce qu’ils sont sortis de leur appartement inondé, non loin du bassin de crue. Le troisième décès est celui d’une femme à Vidauban qui était dans son véhicule durant les pluies. 90 % des morts durant ces catastrophes sont dues à des #erreurs_humaines de non-prise en compte du #risque. Nos systèmes d’alerte sont bons, ce qu’il manque aujourd’hui c’est travailler toujours plus sur la #prévention.

    Le Var, un département où les habitants sont habitués aux grosses inondations, attire par ailleurs des personnes pas forcément originaires de la région qui ont moins cette histoire et cette mémoire du risque. Les élus locaux ont tout de suite qualifié les dégâts provoqués par les orages d’« images de guerre », mais ce sont des images de bêtises urbanistiques, de changement climatique.

    Le réchauffement planétaire nous rappelle ici qu’il faut désormais privilégier l’#habitation et l’#adaptation, plutôt que le #tourisme et l’#économie à tout-va.

    L’#adaptation_urbanistique pourra-t-elle répondre aux impacts du changement climatique, qui ne cesse de s’intensifier ?

    L’urbanisme ne peut pas tout régler face au #climat, mais rappelons qu’aujourd’hui, nous ne faisons quasiment pas d’adaptation. Les quelques nouveaux #aménagements_urbains réalisés avec des systèmes d’infiltration des eaux ne vont pas du jour au lendemain changer trois décennies de #bétonisation des sols.

    Aujourd’hui, 80 % du territoire français est artificialisé. Alors l’urbanisme ne peut pas tout, mais l’urbanisme peut encore beaucoup. Et malheureusement, avec le changement climatique, dans les endroits peu bétonnés, on se retrouve par exemple dans le sud de la France avec des #sols déjà très secs qui absorbent mal les eaux.

    À l’échelle d’une mairie ou même d’une communauté de communes, pour s’adapter aux événements climatiques extrêmes, faut-il réviser chaque #plan_local_d’urbanisme (#PLU) ?

    Il faut certainement les réviser à l’aune du changement climatique, parce que nombre de PLU datent déjà de plusieurs années. Très peu de ces plans d’aménagement urbain intègrent l’adaptation, notamment dans le sud.

    Le maire de Mandelieu-la-Napoule (Alpes-Maritimes) m’a assuré encore l’hiver dernier qu’on ne peut pas à la fois demander à construire des logements sociaux, de faire du « zéro artificialisation nette » tout en réduisant les risques naturels. C’est faux. Il faut que certaines zones soient plus constructibles. Mais aussi déplacer, et c’est très dur, les populations qui habitent dans des zones à risque. Ou encore, désendiguer les bassins de rivière, c’est-à-dire relaisser de la place à la nature. Toutes ces mesures difficiles sont possibles à déployer avec le PLU.

    En attendant, nombre d’élus bataillent pour détricoter voire supprimer la loi « #zéro_artificialisation_nette ». Mais en tant qu’experte des #risques_naturels en Méditerranée, et venant du Sud, où j’ai grandi avec ces risques inondation, je vois l’artificialisation s’aggraver et surtout, une perte de #mémoire du risque.

    Nous oublions les grandes crues qui se sont déroulées il y a vingt voire cinquante ans, et nous pensons que ça ne va plus revenir. Mais le changement climatique nous rappelle aujourd’hui à la réalité naturelle de nos territoires.

    https://www.mediapart.fr/journal/ecologie/220525/intemperies-dans-le-var-ce-ne-sont-pas-des-images-de-guerre-mais-de-betise
    #urbanisme #aménagement_du_territoire #intempéries #changement_climatique #pluie #oubli #ressources_pédagogiques

  • Magdalena. Femmes du fleuve

    Magdalena. Femmes du fleuve est un roman graphique issu d’un processus de #recherche-création sur la vie des paysannes habitant sur les rives du #fleuve_Magdalena en #Colombie. Le livre part de la source dans les #montagnes andines et suit le cours du fleuve jusqu’à son embouchure dans la mer des Caraïbes. Il parcourt les histoires de huit #femmes et les #récits qu’elles tissent en relation avec les #gens_du_fleuve, l’#eau, la #faune, la #flore. Le roman montre également les #résistances de ces femmes face aux projets d’aménagement et extractifs qui interrompent le cours de l’eau, ainsi que les voies parallèles de réexistence pour réinventer la vie après certaines conséquences irréparables. L’objectif de ce livre, au croisement de la recherche scientifique en géographie et de la création artistique, est de mettre en lumière des #histoires_de_vie qui ne sont pas souvent racontées, des réalités invisibilisées par des récits sur le #fleuve essentiellement utilitaristes ou portés par des voix masculines. Magdalena souhaite faire exister non seulement les pluralités de formes selon lesquelles les femmes vivent sur et avec le fleuve Magdalena, ainsi que les continuités écologiques et culturelles qui unissent ce grand territoire de terre et d’eau.

    https://www.lcdpu.fr/books/56262F9A-AA2F-4EB3-B417-6E4660FC8A84
    #BD #livre #bande-dessinée #aménagement_du_territoire #extractivisme

  • #Paris said au revoir to cars. Air pollution maps reveal a dramatic change.

    Air pollution fell substantially as the city restricted car traffic and made way for parks and bike lanes.

    Over the past 20 years, Paris has undergone a major physical transformation, trading automotive arteries for bike lanes, adding green spaces and eliminating 50,000 parking spaces.
    Part of the payoff has been invisible — in the air itself.
    Airparif, an independent group that tracks air quality for France’s capital region, said this week that levels of fine particulate matter (PM 2.5) have decreased 55 percent since 2005, while nitrogen dioxide levels have fallen 50 percent. It attributed this to “regulations and public policies,” including steps to limit traffic and ban the most polluting vehicles.

    Air pollution heat maps show the levels of 20 years ago as a pulsing red — almost every neighborhood above the European Union’s limit for nitrogen dioxide, which results from the combustion of fossil fuels. By 2023, the red zone had shrunk to only a web of fine lines across and around the city, representing the busiest roads and highways.
    The change shows how ambitious policymaking can directly improve health in large cities. Air pollution is often described by health experts as a silent killer. Both PM 2.5 and nitrogen dioxide have been linked to major health problems, including heart attacks, lung cancer, bronchitis and asthma.

    Paris has been led since 2014 by Mayor Anne Hidalgo, a Socialist who has pushed for many of the green policies and has described her wish for a “Paris that breathes, a Paris that is more agreeable to live in.”

    Her proposals have faced pushback — from right-leaning politicians, a car owners’ association and suburban commuters, who say that targeting cars makes their lives more difficult.
    But last month, Parisians voted in a referendum to turn an additional 500 streets over to pedestrians. A year earlier, Paris had moved to sharply increase parking fees for SUVs, forcing drivers to pay three times more than they would for smaller cars. The city has also turned a bank of the Seine from a busy artery into a pedestrian zone and banned most car traffic from the shopping boulevard of Rue de Rivoli.
    Carlos Moreno, a professor at Paris 1 Panthéon-Sorbonne University and a former adviser to the city, said the French capital has developed “an urban policy based on well-being.”

    https://www.washingtonpost.com/climate-solutions/2025/04/12/air-pollution-paris-health-cars
    https://archive.is/29uTN#selection-1573.0-1621.177
    #vélo #cartographie #visualisation #transports #statistiques #chiffres #air #qualité_de_l'air #pollution #pollution_de_l'air #restrictions #modes_de_transport #aménagement_urbain #urbanisme #zones_piétonnes #aménagement_du_territoire
    #ressources_pédagogiques

  • #Droit_de_la_montagne : panorama des ressources

    Cette fiche donne des pistes pour la #recherche_documentaire en droit de la montagne en précisant les principales ressources imprimées ainsi que numériques en accès libre ou sur abonnement.

    Le droit de la montagne désigne un ensemble de règles de #droit_public et de #droit_privé qui répondent aux enjeux spécifiques des territoires de montagne :

    Aménagement des territoires : construction et urbanisation en altitude, protection des terres agricoles, pastorales et des forêts en montagne, préservation des rives des plans d’eau, développement raisonné des équipements touristiques…
    Protection de l’environnement : préservation des espaces naturels en montagne (parcs, réserves, sites classés…), protection de la flore et de la faune montagnardes, limitation de la chasse et de la pêche…
    Encadrement des loisirs motorisés en montagne
    Responsabilité des auteurs d’accidents…

    https://www.jurisguide.fr/fiches-pedagogiques/droit-de-la-montagne-panorama-des-ressources
    #montagne #ressources #ressources_pédagogiques #aménagement_du_territoire

  • Les maisons de santé aux prises avec le #financement par projet
    https://metropolitiques.eu/Les-maisons-de-sante-aux-prises-avec-le-financement-par-projet.html

    Éclairant l’héritage militant de trois maisons de santé, Renaud Gay et François-Xavier Schweyer analysent le soutien des autorités municipales et sanitaires locales à leur action contre les #inégalités de santé ainsi que les limites et ambiguïtés de leurs financements par projet. Les maisons de santé pluriprofessionnelles (MSP), qui regroupent des professionnel·les exerçant en libéral et censé·es travailler de manière coordonnée, se sont imposées dès la fin des années 2000 comme l’une des principales #Terrains

    / santé, inégalités, financement, #socialisme_municipal, maison de santé

    #santé #maison_de_santé
    https://metropolitiques.eu/IMG/pdf/met_gay-schweyer.pdf

    • Inondations : nous payons les héritages de décennies d’#incurie

      Les inondations de Valence ont déchaîné les #climatosceptiques. Les mêmes qui s’opposaient aux restrictions d’urbanisation en zone inondable et au zéro artificialisation nette s’improvisent anti-« béton » pour nier l’impact du #changement_climatique au nom du « bon sens ». Mais depuis 40 ans, l’exposition et la vulnérabilité ont augmenté et les catastrophes se succèdent. Nous le résultat de 30 ans d’inaction climatique.

      La catastrophe résulte toujours de la conjugaison de 3 éléments :

      - Un phénomène physique, l’#aléa (ici #submersion)
      – Des personnes et des biens exposés
      - Des facteurs individuels ou collectifs, conjoncturels ou structurels, qui rendent vulnérable au choc avant et pendant la crise.

      La submersion (inondation) résulte elle-même d’une combinaison de mécanismes : l’#eau peut venir du ciel (#précipitations), des #nappes_phréatiques, de la #mer, d’un #cours_d’eau lui-même alimenté par la pluie, la fonte des neiges ou de la rupture d’un barrage.

      Hors submersion marine, une inondation est étroitement liée au #ruissellement. En effet, lorsqu’il pleut, l’eau s’infiltre dans le sol. La partie qui n’est pas absorbée ruisselle et va rejoindre les cours d’eau qui vont l’évacuer vers la mer.

      Plusieurs facteurs peuvent naturellement limiter l’infiltration :

      - Le #gel
      – Un sol très sec ou au contraire détrempé
      – Un sol sans végétation (rôle des racines)
      - Un sol naturellement imperméable (argileux par exemple)

      voir : https://theconversation.com/en-france-les-pluies-de-mai-permettront-elles-de-mieux-affronter-la

      L’homme peut aussi imperméabiliser artificiellement les sols :

      - #bitumes, #béton, #toitures (y compris les #serres), etc.
      - manière de travailler le #sol agricole
      - #déboisement des versants
      - #busage des #drains_d’évacuation
      - modification de la #pente des versants

      Le ruissellement crée des #écoulements_de_surface qui sont aussi modifiés par les #aménagements (remblais pour des routes ou voies ferrées, etc). De plus, les #cours_d’eaux sont endigués, creusés, rectifiés, détournés, etc. avec un impact sur la vitesse et la hauteur d’eau.

      Dans les espaces urbanisés, l’eau de pluie est récupérée par des réseaux d’eaux pluviale pour éviter l’inondation des chaussées. En cas de forte pluie ou d’inondation des chaussées, ce réseau est insuffisant. Et devient lui-même un facteur d’inondation.

      En ville, d’autres #réseaux_souterrains (eau potable, tunnels, etc.) forment un #réseau_hydrographique_artificiel. En cas d’inondation à la surface, ils se remplissent d’eau, débordent à leur tour et inondent la ville.

      L’interruption de ces réseaux dits "critiques" paralyse en outre la gestion de crise. Ils peuvent être un facteur de #crise dans la crise. On a alors des aléas en cascade, avec des #effets_dominos, qui sont très redoutés par les gestionnaires.

      Par définition, l’urbanisation concentre les Hommes, les activités, les infrastructures. Elle accroît donc AUSSI l’exposition. La manière dont on construit la ville peut limiter l’#imperméabilisation (impact sur le ruissellement), pas l’exposition.

      L’exposition n’est pas un problème en soi si l’on agit sur la vulnérabilité : système de prévision et d’alerte, adaptation du bâti, utilisation de matériaux résistants, forme des bâtiments et morphologie de la ville, gestion de crise performante, évacuation, etc.

      Dans le cas d’épisodes méditerranéens, la #vitesse et la part d’#incertitude font que l’évacuation des populations est impossible et que la prévision a des limites. Il faut donc réduire l’exposition là où la vitesse et la hauteur d’eau sont fortes.

      Depuis des décennies, l’occupation des sols dans le bassin méditerranéen s’est concentrée dans des #zones_inondables. Depuis des décennies, les scientifiques alertent sur sur l’impact des activités humaines sur le ruissellement.

      En France, depuis des décennies, certains « responsables » politiques ont tout fait pour assouplir les #zonages des plans de prévention des risques. Cela a même été fait en toute légalité, malgré les combats des associations « écolo ».

      Alors oui, les épisodes méditerranéens ont toujours existé et oui, les sociétés du passé avaient su s’y adapter en construisant en hauteur notamment, au prix de lourdes pertes.

      Depuis 40 ans, l’exposition et la vulnérabilité ont augmenté et depuis 40 ans, les catastrophes se succèdent. Nous payons les héritages de décennies d’incurie. Et nous payons aussi le résultat de 30 ans d’inaction climatique.

      Car le changement climatique dope ces épisodes orageux. Et plus d’eau précipitée, c’est plus d’eau à évacuer. Quels que soient les plans d’adaptation, tant que la Terre se réchauffe, nous sommes condamnés à subir de plus en plus de #catastrophes.

      Malgré les progrès techniques, au-delà d’un certain niveau de réchauffement, ces territoires seront inhabitables.

      Seule l’atténuation, avec l’atteinte du net zéro émissions de CO2 stabilisera le réchauffement et permettra l’adaptation.

      https://blogs.mediapart.fr/magali-reghezza/blog/311024/inondations-nous-payons-les-heritages-de-decennies-d-incurie?at_acco

  • 80 - Spatial Planning in Israel/Palestine and the Gaza War
    https://urbanpolitical.podigee.io/80-spatial-planning-in-israelpalestine-and-the-gaza-war

    In this episode, we explore the role of land policies and spatial planning in the Israel-Palestine conflict. Our two guests, Oren Yiftachel and Orwa Switat, discuss the historical context of the conflict, focusing on how settler colonialism and land regimes have shaped hierarchical types of citizenship and exacerbated tensions. The conversation looks at the impact of the recent war in Gaza on planning and development policies, especially in relation to Bedouin communities in the Naqab/Negev and their responses. This episode concludes by exploring prospects for peace, the potential for redevelopment in Gaza and the broader Palestine-Israel region, and the role of the movement “Land for All” and international society in shaping the (...)

    #Israel,Palestine,Planning,Gaza_War
    https://audio.podigee-cdn.net/1653518-m-7ea66aa5664f57ee2260f52278450523.m4a?source=feed

    • Donauinsel

      Im Zuge des Baus eines Entlastungsgerinnes im ehemaligen Überschwemmungsgebiet (Neue Donau), das die 1870-1875 regulierte Donau (Donauregulierung) an ihrem linken Ufer begleitete, entstand zwischen den beiden Flussläufen eine rund 20 Kilometer lange und bis zu 300 Meter breite Insel, die zu einem Naherholungsgebiet ausgebaut wurde.

      Die „Neue Donau“ wurde nach langen Diskussionen im Gemeinderat, die mit einer mehrheitlichen Beschlussfassung seitens der SPÖ endeten, zwischen 1. März 1972 und 1988 angelegt. Abschluss der Baggerarbeiten war am 13. Oktober 1987, wobei die Teilbenützung der nördlichen Teile bereits möglich war.

      Im Mai 1973 wurde der "Wettbewerb Donaubereich Wien“ ausgeschrieben, der viele bis dahin unbeachtete Auswirkungen behandelte, die Donauinsel in den gesamtstädtischen Planungsprozess einband (siehe unten) und der zunehmenden Politisierung des Projektes Rechnung trug.[1] Vor allem von der Opposition kam zu dieser Zeit eine vehemente Kritik an Großprojekten, die als unnötige Belastung des Steuerzahlers angeprangert wurden. Im Falle der Donauinsel bezog sich dies auf die weiterführenden Pläne der Stadtbauplanung, nicht auf den Hochwasserschutz selbst.

      1983 wurde das Areal vom Gemeinderat als „Erholungsgebiet“ freigegeben. Die offizielle Benennung erfolgte am 7. Mai 1984 durch den Gemeinderatsausschuss für Kultur. Seit 1984 wird alljährlich im Sommer das „Donauinselfest“ abgehalten.

      Als Donauinseln im Wiener Raum können historisch betrachtet auch die Inseln des bis 1868-1875 großteils unregulierten Donaustroms bezeichnet werden, vor allem der Obere Werd und der Untere Werd (Werd oder Wörth = Insel), die spätere Leopoldstadt. Auch das Gänsehäufel war einst eine Insel im unregulierten Strom.

      Die Planungsphasen
      Vorentwurf Nordteil, Gottfried und Anton Hansjakob (1976)
      Die erste Phase des „Wettbewerbs Donaubereich Wien“

      Die Ausschreibung des Wettbewerbs fand auf nationaler Ebene im Mai 1973 statt. Einsendefrist der Bearbeitung war Dezember 1973, die Beurteilung der Projekte durch die Jury fand im Mai und Juni 1974 statt. Von den 44 eingesandten Projekten wurden elf prämiert und fünf schließlich für die weitere Bearbeitung herangezogen.

      Während der laufenden Ausschreibung kam es durch die bereits begonnenen Bauarbeiten zu erheblichem Zeitdruck. Am 29. Mai 1974 stellte die Jury fest, dass der erste Kilometer der Donauinsel nach "fast ausschließlich wasserbautechnischen Überlegungen“[2] gebaut worden war: die steilen Ufer ließen kaum eine Nutzung zu. Am nächsten Tag fand mit Bürgermeister Leopold Gratz eine Aussprache statt, in der die Jury um das Aussetzen der Bauarbeiten ansuchte, was Gratz jedoch ablehnte. Stattdessen forderte er im Hinblick auf die bald stattfindende zweite Wettbewerbsstufe Vorschläge der Jury für eine rasche und effiziente Abwicklung derselben, versicherte der Jury für ihre Ideen volle Unterstützung und ließ auch Möglichkeiten prüfen, die laufenden Bauarbeiten mit den Juryplanungen zu vereinbaren. Zu diesem Zweck trat man auch an die beteiligten Planungsbüros heran und beauftragte sie mit der Planung von „Sofortmaßnahmen“ für bereits im Bau befindliche Bereiche.
      Die zweite Phase des „Wettbewerbs Donaubereich Wien“
      Uferprofile, Arbeitskreis 1 (1975)
      Uferprofile, Arbeitskreis 1 (1975)

      Nach der Strukturierung eines Arbeitsprogramms begann die zweite Wettbewerbsphase im November 1974. Aus den fünf Planungsbüros wurden zwei Arbeitskreise gebildet, die Planungen sollten in mehreren Tagungen und gemeinsam mit Experten, Verwaltungsstellen der Stadt und mit der Jury bis November 1976 abgeschlossen werden. Durch den Einsturz der Reichsbrücke am 1. August 1976 und die Koordination mit dem darauffolgenden „Projektwettbewerb Reichsbrücke“ verzögerte sich die Schlusssitzung allerdings bis Mai 1977.

      Während der Jurysitzungen wurden vor allem die Ausführungsplanungen des Mittelteils heftig diskutiert. Erst im November 1976 fand man eine Kompromisslösung: eine kurzfristige Bebauung wurde ausgeschlossen, sollte durch die Inselbreite und die Verschwenkung des Entlastungsgerinnes für die Zukunft aber möglich bleiben.[3]

      Die international besetzte Wettbewerbs-Jury gab unter anderem die Empfehlung ab, dass die Charakteristika der Stromlandschaft soweit wie möglich erhalten werden sollten. Die Donauinsel selbst sollte in überwiegendem Maße für Erholungszwecke genutzt werden. Ein ausgewogenes Verhältnis zwischen gestalteten Sport- und Erholungsflächen sei anzustreben.

      Im Juli 1977 richtete man die „Koordinationsstelle Donauraum Wien“ als Nachfolgeorganisation des Wettbewerbs ein.

      Im Rahmen dieses unkonventionellen Planungsmodells, dem so genannten Wiener Modell, wurden konkrete Empfehlungen zur Stadtentwicklung im weiteren Donaubereich erarbeitet und 1977 ein „Leitprojekt Donaubereich Wien“ erstellt. Darin wurden Funktion und Zonierung von Donauinsel und Neuer Donau festgelegt.

      Ab Mitte der 1970er-Jahre waren zwei Landschaftsarchitekturbüros in die Planung eingebunden und für die Gestaltung der Donauinsel verantwortlich: Gottfried und Anton Hansjakob (München) sowie Marija und Wilfried Kirchner (Wien). Sie standen unter einem enormen Zeitdruck, da die Bauarbeiten bereits seit fünf Jahren im Laufen waren. Das bisherige Fehlen eines Gestaltungskonzeptes hatte zu offenkundigen Mängeln geführt. Massive Kritik war die Folge: von „der Fadennudel“, „Spaghettiinsel“ und „Pissrinne“ war in den Medien die Rede. Die landschaftsgestalterischen Planungen mussten nun die vorauseilenden Bauarbeiten einholen.
      Landschaftsarchitektonische Gestaltung der Donauinsel

      Die Insel selbst gliedert sich nach den Vorgaben des „Leitprojekts Donaubereich Wien“ in drei Teile. Diese Dreigliederung bewirkte auch eine differenzierte landschaftsarchitektonische Gestaltung des Inselkörpers: Sowohl Norden als auch Süden wurden als „naturnahe Bereiche“ gestaltet. Die Oberfläche der Insel bekam eine Modellierung, die unterschiedliche Standortbedingungen für die Pflanzenwelt und differenzierte Lebensräume für die Tierwelt schuf. Altbaumbestände blieben bestehen, indem man die Dammschüttung entsprechend aussparte beziehungsweise verlagerte. Auch Altarmbereiche wie Zinkerbachl und Toter Grund wurden samt der umgebenden Vegetation erhalten und in die Modellierung integriert.

      Für den Mittelteil – auf der zentralen Entwicklungsachse zwischen der Inneren Stadt und dem Vienna International Centre gelegen – entschied man sich für eine intensivere Gestaltung und Nutzung als multifunktionaler urbaner Park. Dichte Gehölzpflanzungen wechseln mit offenen Wiesen ab, wodurch auf dem langen Inselkörper eine Abfolge verschiedener Teilräume entstand. In diese Grundstruktur wurde Infrastruktur wie Sportflächen, Spielplätze, Gastronomie, und WC-Anlagen eingebettet. Zusätzlich wurde eine abwechslungsreiche Uferlinie mit Promenaden, Badebuchten und Schwimmpontons geschaffen.

      Entwicklungsachsen, öffentlicher und privater Verkehr

      Der Bau der Donauinsel entwickelte sich von einem ursprünglich als Hochwasserschutz geplanten zu einem gesamtstädtischen Projekt. Die Verbindung der beiden Donauufer und ihrer Stadtteile sowie die Nutzung der Insel selbst ("Es ist Ziel der Stadt Wien, den Donaubereich zu aktivieren.")[4] wurden zu leitenden Gesichtspunkten.[5]

      Zwei Entwicklungsachsen waren vordergründig, im Norden von der Brigittenau über Floridsdorf in Richtung Stammersdorf (Vorort) und im Zentrum von der Leopoldstadt über Kaisermühlen in die Donaustadt beziehungsweise nach Kagran. Die im Zuge des Baus der U-Bahn entstehende Trasse der U1 war von Anfang an miteingeplant. Zudem wurde eine eigene Entwicklungsachse von der Donaustadt nach Stadlau (Vorort) vorgesehen, mit potentieller Verlängerung nach Aspern und Groß-Enzersdorf. Der spätere Ausbau der Nordstrecke der U2 übernahm diese Aufgabe und ist heute die dritte Achse über die Donauinsel, vom Prater über den Handelskai nach Stadlau und Donaustadt bis nach Aspern. Heute hat die Donauinsel direkten Anschluss an die U1 (Station direkt auf der Donauinsel), U2 (Stationen Donaumarina und Donaustadtbrücke) sowie an die U6 (Stationen Handelskai und Neue Donau).

      Die Donauuferautobahn A22 und die Bahnhöfe im Einzugsgebiet (Franz-Josefs-Bahnhof, Bahnhof Wien-Praterstern) wurden im Planungskonzept als „trennende Elemente“ der beiden Donauufer definiert, waren aber aufgrund ihrer Funktion aus dem Planungskonzept nicht wegzudenken. Geplante Alternativrouten der A22 wurden abgelehnt, die bisherige Route am linken Donauufer als „geringstes Übel“ in die Planung eingebunden. Die Überplattung der A22 im Bereich zwischen heutiger Donau-City und Kaisermühlen sowie Übergänge und Grünbrücken sollten für die Milderung der Belastung sorgen. Fuß- und Radwege erhielten dadurch ebenfalls Priorität und sollten die Erreichbarkeit aller Erholungsräume im Donaubereich sicherstellen.

      Im Falle einer verstärkten Siedlungsentwicklung der Bezirke 21-23 sollte auf weitere mitgeplante U-Bahn-Trassen zurückgegriffen werden. Neben dem realisierten Ausbau der U1 nach Kagran und der U6 nach Floridsdorf sah man auch den Bau einer U7 vor, die Floridsdorf und Donaustadt von Nordwest nach Südost verbinden sollte. In der Donaustadt wiederum plante man damals die Linie U3 in jener Trasse, in der die U2 später bis Aspern verlängert wurde.

      https://www.geschichtewiki.wien.gv.at/Donauinsel

  • #Chronovélo #cours_Berriat : de la #contrainte naîtront les nouveaux #usages

    Depuis plusieurs mois, trois unions de quartier font part dans la presse locale (https://www.placegrenet.fr/2023/10/20/chronovelo-grenoble-fontaine-trois-unions-de-quartier-refusent-le-futur-sens-unique-cours-berriat-sans-faire-lunanimite/616121) de leur désaccord concernant le tracé de la piste cyclable Chronovélo n°1 sur la portion du cours Berriat entre J. Jaurès et l’Estacade (https://www.ledauphine.com/transport/2023/11/22/isere-grenoble-mise-en-sens-unique-du-cours-berriat-les-unions-de-quarti). Afin de maintenir un double-sens automobile, leurs membres souhaitent que la Chronovélo soit réduite en largeur, alors que l’aménagement prévu est déjà en-deçà des recommandations du CEREMA (https://www.cerema.fr/fr/actualites/rendre-sa-voirie-cyclable-cles-reussite-guide-pratique-du).

    Parlons-Y Vélo vous explique pourquoi il s’agit d’une (très) mauvaise idée.
    Le transit, un faux débat

    Ces unions de quartier expriment des craintes quant à l’augmentation du trafic dû au report de circulation sur la rue Nicolas Chorier. Cependant, nous refusons de nous appuyer sur des craintes non étayées pour justifier une dégradation de l’aménagement cyclable prévu. Focaliser le débat sur le trafic de transit n’est qu’une expression de la peur du changement.

    Comme les unions de quartiers, nous constatons, que l’automobile dans les espaces urbains est source de bruits, de pollutions, de dangers en particulier pour les plus vulnérables. Il convient de rappeler que 99,8 % des piétons tués en France l’ont été par un conducteur de véhicule motorisé (Libération, 2023).

    Le trafic de transit, par définition, ne s’arrête pas dans le quartier, il le pollue uniquement. Nous proposons donc de revoir totalement le plan de circulation du quartier afin qu’il n’accueille plus de trafic de transit sur aucune de ses rues traversantes. Il s’agit du principe de « #plan_en_marguerite ». Ce type de plan de #circulation existe dans d’autres villes européennes dont personne ne viendrait questionner l’attractivité ou la vitalité commerciale : Gand en Belgique, Barcelone en Espagne, par exemple.

    Ce type de #plan_de_circulation est un des leviers pour imposer une contrainte sur le #trafic_automobile, sans empêcher l’utilisation de la #voiture pour les besoins des résident-e-s. Cependant, celle-ci perd en #attractivité par rapport aux autres modes de transport. Le quartier Chorier-Berriat est longé par deux lignes de tramway, dispose de nombreux arrêts de bus métropolitains, et jouxte la gare de Grenoble et ses nombreuses destinations routières et ferroviaires. En 2020, les données INSEE montrent que voiture, marche et vélo sont déjà proches en part d’utilisation pour les trajets domicile-travail, il ne suffit que d’un coup de pouce pour renverser la balance.

    La contrainte sur le trafic, un levier majeur pour son évaporation

    Il est aujourd’hui inutile de rappeler les bienfaits des modes actifs sur la santé, et le besoin de décarboner les transports de courte ou longue distance. un espace public libéré des voitures permet d’autres usages : végétalisation, jeux d’enfants, extension commerçante , bancs, etc. Contraindre les #accès_automobiles amène un effet qui ne revient presque jamais dans le débat public : il s’agit de l’#évaporation_du_trafic, qui a été récemment confirmée par une thèse (https://transitec.net/fr/actualites/item/11224-levaporation-du-trafic-un-concept-confirme-par-une-these.html). Il est donc faux de considérer le trafic automobile comme une donnée constante : celui-ci évolue selon les choix qui sont faits sur l’espace public.

    Le projet Cœur de Ville – Cœur de Métropole de Grenoble, qui a consisté entre autres à la suppression du transit sur l’axe Rey-Sembat-Lyautey en hyper-centre, a été un très bel exemple d’évaporation du trafic. après 1 an de mise en place, 4% du trafic en entrée du centre-ville avait disparu (https://www.eco-compteur.com/ressources/grenoble-alpes-metropole-france). La #fréquentation_piétonne, elle, a bondi.

    Mais pour le #secteur_Berriat, malgré de nombreux compteurs de trafic automobile présents sur les routes de la Métropole, il est impossible de pouvoir juger de l’évolution… faute de la diffusion des données. À l’instar des unions de quartier, nous attendons avec impatience la publication de chiffres à ce sujet. Le silence actuel profite aux marchands de peur, et contribue à des débats passionnés, sans étaiement objectif possible. Nous le regrettons.

    La qualité de ville, la vraie question

    Si la #part_modale du vélo à Grenoble a fortement augmenté depuis 2015 (https://www.ledauphine.com/transport/2023/11/27/isere-velo-grenoble-fait-la-course-en-tete), c’est grâce à l’arrivée d’un nouveau public sur les bicyclettes, qui n’osait pas utiliser ce transport jusqu’alors : femmes, enfants, personnes âgées, etc. ainsi que le développement de nouvelles pratiques : vélos adaptés aux PMR, vélos couchés, cyclologistique. Rappelons qu’un enfant doit rouler hors du trottoir dès ses 8 ans, ce qui implique qu’il puisse le faire sur la chaussée. Ces nouvelles utilisations du vélo sont permises par la largeur importante du réseau Chronovélo. En effet, une piste cyclable large ne permet pas seulement d’absorber un trafic plus important ; elle offre un cadre sécurisé et agréable aux personnes plus lentes ou disposant de vélos-cargos ou tricycles, sans être gênées par les cyclistes plus aguerris ou plus rapides. Ainsi, une largeur de 4 mètres est indispensable pour garantir une pratique du vélo accessible à toutes et à tous.

    Dans ce contexte, quel intérêt de questionner la population sur 250 mètres de voirie qui passeraient à sens unique, sur un cours qui mérite aujourd’hui une rénovation totale de ses espaces et de ses usages ? Pourquoi s’attarder sur ce qui est finalement un petit sujet, au regard de la question existentielle qui s’est toujours posée aux urbanistes : quelle ville voulons-nous ? Souhaitons-nous des rues où la voiture n’a pas ou peu de contraintes, au détriment d’alignements d’arbres (même à l’ombre en été), de terrasses (qui seront à l’ombre en été, ce qui n’est pas si mal, non ?) et de pavés perméables pour laisser entrer l’eau de pluie dans le sol ? Bref, nous sommes déçus de voir que le débat ne s’intéresse qu’à la circulation de quelques voitures, et qu’il est amené toujours de la même façon : des oppositions de principe au moindre changement d’habitude.
    Avec le temps, les avis changent

    En 2016, les unions de quartier Centre-Ville et Championnet rejoignaient Grenoble à Cœur , pour s’opposer à CVCM Grenoble et de facto au passage de la Chronovélo sur Rey-Sembat-Lyautey. En 2018, une partie des membres des unions de quartier Berriat, Centre-Ville et Championnet s’opposaient au passage de la Chronovélo sur l’axe Lafontaine-Berriat (https://www.placegrenet.fr/2018/12/10/plan-chronovelo-le-velo-qui-marche/530046). Puis, ces mêmes membres se sont opposées à la bordure (https://www.placegrenet.fr/2019/04/07/chronovelo-bordure-le-velo-qui-marche/530545) de séparation entre la Chronovélo et la voie routière . Aujourd’hui, peu ou prou les mêmes personnes se déclarent « favorables » à la Chronovélo. Il y a donc bon espoir de les voir défendre des Chronovélo suffisament larges dans les années qui viennent, sur les futurs projets… peut-être les quais rive gauche ?

    https://parlons-y-velo.fr/chronovelo-cours-berriat-de-la-contrainte-naitront-les-nouveaux-usage
    #vélo #aménagement_du_territoire #urbanisme #Grenoble

    • Rendre sa #voirie cyclable : les clés de la réussite - Un #guide pratique du #Cerema

      Comment transformer progressivement la voirie pour encourager la pratique du vélo en ville ? Le Cerema publie un guide pratique pour aider les collectivités et acteurs de la mobilité à développer des aménagements attractifs et performants, à travers 8 #leviers_d'action.

      Améliorer la qualité des #aménagements_cyclables

      Il a été conçu pour répondre à un besoin des collectivités, qui cherchent de plus en plus à généraliser les aménagements cyclables en ville. Pour cela, il faut transformer en profondeur la voirie et amener à une modification des pratiques.

      Largement illustré, ce document disponible sur la boutique en ligne du Cerema présente des exemples de bonnes pratiques, des schémas explicatifs, les éléments réglementaires et signale des points d’attention. Il fournit aussi des références et ressources pour approfondir les différents sujets.

      "La France ambitionne une forte croissance de la part modale vélo, qui ne peut se réaliser que si les aménagements cyclables proposés s’adaptent pour accueillir les nouveaux cyclistes, qu’il s’agisse d’enfants à vélo, de familles avec des remorques, ou d’utilisateurs de vélo cargo.

      Cette ambition suppose de réinterroger l’offre quantitative mais également qualitative des aménagements cyclables. C’est pour aider les aménageurs à relever ce défi que le Cerema publie aujourd’hui ce guide « #voirie_cyclable »" (Thomas Jouannot - Cerema)

      Il a été réalisé collectivement au Cerema, à la suite de nombreux échanges avec les collectivités notamment au cours de webinaires organisés pour accompagner la mise en place d’aménagements cyclables temporaires et leur pérennisation.

      https://www.cerema.fr/fr/actualites/rendre-sa-voirie-cyclable-cles-reussite-guide-pratique-du

    • L’évaporation du trafic, un concept confirmé par une thèse !

      Les retombées d’une thèse de doctorat engagée par Transitec sur l’évaporation du trafic nous permettront de conforter des démarches encore plus ambitieuses pour les projets de #mobilité à venir ! Une belle mise en lumière de la « part des anges » du trafic automobile.

      Notre collègue #Pauline_Hosotte a soutenu publiquement sa thèse de doctorat ès sciences, intitulée L’évaporation du trafic, opportunités et défis pour la mobilité d’aujourd’hui et demain. Cette recherche de quatre ans, sur une thématique orpheline tant dans la littérature que dans la pratique de l’ingénierie, a été réalisée grâce à une collaboration entre notre bureau et le Laboratoire de sociologie urbaine (LaSUR) de l’EPFL, sous la direction du Prof. Vincent Kaufmann.

      Défendue à huis clos quelques mois auparavant, devant un jury de scientifiques et praticiens, la thèse a été acceptée sans réserves et proposée à l’unanimité par ce jury pour le prix 2022 de distinction pour une thèse remarquable.

      Pourquoi l’évaporation du trafic ?

      Quotidiennement, nous observons le phénomène dit d’évaporation du trafic, qui conduit à constater qu’en cas de restriction de circulation volontaire ou non, une certaine part de trafic « disparaît » spontanément, et parfois durablement. Dans un contexte et une époque où la saturation des réseaux et la volonté de réorienter les politiques de mobilité vers une meilleure maîtrise de la voiture revêtent une grande importance, ce sujet est porteur de défis et d’opportunités. Quasiment absent de la littérature scientifique et largement méconnu, la thématique de l’évaporation du trafic méritait une plus grande attention. Ce travail de thèse comble ainsi une lacune et les enseignements qu’il apporte sont riches pour gérer non seulement la mobilité d’aujourd’hui, mais également pour façonner celle de demain.

      L’évaporation du trafic est parfois un sujet de fantasmes : les plus ambitieux considèrent qu’elle devrait tout permettre, les plus réticents que c’est un concept "fumeux". Certaines collectivités pourraient être tentées d’intégrer une part d’évaporation dans chaque projet de requalification de l’espace public, ce qui permettrait de faciliter l’action publique. Il n’existe en effet aucun consensus sur la valeur à lui faire prendre, ce qui permet, en gros, de mettre un voile bien peu pudique sur tous les effets néfastes des politiques publiques sur le mode voiture.

      Pourquoi une thèse ?

      Puisque nous croyons en ce phénomène sans pour autant penser qu’il suffit à justifier tout et n’importe quoi, nous avons voulu étayer scientifiquement ce qui se cachait derrière l’évaporation, en nous appuyant sur cette thèse. Le sujet n’est évidemment pas apparu aussi récemment chez nous, mais nous espérons pouvoir consolider certaines situations en nous appuyant sur ce travail, que nous jugeons important et fondateur pour de nouvelles approches de la mobilité plus ambitieuse en cette période de crise climatique.

      Et la suite ?

      Outre la maitrise de ce sujet que nous transmettons à chaque membre de notre équipe et la méthode que nous développons en ce sens au niveau technique, nous travaillons à la rédaction d’un document vulgarisateur et appliqué à nos métiers. Il prendra la forme d’une « pause technique », notre série de publications de partage de connaissance dont le premier numéro sur la mobilité des femmes en Afrique est sorti en 2021 et dont le second, consacré à l’essor du vélo à Paris et les enseignements à en tirer, vient de paraître.

      Vous voulez en savoir plus ?

      Pour échanger de manière plus spécifique à vos propres enjeux autour de cette thématique d’actualité, nous organisons volontiers des séances de présentation et de discussion particulières en présentiel ou visioconférence.

      https://transitec.net/fr/actualites/item/11224-levaporation-du-trafic-un-concept-confirme-par-une-these.html