• Alternatives #open_source : la #Commission_européenne va créer un #consortium pour les #communs_numériques

    La France et l’Allemagne sont parmi les membres fondateurs. « L’une des priorités stratégiques de l’Europe est de renforcer les alternatives ouvertes, interopérables et souveraines. »

    La Commission européenne annonce avoir adopté le 29 octobre « une décision établissant le consortium pour une #infrastructure_numérique_européenne_commune [#European_Digital_Infrastructure_Consortium ou DC-EDIC en anglais], un nouvel instrument permettant aux États membres de développer, de déployer et d’exploiter conjointement des #infrastructures_numériques transfrontières dotées d’une gouvernance et d’une personnalité juridique spécifiques ».

    Faciliter l’accès au financement

    Ce consortium aura son siège à Paris. La France, l’Allemagne, les Pays-Bas et l’Italie en sont les membres fondateurs, les autres États membres pouvant adhérer à tout moment. Le Luxembourg, la Slovénie et la Pologne y participent déjà en tant qu’observateurs. L’objectif affiché est une réduction de la #dépendance de l’Union européenne « à l’égard des infrastructures et technologies numériques importées », qui « crée des vulnérabilités pour son économie et sa démocratie. L’une des priorités stratégiques de l’Europe est donc de renforcer les alternatives ouvertes, interopérables et souveraines.

    La mission du DC-EDIC est de mettre en œuvre un projet multinational sur les biens communs numériques dans les domaines de l’infrastructure et des services de données communs européens et de l’administration publique connectée. Elle mettra en commun les ressources des États membres et assurera la coordination avec les communautés afin de développer, de maintenir et d’étendre les biens communs numériques et de faciliter leur adoption. »

    Parmi les actions annoncées, le consortium devra « faciliter l’accès au financement, notamment par l’intermédiaire d’un guichet unique physique et en ligne et d’un pôle d’expertise ».

    IA, cloud, suites collaboratives, réseaux sociaux...

    Dans son propre communiqué, la Direction interministérielle du numérique (Dinum) précise que le consortium a pour objectifs de :

    • « proposer des alternatives ouvertes dans des domaines clés comme l’#intelligence_artificielle, le #cloud, les suites collaboratives, la #cybersécurité, la #géomatique ou les réseaux sociaux ;
    • renforcer l’écosystème européen en mobilisant les communautés techniques, académiques, publiques et privées ;
    • mettre en place un mécanisme de financement durable pour soutenir la production, la maintenance et la diffusion de ces communs à l’échelle européenne ;
    • encourager leur adoption par les administrations, les entreprises et les citoyens. »

    Par défaut sous #licence_libre

    La Commission indique que « pour maximiser la réutilisation et la transparence, tout logiciel développé conjointement est par défaut publié sous licence libre et open source. Les #marchés_publics respecteront les principes de non-discrimination et la politique en matière de données imposera des pratiques conformes au #RGPD, y compris des dispositions pour enquêter sur les atteintes à la sécurité.

    Les prochaines étapes prévues comprennent le recrutement officiel du directeur et de l’équipe fondatrice, et le lancement d’un projet de soutien au DEP [le Programme Europe numérique, un fonds de l’UE créé en 2021]. D’ici à 2027, #DC-EDIC mettra en place un guichet unique et un pôle d’expertise, ainsi qu’un forum et un prix sur les communs numériques et un rapport annuel sur l’état des communs numériques. »

    Ce consortium devrait être officiellement lancé le 11 décembre 2025 à La Haye, annonce la Dinum.

    Le #Programme_Europe_numérique indique qu’il « fournit un financement stratégique pour relever ces défis [les capacités numériques et la cybersécurité de l’UE], en soutenant des projets dans des domaines de compétences clés tels que le calcul haute performance, l’intelligence artificielle, la cybersécurité, les compétences numériques avancées et en veillant à la large diffusion des technologies numériques dans l’économie et la société.

    Il accompagne l’industrie, les petites et moyennes entreprises (PME) et l’administration publique dans leur transformation numérique grâce à un réseau renforcé de #pôles_européens_d'innovation_numérique (#PEI). »

    https://www.zdnet.fr/blogs/l-esprit-libre/alternatives-open-source-la-commission-europeenne-va-creer-un-consortium-pour-
    #alternative #souveraineté #interopérabilité #souveraineté_numérique

  • A cent jours des JO d’hiver, le village italien de #Cortina_d’Ampezzo pleure ses #mélèzes centenaires et craint les #glissements_de_terrain

    La terre a parlé. A quelques pas de la future piste olympique de Cortina d’Ampezzo, une #faille de 30 mètres de long s’est ouverte dans le sol, fin août. Au pied du dernier pylône de la nouvelle ligne de #télécabine (Apollonio-Socrepes), prévue pour transporter jusqu’à 2 400 personnes à l’heure, un dénivelé de 50 centimètres sépare désormais les deux côtés de la plaie, visible même à travers la bâche qui tente de cacher ce glissement de terrain. Les travaux sont stoppés, mais dans la vallée d’Ampezzo, à deux heures au nord de Venise, au cœur des #Dolomites, l’horloge géante installée sur le corso Italia continue de scander le compte à rebours avant les Jeux olympiques de Milan-Cortina qui doivent démarrer le 6 février 2026.

    L’affaire du #glissement_de_terrain a été portée en #justice par les habitants de deux hameaux juste au-dessous de ces travaux. Interrogé par Le Monde, le maire de Cortina, Gianluca Lorenzi, se veut rassurant : « Ce glissement reste très superficiel », affirme-t-il, ajoutant que « toutes les précautions sont prises ». C’est aussi ce que répond la société de construction des ouvrages olympiques (#Simico), pour qui « cet #affaissement n’est pas surprenant, étant donné la nature bien connue du sol » et de préciser que « ce projet avait obtenu toutes les autorisations ».

    Dans un rapport dévoilé par le Corriere delle Alpi, Eros Aiello, du centre de géotechnologie de l’université de Sienne conclut pourtant que « l’excavation a été réalisée sans les études géotechniques nécessaires, dans une zone sujette aux glissements de terrain, et sans mesures de protection préalables ». La géographe Carmen de Jong, de l’université de Strasbourg, qui suit depuis des années les effets des #grands_événements sur la #montagne, va même plus loin et craint qu’« en cas de conditions météorologiques inhabituelles pendant les Jeux, comme un réchauffement soudain et une fonte des neiges ou des pluies intenses, la sécurité des athlètes, des équipes d’encadrement et du public ne soit menacée ».

    (#paywall)
    https://www.lemonde.fr/planete/article/2025/10/26/a-cortina-d-ampezzo-les-futurs-jeux-d-hiver-2026-ont-transforme-l-environnem
    #JO #JO2026 #Italie #infrastructure #vulnérabilité

    • Squarcio di #Socrepes, esposto alla Procura della Repubblica

      Cortina, i residenti di #Lacedel, dopo tre ricorsi al Tar contro la cabinovia Apollonio-Socrepes, si rivolgono alla magistratura ipotizzando i reati di disastro e frana colposa.

      Residenti e proprietari di case del villaggio storico di Lacedel di Cortina d’Ampezzo, posizionato nell’immediata vicinanza della costruenda stazione d’arrivo della cabinovia Apollonio– Socrepes per i Giochi Olimpici e Paralimpici Invernali Milano–Cortina 2026, hanno depositato giovedì 12 settembre un esposto alla Procura della Repubblica di Belluno, con l’assistenza degli avvocati Primo, Andrea e Alessandro Michielan del Foro di Treviso. Nell’esposto vengono ipotizzate le responsabilità penali in base agli articoli 426 e 449 del codice penale (disastro e frana colposa), oltre a violazioni del decreto legislativo 81/2008 in materia di sicurezza sul lavoro, evidenziando l’assenza di un piano unitario di sicurezza per cantieri interferenti e la mancata ottemperanza alle prescrizioni del decreto di compatibilità ambientale regionale.

      I presentatori avevano già presentato tre ricorsi al Tar Lazio, anche a riguardo dei rischi idrogeologici relativi alla costruzione della cabinovia olimpica e alla sovrapposizione dei cantieri, la cui udienza di merito è fissata per il 29 ottobre 2025 ma, fanno sapere con una nota, «sono stati costretti alla denuncia per la tutela dell’incolumità privata e pubblica a seguito del fatto sopravvenuto, verificatosi tra il 29 e il 30 agosto 2025 e cioè una frattura, formazione di frana, di oltre 30 metri di lunghezza su un versante posto in località Socrepes a monte dell’abitato di Lacedel». La frattura inizialmente mostrava una apertura di circa 30 centimetri al piano campagna, mentre il terreno immediatamente a valle risultava visibilmente abbassato di oltre 30 centimetri. Il fenomeno si è ampliato nei giorni successivi e la frattura si è allungata fino a oltre 40 metri, con un abbassamento superiore ai 50 centimetri del terreno.

      Contestualmente è stata rilevata anche la deformazione del muro di contenimento in cemento armato del cantiere adiacente a quello della stazione di arrivo della cabinovia Apollonio-Socrepes, “Ski Bar Ria de Saco – Kraler” attualmente in costruzione, a conferma di un movimento franoso profondo e non superficiale che coinvolge l’intera lunghezza del pendio. Il pendio interessato dalla frana, infatti, si colloca in prossimità di tre cantieri in attività interferenti: la cabinovia Apollonio–Socrepes (opera olimpica B09.0 – SIMICO), lo Ski Bar Ria de Saco – di Franz Kraler & Co. e la nuova cabinovia SEM 243 Lacedel–Socrepes (di ISTA).

      «Si nota inoltre che, durante la primavera/estate 2025, la topografia della pista da sci denominata “H.1.35 Campo Scuola Baby” di competenza della società ISTA, nella zona a monte del Ski Bar Ria de Sacco, alla base del versante, era stata notevolmente modificata», fanno sapere ancora i ricorrenti attraverso i lorolegali. «La frattura e la formazione di una frana, sul versante dove è posizionata la cabinovia olimpica (con trasporto di 2.400 persone all’ora), è considerata dagli esperti tecnici incaricati di importante gravità e costringe i residenti alla denuncia per la tutela dell’incolumità privata e pubblica. Secondo la relazione tecnica del professore Eros Aiello, ricercatore e geologo del Centro di Geotecnologie dell’Università di Siena, riconosciuto anche a livello internazionale come rinomato studioso dei fenomeni geologici di frana, l’accertato sbancamento è stato eseguito senza le doverose indagini geotecniche in un ambiente “a rischio frana” e senza le previe “opere di presidio” per il consolidamento del versante, già instabile, generando un fenomeno franoso retrogressivo importante su un’area, già classificata dal Piano di Assetto Idrogeologico (PAI) come zona a rischio elevato».

      La frana, viene contestato, minaccia direttamente le abitazioni del villaggio di Lacedel, garage interrati, servizi e la viabilità della Strada regionale 48, con rischio concreto per la pubblica incolumità. I residenti e i loro legali chiedono che le autorità competenti dispongano l’immediata sospensione dei lavori e la messa in sicurezza del versante, mediante monitoraggi e consolidamenti preventivi.

      «La gravità della situazione di Cortina trova un parallelo in quanto accaduto a Livigno, dove la Procura di Sondrio ha disposto in questi giorni il sequestro del cantiere della nuova pista da sci destinata a ospitare gare di Coppa del Mondo, contestando carenze autorizzative e irregolarità nelle prescrizioni ambientali e di sicurezza», viene sottolineato. «Questo ulteriore intervento della magistratura conferma la necessità che tutte le opere connesse ai grandi eventi sportivi rispettino rigorosamente le normative vigenti, ponendo la tutela del territorio e della pubblica incolumità al di sopra di ogni interesse acceleratorio o commissariale».

      https://www.corrierealpi.it/speciali/olimpiadi-2026/squarcio-socrepes-esposto-procura-repubblica-residenti-lacedel-anttlvez

  • Les #cyclistes ont peut-être raison de brûler #arrêts et #feux_rouges. Voici pourquoi

    Sur nos routes, les interactions entre les différents usagers de la route sont souvent une source de #frustration, avec en tête d’affiche celles entre #automobilistes et cyclistes.

    Par exemple, plusieurs automobilistes sont frustrés de voir les vélos traverser une #intersection sans s’immobiliser complètement, alors qu’eux-mêmes se voient dans l’obligation de le faire.

    Pour beaucoup, ce geste est perçu comme une marque d’#indiscipline, voire une double mesure pour les cyclistes. En effet, les cyclistes ne semblent pas encourir de véritable #risque à ralentir au passage d’un panneau d’arrêt plutôt qu’à s’y immobiliser.

    En comparaison, les automobilistes risquent une amende salée pour conduite dangereuse s’ils brûlent un arrêt.

    Alors, faut-il exiger des cyclistes qu’ils respectent les mêmes #règles de la route que les automobilistes, ou au contraire, reconnaître que ces règles ne reflètent pas toujours la réalité du #vélo_en_ville ?

    En tant que professeur de droit à l’Université d’Ottawa spécialisé dans les questions d’#urbanisme, j’ai étudié diverses approches réglementaires adoptées à travers le monde, qui présentent différents avantages et désavantages.

    L’#égalité stricte entre les cyclistes et les conducteurs

    Au Québec, comme dans d’autres juridictions, les codes de la route s’imposent à tous les usagers, qu’ils soient automobilistes ou cyclistes.

    Par exemple, tous les usagers doivent faire un #arrêt_complet aux arrêts et aux feux rouges. Lorsqu’ils contreviennent à ces règles, les cyclistes « sont assujetti(s) aux mêmes obligations que le conducteur d’un véhicule », selon les mots de la Cour suprême du Canada.

    Ainsi, peu importe les différences entre une voiture et un vélo, la loi les traite de façon égale. Bien sûr, cette égalité demeure souvent théorique, car l’application des règles varie selon les contextes et les comportements.

    Une égalité trompeuse

    L’application uniforme des règles de la route peut sembler juste, mais peut créer une #fausse_égalité dans les faits.

    D’une part, les #risques associés aux différents moyens de transport sont incommensurables. Une voiture qui franchit un #feu_rouge peut causer des blessures graves, voire mortelles. Un cycliste, en revanche, peut difficilement infliger de tels #dommages.

    D’autre part, l’#efficacité du vélo dépend du maintien de la #vitesse. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.

    Traiter de la même manière deux moyens de transport si différents revient donc à privilégier implicitement l’automobile, un peu comme si l’on imposait les mêmes limitations de vitesse à un piéton et à un camion.

    L’arrêt Idaho

    Plutôt que de traiter les vélos et les voitures comme étant égaux, certaines juridictions ont opté pour une autre voie. Un exemple notable d’un traitement différent est celui de l’État de l’#Idaho.

    En Idaho, depuis 1982, les cyclistes peuvent traiter un panneau d’arrêt comme un cédez-le-passage et un feu rouge comme un panneau d’arrêt. Plusieurs États américains (comme l’Arkansas, le Colorado et l’Oregon) et pays, comme la France et la Belgique, ont adopté des règlements semblables. Au Canada et au Québec, des discussions sont en cours pour adopter un tel règlement.

    Il est important de noter que l’#arrêt_Idaho ne cherche pas à légaliser le chaos sur les routes. En effet, les cyclistes doivent quand même céder la priorité aux voitures qui les précèdent au panneau d’arrêt, ainsi qu’en tout temps aux piétons, et ne peuvent s’engager dans l’intersection que lorsqu’elle est libérée.

    L’arrêt Idaho a trois avantages principaux.

    Premièrement, la règle reconnaît que les dynamiques du vélo diffèrent fondamentalement de celles de la voiture, et ainsi, que ceux-ci ne peuvent pas être traités de façon équivalente.

    Deuxièmement, l’arrêt Idaho permet de décharger les tribunaux et les policiers de #contraventions.

    Troisièmement, l’efficacité du vélo dépend de la conservation de l’élan. S’arrêter complètement, encore et encore, décourage l’usage du vélo, malgré ses nombreux bénéfices pour la santé, l’environnement et la fluidité du trafic.

    Les effets de la #réforme

    Face à ces deux approches très différentes quant au #Code_de_la_route des vélos, on peut se demander laquelle est la plus appropriée.

    Plusieurs études empiriques indiquent que l’adoption de l’arrêt Idaho n’entraîne pas d’augmentation des collisions routières.

    Certaines études suggèrent même une diminution modeste des collisions avec l’Arrêt Idaho. En effet, les cyclistes libèrent plus rapidement les intersections, ce qui réduit leur exposition aux voitures. De plus, les automobilistes deviennent plus attentifs aux mouvements des cyclistes.

    D’ailleurs, la majorité des usagers de la route, automobilistes comme cyclistes, ne respectent souvent pas les arrêts de façon stricte. Selon une étude menée par la Société de l’assurance automobile du Québec (SAAQ), seulement 35 % des automobilistes font leurs arrêts correctement. Encore selon la SAAQ, seulement 27 % des cyclistes déclarent faire un arrêt complet aux panneaux d’arrêt obligatoires.

    Bref, l’adoption de l’arrêt Idaho ne créerait pas le chaos, mais viendrait encadrer une pratique déjà commune, et ce, sans compromettre la #sécurité publique, contrairement à certaines inquiétudes. Les cyclistes, qui s’arrêtent rarement complètement en l’absence de circulation, ralentissent toutefois avant de traverser, conscients de leur #vulnérabilité.

    Un changement de culture

    Par ailleurs, l’arrêt Idaho au Québec invite à une réflexion plus large.

    Depuis des décennies, nos lois et nos infrastructures routières sont conçues principalement pour les voitures. Plusieurs automobilistes considèrent encore que les cyclistes sont dangereux et adoptent des comportements délinquants.

    Pourtant, il est important de se souvenir que les voitures représentent le principal danger structurel sur nos routes, et que les cyclistes sont en réalité vulnérables. Ce danger structurel s’est d’ailleurs accru avec la croissance des véhicules utilitaires sport (VUS) et camions, ce qui augmente les risques pour les piétons et des cyclistes.

    L’adoption de l’arrêt Idaho ne donne pas un passe-droit aux cyclistes, mais reconnaît leurs réalités, et légitimise le vélo comme mode de transport, avec un code routier adapté à ses risques et à ses bénéfices. Cette réforme, modeste mais symbolique, pourrait s’inscrire dans un ensemble plus vaste de changements qui offriraient aux citoyens une véritable liberté et sécurité pour se déplacer.

    https://theconversation.com/les-cyclistes-ont-peut-etre-raison-de-bruler-arrets-et-feux-rouges-
    #urban_matter

    –-

    A mettre en lien avec cet autre article :
    Les cyclistes commettent beaucoup moins d’#infractions que les automobilistes
    https://seenthis.net/messages/1142996
    #vélo #mobilité_douce

    • Il me semble qu’il existe une échelle dite ? qui précise la responsabilité suivant le degré de dangerosité. Aux personnes qui conduisent d’adapter leur conduite.

      Poids lourd > Voiture > Moto > Cycliste > Trottinette > Piéton > Poussette

      Et sinon, quels sont ces règlements en france ?

      En Idaho, depuis 1982, les cyclistes peuvent traiter un panneau d’arrêt comme un cédez-le-passage et un feu rouge comme un panneau d’arrêt. Plusieurs États américains (comme l’Arkansas, le Colorado et l’Oregon) et pays, comme la France et la Belgique, ont adopté des règlements semblables .

    • Pour la France, une signalisation spécifique « cédez le passage aux feux » a fait son apparition (timide) pour autoriser une logique qui pourrait s’appliquer plus largement.
      https://www.ecologie.gouv.fr/sites/default/files/documents/Céder%20le%20passage%20au%20vélo.pdf

      Code de la route vélo : les règles de circulation (divers panneaux spécifiques)
      https://www.drivecase.fr/conseils-prevention/tag/conseils-experts

      Au Québec, il y a beaucoup plus panneaux stop aux intersections (au détriment des priorités à droite) en particulier en milieu urbain.

      Sinon, l’argument selon lequel ces pratiques différentes autorisées aux cyclistes éduquent les automobilistes me parait fondé. On peut en attendre une accidentologie en baisse.

    • Je me fais encore de temps en temps klaxonner quand je passe au rouge alors qu’il y a un panneau m’autorisant à le faire... (rappel d’ailleurs que l’usage de l’avertisseur sonore en ville est interdit en dehors d’un danger imminent) La mentalité de l’automobiliste moyen reste un mystère pour moi, d’autant plus quand je les entends déblatérer leurs conneries sur les autres usagers de la route à la pause du midi (le summum ayant été atteint par une collègue qui se réjouissait d’avoir vu une trottinette se planter).

    • Ici, les panneaux qui transforment un stop en cédez-le-passage pour les cyclistes sont toujours d’un intérêt extrêmement limité : c’est quasiment uniquement des autorisations de tourner à droite, jamais de traverser complètement le carrefour si la voie est libre.

      Je suspecte qu’en France, comme pour le Covid, on déteste l’idée d’un cédez-le-passage dont l’appréciation de sécurité serait laissée à l’usager…

      Sinon, un autre intérêt des autorisations différenciées : plutôt que de se préoccuper des abrutis qui gueulent parce que les vélos passent au rouge, ça permettrait de leur dire qu’ils n’ont qu’à se mettre au vélo pour profiter à leur tour de cette extraordinaire libéralité du code la route.

    • Sinon, il y a tout de même déjà une différence importante entre cyclistes et automobilistes : il n’y a pas de perte de points ni de retrait de permis quand on brûle un feu à vélo.
      https://www.service-public.gouv.fr/particuliers/vosdroits/F20443

      Non, si vous commettez à vélo une infraction au code de la route, vous ne perdez pas de points sur votre permis de conduire.

      Toutefois, vous pouvez être sanctionné par une amende.

      Par contre, je découvre qu’on peut tout de même se prendre un retrait de permis si on fait du vélo bourré :

      De plus, en cas d’infraction grave, le juge peut suspendre votre permis de conduire. Par exemple, en cas de conduite en état d’ivresse ou de mise en danger de la vie d’autrui.

      C’est ballot, parce que justement je prends le vélo exprès pour les sorties arrosées (vu que je suis un type responsable).

  • Les cyclistes commettent beaucoup moins d’#infractions que les automobilistes

    Contrairement à une idée reçue, le #taux_d'infraction des cyclistes est très largement inférieur à celui des #automobilistes. C’est en tout cas le résultat d’une étude danoise basée sur de nombreuses observations du #comportement aux #intersections.

    A l’aide de données provenant de caméras placées dans les carrefours de nombreuses grandes villes du pays, l’autorité routière du Danemark a observé le comportement des cyclistes. Le constat : en #ville, ils commettent beaucoup moins d’#infractions_routières que les automobilistes. Sur un total de 28 579 passages d’intersection par des #cyclistes, le pourcentage d’infraction est inférieur à 5% lorsqu’il existe des infrastructures cyclables, 14% lorsqu’elles sont inexistantes. L’infraction la plus répandue à vélo est le déplacement sur le #trottoir.

    Parallèlement, les autorités routières danoises ont recensé un taux d’infraction de 66% chez les automobilistes en ville, principalement des #excès_de_vitesse. Les conclusions sont les mêmes que celles d’une étude parue l’année dernière, cette fois sur un échantillon de 80 000 passages d’intersections. A Londres, une étude conduite il y a quelques années par l’autorité des transports, concluait qu’environ 16% des cyclistes y commettent des infractions.

    Les infractions des cyclistes, moins nombreuses mais plus visibles que celles des automobilistes

    Le constat peut étonner. Les cyclistes ont souvent la réputation de prendre de nombreuses libertés avec le code de la route, notamment de griller des feux rouges. C’est surtout que les infractions commises par des cyclistes sont en général plus #visibles : griller un #feu_rouge ou rouler sur un trottoir se voit davantage que les infractions commises régulièrement par des automobilistes en ville : excès de vitesse, refus de priorité à un passage piéton, usage de klaxon en absence de danger immédiat, oubli de clignotant, dépassement d’un cycliste à moins d’un mètre. Ces infractions sont souvent trop peu visibles ou trop habituelles pour être remarquées. En outre, de nombreux feux rouges en villes sont équipés de panneaux autorisant les cyclistes à passer, souvent pour tourner à droite, ce qui peut donner l’illusion d’une infraction.

    On ne dispose malheureusement pas encore d’études de ce type en France. On sait cependant que les infractions commises par les automobilistes y sont nombreuses. Selon la plupart des tests effectués, en l’absence de ralentisseurs, d’embouteillages ou de radars, une majorité d’automobilistes français ne respecte pas les zones 30. Et les remontées de données de vitesse des véhicules en free floating des villes européennes montrent que selon les villes, la limite de 50 km/h en ville est franchie dans 35% à 75% des cas.

    L’influence des #pistes_cyclables

    Le nombre d’infractions commises par les cyclistes baisse drastiquement en présence de pistes cyclables. Au Danemark, le taux d’infraction est même trois fois moins élevé. Mais les #infrastructures_cyclables ont également un impact positif sur la #mortalité_routière urbaine en général.

    Des chercheurs de l’Université de Denver ont analysé les données d’accidentologie de 24 grandes villes américaines sur une période de treize ans en étudiant les variables sociologiques, démographiques et leurs infrastructures. Selon leurs conclusions, le facteur le plus influent dans la baisse du nombre de morts sur les routes est l’existence de pistes cyclables. Plus une ville comporte d’infrastructures cyclables, plus ses rues sont sûres pour la totalité de ses habitants (pas seulement pour les cyclistes).

    Selon l’étude, ce type d’#infrastructure dans les villes y réduit la mortalité routière de 44% en moyenne et le nombre d’accidents graves de 50%. A Portland, où de nombreuses pistes cyclables ont été installées, la mortalité a même été réduite de 75% entre 1990 et 2015. La ville de Davis en Californie, considérée par beaucoup comme la capitale du vélo aux Etats-Unis, est également celle où la proportion de morts sur la route par habitant est la plus faible du pays, dix fois inférieure à la moyenne nationale.

    En Europe également, selon une étude de l’OCDE, plus une ville est équipée de pistes cyclables, plus le risque d’un accident mortel est faible : https://www.itf-oecd.org/sites/default/files/docs/road-safety-european-cities-performance-indicators.pdf

    https://www.liberation.fr/planete/2019/07/04/les-cyclistes-commettent-beaucoup-moins-d-infractions-que-les-automobilis
    #vélos #voitures #idées-reçus #stéréotypes #mobilité #mobilité_douce #urbanisme #géographie_urbaine

    ping @reka

  • Énergie et inégalités. Une #histoire_politique

    Pourquoi l’histoire de l’énergie est-elle intimement liée à celle des #inégalités_sociales ? Comment penser les débats sur la #transition_énergétique à l’aune des conflits de #répartition_des_richesses ?

    Depuis des millénaires, l’usage de l’énergie façonne les sociétés humaines, structurant leurs #hiérarchies et leurs #rapports_de_pouvoir. Sa maîtrise est un vecteur d’#émancipation autant qu’elle est un outil de #domination. La propriété des #ressources et des #infrastructures_énergétiques est un terrain de #luttes sociales, politiques et géostratégiques. Selon qui possède l’énergie, des choix de société radicalement différents peuvent advenir.

    Mais comment le lien entre énergie et inégalités s’est-il construit depuis la Préhistoire ? En croisant les résultats de la recherche en histoire économique, en archéologie et sciences du climat, Lucas Chancel s’attache à montrer comment, sur la longue durée, les cadres techniques et politiques qui déterminent les usages de l’énergie s’articulent avec la répartition des richesses entre individus, groupes sociaux et nations.

    L’histoire de l’énergie ne peut se résumer à sa dimension technique, ni à la somme des choix politiques passés. Elle ouvre sur une diversité de futurs possibles, où le découplage entre consommation d’énergie, #ressources_matérielles et #prospérité est indissociable de la question de la #justice_sociale.

    Ce livre défend une transition écologique fondée sur une #réappropriation_collective de l’énergie. En puisant dans les expériences de #redistribution des richesses du siècle passé, il esquisse une alternative au désastre écologique et aux inégalités extrêmes, à travers le développement de nouvelles formes de #propriété_publique et participative au XXIe siècle.

    https://www.seuil.com/ouvrage/energie-et-inegalites-lucas-chancel/9782021516128
    #livre #énergie #inégalités #histoire

  • Avec la nouvelle Fondation Cartier, le centre de Paris poursuit sa mue au service du luxe | Mediapart
    https://www.mediapart.fr/journal/culture-et-idees/241025/avec-la-nouvelle-fondation-cartier-le-centre-de-paris-poursuit-sa-mue-au-s

    « Abandonner [bd Raspail] l’un des plus beaux lieux du Paris des dernières années, une réussite qui a marqué l’histoire de l’architecture récente, l’un des bâtiments les plus radicaux de Jean Nouvel, un manifeste de ses réflexions sur la transparence, pour un édifice un peu bâtard, à la façade assez austère, régulière, plus ou moins perçu comme une dépendance du Louvre… Je n’ai pas tout de suite compris. » [comme on le verra, ça va s’arranger].

    « Cela en dit long sur l’effet magnétique de l’axe qui s’est solidifié du Centre Pompidou jusqu’au-delà de la Samaritaine. » « Le lieu où il faut être, pour toutes ces fondations privées d’art liées à de grandes entreprises de luxe, c’est désormais l’axe Bastille-Champs-Élysées, renchérit Françoise Fromonot, architecte et critique d’architecture. Tout ce monde s’agrège sur cet axe-là, qui est une voie très ancienne, un ancien decumanus [mot latin qui désigne une voie orientée est-ouest – ndlr] du temps de Lutèce, qu’avait ensuite réaffirmé Louis XIV. »

    « Les JOP ont présenté Paris comme la ville universelle, qui appartient à tout le monde, quand la majeure partie des lieux qui ont été mis en évidence sont des lieux désormais privés. C’est un coup de maître d’avoir privatisé le centre de Paris, tout en le faisant passer comme universel, qui plus est dans une fête d’ouverture des JOP de gauche. »

    Jean-Louis Violeau ne voit pas de contradiction entre ces deux mouvements, centrifuge et centripète : [avant, on trouvait tout à la Samaritaine, mais] « À mesure que le Grand Paris se fabrique et s’élargit, on ramène au centre tout un tas d’activités, un centre qui devient dévitalisé en termes d’habitat, mais qui reste un gisement de beauté. Plus personne n’y habite, mais beaucoup de choses s’y passent. »

    Et de poursuivre [car il n’y voit pas non plus de contradiction] : « On l’a peut-être un peu oublié sous le langage massif du marxisme, mais dans l’esprit du sociologue Henri Lefebvre [que je fais ici parler sous la torture], le “droit à la ville” – un “droit à” s’imposant souvent lorsque l’objet est menacé, comme l’on parle de “droit à l’eau” ou “droit à l’air”… –, c’était d’abord le “droit au centre” et donc aussi un “droit à la beauté”. »_

    avec ou sans droit, y a des gros coups de bottes qui se perdent.

    edit je connais mal les riches, y a erreur, c’est le groupe #Richemont qui possède #Cartier
    https://fr.wikipedia.org/wiki/Richemont_(entreprise)

    m’enfin oui pourra pas nier que le luxe bénéficie d’un super appel d’air dans cette ville (et ailleurs)

    #Paris #LVMH alltogether : #Delanoé #Hidalgo #Aillagon #macron #mécénat #architecture #Jean_Nouvel #patrimonialisation #ville_décor #luxe #tourisme

  • David Monniaux, directeur de recherche au CNRS : « Que se passerait-il si Trump ordonnait aux Gafam de cesser leurs services cloud à l’égard de nos gouvernements ? »
    https://www.lemonde.fr/idees/article/2025/10/23/david-monniaux-directeur-de-recherche-au-cnrs-que-se-passerait-il-si-trump-o

    Durant l’été 2025, la société Microsoft a confirmé qu’elle remettrait les données de ses utilisateurs aux autorités états-uniennes si celles-ci les réclamaient, quand bien même elles seraient stockées en France. Cette révélation n’avait rien de bien surprenant : il s’agit de l’application d’une loi américaine de 2018, le #Cloud_Act. Certes, cela contreviendrait aux lois européennes… mais une entreprise obéit en premier lieu aux lois de son pays.

    Donald Trump parle de retirer le soutien des Etats-Unis à l’Organisation du traité de l’Atlantique Nord (OTAN) au moment même où des appareils militaires russes violent l’espace aérien de pays membres, et il ordonne des mesures de rétorsion à l’égard du procureur de la Cour pénale internationale, Karim Khan. Microsoft, qui gère des services informatiques externalisés pour cette cour, a coupé le courrier électronique de ce magistrat.

    On peut très bien imaginer le président américain ayant un accès d’humeur à l’égard de la France, par exemple au motif qu’elle gênerait son « plan de paix » en Ukraine. Dans cette optique de « géopolitique fiction », que se passerait-il s’il ordonnait aux Gafam [Google, Apple, Facebook, Amazon, Microsoft] de cesser leurs services #cloud à l’égard de notre gouvernement, de nos services publics, de nos armées ?

    On m’objectera qu’il s’agit de spéculations, que de tels actes impliqueraient la rupture de contrats entre ces sociétés et leurs utilisateurs ainsi que des violations des droits français et européen. Cette objection est caduque : le gouvernement américain, qui a exprimé son désir d’occuper le Groenland, et qui coule dans les eaux internationales des bateaux soupçonnés de transporter de la drogue, n’a clairement que faire du droit, a fortiori du droit international ou étranger.

    Il nous faut au contraire examiner objectivement nos dépendances à des opérateurs étrangers, potentiellement hostiles, et y remédier. Nous en sommes arrivés là à force de refuser de considérer les aspects géopolitiques et à long terme de choix perçus comme purement techniques et commerciaux.

    La critique de la dépendance française à Microsoft est ancienne. En 1998, Roberto Di Cosmo publiait, avec Dominique Nora, Le Hold-Up planétaire (Calmann-Lévy et Editions 00h00), où il évoquait la pratique de cette société de la vente liée, et monopolistique, de systèmes d’exploitation et de logiciels de bureautique avec les ordinateurs professionnels et personnels. Toutefois, sa critique ne prit pas, notamment parce qu’elle n’était pas perçue comme politique, mais plutôt comme une fantaisie de « geek ». Les tentatives pour sortir de la dépendance, comme le remplacement de Windows par Ubuntu Linux à l’Assemblée nationale en 2007, furent souvent raillées. Microsoft, longtemps en situation de quasi-monopole et dégageant des marges considérables, a pu continuer d’extraire de la rente.

    Vulnérabilités à long terme

    La critique de Google émergea vers 2006, notamment après la parution du livre Google-moi. La deuxième mission de l’Amérique (Albin Michel, 2007), de la philosophe Barbara Cassin. Celle-ci, disposant d’un accès aux médias plus large et différent de celui d’un chercheur en informatique, réussit à politiser la question et à la sortir d’une couverture purement technique. Cependant, elle ne l’envisageait que sous un angle culturel (le « pillage » des bibliothèques patrimoniales, l’usage de l’anglais…) et n’abordait pas la question de la dépendance des entreprises et administrations.

    Revenons-en aux années 2020. Les piratages à répétition d’hôpitaux, d’universités – dont furent victimes, notamment, Paris Saclay et Grenoble INP –, d’entreprises, dont les services administratifs et financiers furent ensuite bloqués pendant des mois, illustrent bien notre dépendance au numérique. Le réflexe de certains a été de renoncer à gérer leur propre informatique et d’externaliser auprès de grands opérateurs étrangers.

    Ainsi, des organismes scientifiques externalisent leur bureautique chez des prestataires d’un pays, les Etats-Unis… soupçonné de pouvoir se livrer à de l’espionnage industriel. On recommande donc à leurs chercheurs de ne pas utiliser ces outils, y compris leur adresse de courrier électronique officielle, pour leurs activités de recherche ! Un des rares organismes publics qui aient eu une stratégie de long terme est la gendarmerie nationale, qui a d’abord remplacé la suite bureautique Microsoft par une suite libre, puis la quasi-totalité de ses postes Windows par sa propre distribution Linux (GendBuntu).

    Il est plus que temps pour la France et l’Europe de réagir à cette dépendance, par ailleurs très coûteuse, à des prestataires étrangers qui peuvent à tout moment lui couper ses infrastructures informatiques. Il est incompréhensible que l’on persiste dans des choix qui, s’ils peuvent apparaître plus économiques ou plus simples à court terme, nous engagent dans des vulnérabilités à long terme, alors que des solutions à base de logiciels libres, gérées localement, seraient souvent possibles.

    David Monniaux est directeur de recherche au CNRS, spécialiste de la cybersécurité.

    #infrastructures_informatiques #GAFAM

  • « Au diable l’environnement, donnez‑moi l’abondance ! » : pourquoi le backlash est structurel
    https://www.terrestres.org/2025/10/09/backlash-structurel-fressoz

    Et si ce que nous appelons backlash écologique n’était que la manifestation brutale d’un mouvement plus profond ? C’est la thèse défendue par l’historien Jean-Baptiste Fressoz dans ce court texte : ce qui nous revient en boomerang, c’est l’incompatibilité structurelle entre l’organisation matérielle de nos sociétés et toute perspective écologique. L’article « Au diable l’environnement, donnez‑moi l’abondance ! » : pourquoi le backlash est structurel est apparu en premier sur Terrestres.

    #Capitalisme #Climat #Décroissance #Energie #Greenwashing #Infrastructures

  • #IA : un rapport alerte sur le #risque de #conflit_d’usage de l’#électricité

    Les projets de #centres_de_données numériques sont si nombreux et si énormes que leur consommation d’électricité pourrait être multipliée par quatre d’ici dix ans en France, selon un #rapport du Shift Project (https://theshiftproject.org/app/uploads/2025/09/RF-PIA-1.pdf). Au risque de menacer la #décarbonation des transports et de l’industrie.

    Faudra-t-il bientôt instaurer en France un #moratoire sur les demandes de centres de données, ces bâtiments regroupant des installations informatiques chargées de stocker des données ? La question ne figure pas en toutes lettres dans le rapport que le #Shift_Project, une association d’expertise sur la #transition_énergétique, a publié mercredi 1er octobre sur les #infrastructures du numérique. Mais à sa lecture, elle semble inévitable. Car les estimations chiffrées de cette étude donnent le tournis.

    Le problème est simple : les estimations de consommation en électricité des centres de données ne cessent de croître. Elle pourrait être multipliée par quatre en France d’ici dix ans, et atteindre 7,5 % de la demande totale de courant électrique, soit plus du double de la part des transports aujourd’hui – contre 2 % actuellement.

    Or ce qui se passe à l’international invite à la plus grande vigilance. En #Irlande, un moratoire sur les nouvelles demandes d’implantation a été décidé en 2021 pour la région de Dublin, où se concentrent la plupart des centres de données. Ils avalent déjà 20 % de l’électricité disponible et pourraient monter à 30 % en 2028. Aux #Pays-Bas, le gouvernement a gelé les autorisations jusqu’en 2035 autour d’Amsterdam, afin d’éviter l’engorgement du système.

    Dérive climatique

    Aux États-Unis, le #Texas a voté une loi pour couper l’approvisionnement des centres de données en cas d’urgence et éviter un black-out. Et le gestionnaire de l’immense réseau desservant les #Grandes_Plaines (#Kansas, #Oklahoma, etc.) demande le même type de mesures. Quant à l’administration Trump, ouvertement climatosceptique, elle vient de publier un plan de relance du charbon pour renforcer la production d’électricité : « Nous voulons que des centres de données s’installent chez nous », a résumé le secrétaire à l’énergie, Chris Wright.

    La part de l’intelligence artificielle (IA) générative dans l’explosion de la demande en électricité du numérique est « considérable » selon le Shift Project : son utilisation « à grande échelle et façon indifférenciée » joue « un rôle central » dans la détérioration du #bilan_carbone du #numérique, et donc dans la dérive climatique.

    Or, les projets d’investissements affluent en #France, chaudement encouragés par l’Élysée. En février, lors du #Sommet_pour_l’action_sur_l’intelligence_artificielle, 109 milliards d’euros d’investissements dans les centres de données et l’IA ont été annoncés.

    Emmanuel Macron s’en est délecté, avec un slogan choc : « Plug, baby, plug » (« Branche-toi, chéri, branche-toi »), en miroir du fameux « Drill, baby, drill » (« Fore, chéri, fore ») de Donald Trump. Quelques mois plus tard, à l’occasion du sommet #Choose_France, 26 milliards d’investissements ont été confirmés par des géants du secteur : #Brookfield, #Digital_Realty et le fonds émirati #MGX.

    Abondance sans garantie

    Certaines de ces infrastructures atteignent une dimension inédite et réellement monstrueuse, dépassant même le seuil d’un gigawatt (GW) – mille mégawatts, une puissance qui s’approche de celle d’un réacteur nucléaire historique en France.

    Ainsi, le petit village de #Fouju (Seine-et-Marne), avec ses 631 habitant·es, pourrait se retrouver doté d’un centre de données de 1,4 GW – une concertation préalable s’ouvre le 13 octobre. À #Cambrai (Nord), une énorme installation de 1 GW est promise par #Data4, une filiale du fonds canadien #Brookfield. #Fluidstack, une plateforme cloud d’IA, a annoncé en février la signature d’un protocole d’accord avec le gouvernement français pour la construction d’un gigantesque supercalculateur pouvant fournir jusqu’à 1 GW de puissance de calcul.

    Pour Emmanuel Macron, « l’électricité est disponible, vous pouvez vous brancher, elle est prête ! ». Sa petite phrase au sommet de l’IA, début 2025, avait fait rire l’assistance. De fait, en 2024, la production d’électricité en France a atteint son plus haut niveau depuis cinq ans, avec 536,5 térawattheures (TWh), bien au-dessus de sa consommation. Ce qui lui a permis d’en exporter 89 TWh, un record historique et un apport substantiel à la balance commerciale nationale. De quoi disposer de larges réserves à vendre sans restriction aux opérateurs des centres de données ? C’est le discours confiant affiché par l’exécutif.

    La réalité est plus inquiétante, et c’est tout l’intérêt du rapport du Shift Project que de la documenter. D’abord, « les centres de données dont le raccordement se valide aujourd’hui verront leurs pics de consommation en 2035 », explique Pauline Denis, ingénieure de recherche numérique au sein de l’association. Autrement dit, l’abondance en énergie aujourd’hui ne garantit pas qu’il y aura suffisamment de courant pour les alimenter dans dix ans.

    Ensuite, la demande en électricité des centres de données va inévitablement entrer en concurrence avec d’autres besoins, au vu des volumes nécessaires : de 15 % à 23 % de l’électricité supplémentaire prévue par RTE, le gestionnaire de réseaux, en 2035. C’est vraiment beaucoup. Or, la décarbonation de certains secteurs industriels aussi émetteurs de CO2 que les transports, la production d’acier ou de carburants passe nécessairement par l’#électrification.

    « En France il existe un grand risque de conflit d’usage avec les #transports ou le #chauffage, prévient Pauline Denis, conserver la dynamique actuelle de centres de données rendrait caducs les objectifs de décarbonation de ces secteurs pour 2030 et 2050. »

    Les autrices et auteurs du rapport en concluent que « cette concurrence doit être accompagnée et arbitrée, afin de ne pas laisser le déploiement massif des centres de données mettre en péril d’autres transformations sans s’en rendre compte ». Car au niveau local, les centres de données les plus gourmands en électricité, et en particulier les monstres de plus de 1 GW, risquent à terme d’empêcher l’implantation de sites industriels, et donc leurs emplois.

    Quels emplois et pour qui ?

    À #Marseille, un des principaux hubs du pays, autorités et industriels se sont mis autour d’une table pour trouver une zone favorable au raccordement des de centres de données « qui n’entre pas en concurrence avec d’autres projets locaux, comme l’alimentation électrique des navires à quai dans le port, ou l’aménagement du quartier #Euroméditerranée », précise RTE. C’est notamment le cas au nord de la ville, dans la zone de #Plan_de_Campagne, où le foncier semblait plus facilement disponible.

    Maxime Efoui-Hess, coordinateur du programme numérique du Shift Project, met les pieds dans le plat : « Si on préempte la majorité de l’électricité pour l’usage des centres de données, elle va manquer à la décarbonation. » Les contrats d’approvisionnement actuellement signés avec les centres de données dans les Hauts-de-France « ne serviront pas à décarboner la sidérurgie de Dunkerque ». C’est donc autant un enjeu social qu’une alerte climatique : quelles activités énergivores, pour quel type d’emplois, les territoires choisissent-ils ?

    Et « quelle peut-être la réaction citoyenne à la préemption de telles capacités de production électrique pour les centres de données ? », interroge le rapport. Qui se demande aussi « quelle crédibilité auraient des politiques d’encouragement à la sobriété dans le logement si l’électricité dégagée est utilisée pour des centres de données ? »

    Sollicité par Mediapart, le gestionnaire du réseau français, #RTE, se montre moins inquiet : « L’offre d’électricité bas carbone est aujourd’hui abondante en France, le système électrique français possède des marges et est prêt à accueillir les nouveaux usages. » Concernant les besoins des infrastructures du numérique, « nous sommes en train de réactualiser nos trajectoires en tenant compte des annonces sur l’IA mais aussi en tenant compte du fait que la montée en puissance des centres de données est souvent assez lente ».

    En attendant, à Marseille comme à #Wissous en Essonne, où #Amazon construit un autre gros centre de données, des collectifs d’habitant·es se forment et dénoncent « l’accaparement » de leur territoire par les infrastructures numériques.

    https://www.mediapart.fr/journal/ecologie/011025/ia-un-rapport-alerte-sur-le-risque-de-conflit-d-usage-de-l-electricite
    #data_centers #intelligence_artificielle #AI

    • L’IA, dévoreuse d’énergie, pourrait entraîner une pénurie d’électricité aux Etats-Unis
      https://www.lemonde.fr/idees/article/2025/10/02/l-ia-devoreuse-d-energie-pourrait-entrainer-une-penurie-d-electricite-aux-et

      Depuis qu’Elon Musk a quitté Donald Trump, il est retourné à son #messianisme_futuriste, pour conquérir Mars mais aussi développer xAI, son entreprise d’intelligence artificielle (IA). Le multientrepreneur a construit, en 2024, un supercalculateur baptisé « Colossus », à Memphis, dans le Tennessee, pour entraîner son modèle Grok. Six milliards de dollars d’investissements (5,1 milliards d’euros), 350 000 puces ultrasophistiquées GPU et 260 mégawatts de puissance, soit un quart de réacteur nucléaire. Et ce n’est qu’un début. « De même que nous serons les premiers à mettre en ligne un gigawatt de calcul d’entraînement, nous serons également les premiers à mettre en ligne 10 GW, 100 GW, 1 TW, … », a posté l’homme le plus riche du monde sur X, le 22 septembre.

      Les puissances sont délirantes, un térawatt équivalant à 1 000 réacteurs nucléaires. On aurait tort de ricaner : l’Amérique est lancée dans une folie de consommation énergétique. Ainsi, le 22 septembre, le géant des microprocesseurs Nvidia et OpenAI, la firme qui a créé ChatGPT, ont annoncé des investissements de 100 milliards de dollars pour construire des centres de données consommant 10 gigawattheures, soit dix centrales nucléaires. « Il s’agit du plus grand projet d’infrastructures d’IA de l’histoire », a déclaré, ce jour-là, Jensen Huang, PDG de Nvidia.

      A moins que ne survienne une révolution susceptible de faire des économies d’énergie, l’IA s’annonce comme un véritable trou noir engloutissant l’électricité. Pour Elon Musk, ce n’est pas bien grave, l’énergie étant, selon lui, une ressource inépuisable, grâce au solaire, couplé aux batteries. « La Terre reçoit en une heure la même énergie du Soleil que ce que l’humanité consomme en un an », a-t-il écrit avant de préciser que « l’énergie solaire est de toute évidence l’avenir pour quiconque sait faire des mathématiques élémentaires ».

      https://justpaste.it/8p7vm

  • #Intelligence_artificielle : le vrai #coût_environnemental de la course à l’IA

    “L’IA et la réussite de la #transition_énergétique vont de pair. Nous n’assisterons pas à une transition à grande échelle vers une énergie sans carbone sans les avancées significatives que l’IA promet d’apporter.” Cette citation de Mélanie Nakagawa, la responsable développement durable de Microsoft en février 2025, est à l’image de la #pensée_magique que l’on rencontre de plus en plus fréquemment dans les médias et la société. Celle d’une IA mystique et providentielle qui serait la #solution à tous nos problèmes, et qui justifierait son développement effréné depuis l’arrivée de #ChatGPT en 2022.

    Alors qu’Emmanuel Macron a annoncé en février 2025 des #investissements privés de 109 milliards d’euros pour développer l’IA et que plus de 35 nouveaux projets de #centres_de_données ont été annoncés en France, nous vous proposons une analyse approfondie pour déconstruire ces discours et découvrir la #face_cachée de l’intelligence artificielle. Comme le résume la chercheuse en IA Kate Crawford, elle repose sur une triple #extraction : extraction de #ressources_naturelles, extraction de #données, #exploitation_humaine. Dans cet article nous nous concentrerons sur les impacts environnementaux directs de l’IA (consommation énergétique, émissions carbone, impacts locaux des data centers), mais insistons sur la nécessité d’appréhender ces technologies dans leur ensemble pour comprendre les bouleversements sociétaux que son adoption massive génère (enjeux de #pouvoir, #surveillance_de_masse, #militarisation, #inégalités sociales, etc)

    Nous commencerons par définir ce qu’est l’intelligence artificielle, son évolution récente, les acteurs qui la sous-tendent et détaillerons le fonctionnement particulier des #IA_génératives. Puis dans un second temps nous décrirons l’#infrastructure_matérielle qui la soutient. Loin de flotter au-dessus de toute réalité physique, comme le champ lexical du “cloud” et de la “dématérialisation” aime à nous le faire croire, ces #technologies ont des conséquences matérielles très tangibles.

    Sommaire

    - Qu’est ce que l’intelligence artificielle ?
    - L’ère de l’IA générative depuis la sortie de ChatGPT en 2022
    - L’IA, bien plus qu’une #technologie
    - Qui est derrière l’IA ?
    - Le voyage d’une requête ChatGPT
    - L’inférence pour l’usage quotidien
    – Le problème de la #transparence
    – Quel est l’impact d’une requête ChatGPT ?
    – L’optimisation de la #consommation_électrique de l’IA
    – Les impacts directs de l’intelligence artificielle
    – La consommation électrique des data centers explose à cause de l’IA
    – Émissions de #CO2, la roue libre
    – Google, Microsoft, Meta.. Quid des émissions des géants du numérique ?
    – La consommation d’#eau
    - Ressources abiotiques pour la fabrication des équipements et bâti : dépendance aux #métaux et à l’#industrie_chimique
    - Conclusion
    - Infographie

    https://bonpote.com/intelligence-artificielle-le-vrai-cout-environnemental-de-la-course-a-lia
    #IA #AI #environnement #à_lire

  • #Berlin immer noch nicht voll unter #Strom

    via https://diasp.eu/p/17860362

    siehe: https://www.tagesschau.de/inland/gesellschaft/stromausfall-berlin-108.html

    Der weiträumige Stromausfall in Berlin hält an - die Reparaturen könnten bis morgen dauern. Rund die Hälfte der betroffenen Kunden hat mittlerweile wieder Strom. Polizei und Feuerwehr bleiben weiterhin im Gebiet präsent.

    Das wirft doch irgendwie Fragen auf wie resilient die #Stromversorgung ist und wie leicht sie großflächig mit einfachen Mitteln sabotierbar ist. Wir geben schließlich Milliarden für die #Bundeswehr aus aber anscheinend nichts für ein Backup der Stromversorgung im #Notfall.

    #sabotage #Terror #Anschlag #Ausfall #Disaster #Problem #Politik #Sicherheit #Infrastruktur #Schutz #Resilienz #Gefahr #Bevölkerung (...)

  • #Video. Un gruppo internazionale di architetti propone un’idea di ricostruzione a Gaza basata sulle tradizioni locali
    https://www.assopacepalestina.org/2025/09/04/video-un-gruppo-internazionale-di-architetti-propone-unidea-di-ri

    4 settembre 2025 I co-fondatori di Architects for Gaza – Yara Sharif e Nasser Golzari – insieme ai giovani architetti volontari Lailac e Sarah, reinventano la ricostruzione di Gaza usando tecniche e materiali della tradizione locale, creando spazi di speranza e sfidando la cancellazione della storia palestinese. Le loro idee in questo video di 8 ... Leggi tutto

    #Notizie #ricostruire_Gaza

  • #Eyal_Weizman : Israël déploie à #Gaza une « #architecture_de_la_mort »

    Comment établir la #matérialité du #génocide ? Depuis le 7 octobre 2023, Forensic Architecture travaille à dévoiler par la #cartographie la #destruction_systématique, par #Israël, des #infrastructures de la société palestinienne, qui s’en trouve « déracinée ». Entretien avec son fondateur.

    Regroupant des architectes, des journalistes, des universitaires comme des artistes, le laboratoire pluridisciplinaire #Forensic_Architecture s’est illustré ces dernières années en enquêtant sur différents crimes de guerre, en Syrie ou en Ukraine, ou encore sur des violences policières. En septembre 2022, Forensic Architecture avait notamment montré comment l’armée israélienne a sciemment exécuté la journaliste Shireen Abu Akleh (Al Jazeera) au cours d’un reportage à Jénine (Cisjordanie).

    Au lendemain du 7-Octobre, l’équipe a commencé à travailler sur l’offensive israélienne contre Gaza, convaincue que s’y déroulait une entreprise de #destruction d’une ampleur inédite.

    Ce travail a abouti à la publication de plusieurs rapports visant à mener une « #cartographie_du_génocide ». L’un de ces rapports a montré en juillet l’organisation de la #famine par Israël, notamment à travers les attaques contre l’#agriculture.

    Le fondateur de Forensic Architecture, l’architecte israélien Eyal Weizman, explique à Mediapart pourquoi son organisation, basée à l’université Goldsmiths à Londres (Royaume-Uni), et qui compte désormais une douzaine de bureaux dans le monde, a choisi d’accompagner la plainte pour génocide déposée contre Israël devant la Cour internationale de justice à La Haye (Pays-Bas). Il revient sur la notion de « #génocide_colonial » au cœur de son prochain livre. Entretien.

    Mediapart : Forensic Architecture a commencé à documenter le génocide perpétré à Gaza juste après le 7-Octobre. De quelle manière travaillez-vous sur ce terrain ? Est-ce un travail de même nature que les enquêtes que vous avez menées jusque-là ?

    Eyal Weizman : Non, c’est complètement différent. Normalement, Forensic Architecture peut passer un an à travailler sur une séquence d’une seconde. Dans un cas de violence policière, par exemple, comme on l’a fait en France avec notre partenaire #Index, c’est dans cette temporalité que nous travaillons.

    Concernant le génocide en cours à Gaza, on ne peut évidemment pas fonctionner comme ça. Nous avons donc commencé par collecter des informations sur des dizaines de milliers d’événements, puis nous avons essayé de comprendre quels liens existaient entre toutes ces situations.

    Face à des #crimes_de_guerre, nous essayons d’établir si ce sont des civils ou des combattants qui ont été tués, si c’était proportionné, etc. Dans le cas d’un génocide, c’est la relation entre une énorme multiplicité de cas qui est déterminante. Est-ce qu’il y a un #système, un #dessein, un #plan ?

    L’#intentionnalité est au cœur de la notion de génocide, selon la Convention des Nations unies pour la prévention et la répression du crime de génocide. Elle peut être établie par des #schémas_d’action qui donnent un sens à des cas a priori isolés. Au-delà de toutes les déclarations génocidaires du gouvernement israélien depuis le 7-Octobre, notre travail a consisté à faire apparaître ces schémas sur nos cartes.

    De quelle manière ? Quels sont vos outils ?

    Concrètement, dans chaque cas que nous investiguons, le bombardement de tel centre alimentaire, la destruction de tel terrain agricole, nous sauvegardons les vidéos, les images que nous recevons, nous les authentifions et nous analysons « l’#incident » : cela s’est passé là à telle heure, tel jour, etc.

    Ensuite, nous avons différents #modèles_mathématiques pour regarder les relations entre ces différents événements. Quel est le système derrière ? Pouvons-nous établir qu’il y a un plan visant à détruire le peuple palestinien en tout ou en partie, ce qui est la définition du génocide ?

    Si nous voyons qu’Israël détruit systématiquement les #terres_agricoles, qu’ensuite il empêche l’#aide_alimentaire d’entrer dans Gaza et cible les centres de #distribution_alimentaire, le #dessein qui apparaît alors est celui d’affamer la population. La famine à Gaza est créée par cette multiplicité d’actions.

    L’article II, c) de la convention des Nations unies mentionne la « #soumission_intentionnelle » de la population à « à des conditions d’existence devant entraîner sa destruction physique totale ou partielle ». Vous ne tuez pas les gens directement, mais vous les tuez en détruisant l’#infrastructure qui rend leur vie possible.

    Si vous détruisez l’accès à la #nourriture, si vous détruisez les #hôpitaux, si vous détruisez les #écoles, si vous détruisez les #maisons, ce que j’appelle une « #violence_architecturale », alors les conditions de vie sont anéanties et la mort arrive lentement, parfois indirectement.

    La famine ravage aujourd’hui Gaza. Or vous montrez, notamment dans le dernier rapport de Forensic Architecture, qui couvre la période du 18 mars au 1er août, comment cela correspond à un objectif d’#anéantissement méthodiquement poursuivi.

    Gaza est une bande de terre longue et fine qui a deux types de sols. Des #sols sablonneux, du côté ouest, et des sols argileux à l’est. Quasiment toute l’agriculture à Gaza se situe à l’est de la route Salah al-Din, artère principale de la bande de Gaza. Et c’est cette partie qui a justement été la plus ciblée pour pousser la population vers les terres les plus difficiles à cultiver.

    Ce que nous avons vu depuis le début du génocide, c’est une campagne systématique pour détruire la #souveraineté_alimentaire palestinienne, par la destruction des #champs, des #vergers, la destruction des moyens de pêcher – tous les bateaux ont été détruits…

    Les Palestiniens n’ont plus les moyens de se nourrir. Ils dépendent entièrement de l’#aide_humanitaire qui passe par les checkpoints contrôlés par Israël. Israël a un contrôle total, peut ouvrir ou fermer le robinet. Parfois, il a dû l’ouvrir un peu sous la pression internationale, mais jamais assez.

    Toute la matrice de la société palestinienne, tous les lieux de distribution de la nourriture, les familles, les associations caritatives, les mosquées, les boulangeries, tout ce qui permet la #résilience de la population, a été systématiquement ciblé. C’est une tentative de détruire la société palestinienne, en attaquant les #liens_invisibles qui la constitue.

    À la place, Israël a construit des espaces nouveaux pour la distribution de nourriture qui sont en réalité des trappes de la mort.

    C’est-à-dire ?

    Vous devez penser Gaza à la fois comme une zone de #démolition et comme une zone de #construction. Parce que les #bulldozers israéliens détruisent les bâtiments palestiniens, mais avec les décombres, ils construisent une #architecture complètement nouvelle.

    Par exemple, ils ont construit des centres de distribution alimentaire à partir des gravats des maisons détruites, selon ce que j’appelle une architecture de la mort. Ils le font dans une petite enceinte qui devient un genre de « #trappe_de_mort » où les gens peuvent se faire facilement tirer dessus par les forces israéliennes. Tout est fait pour qu’il soit très compliqué et très dangereux d’essayer d’y obtenir de la nourriture.

    Les #gravats des maisons servent aussi à construire des jetées dans la mer, des petites #collines qui permettent à l’armée de surveiller Gaza, un territoire globalement plat.

    L’architecture, en tant qu’#organisation_de_l’espace, est un très bon cadre pour analyser le génocide car elle est basée, elle aussi, sur une intention.

    C’est ce qui forme la base de votre contribution à la plainte de l’Afrique du Sud contre Israël, devant la Cour internationale de justice, pour génocide.

    Oui, c’est tout ce travail qui a permis de produire un rapport de 825 pages pour l’équipe juridique de l’Afrique du Sud, qui sert de base factuelle dans cette procédure.

    Nous amenons des éléments de #preuve concernant la destruction des hôpitaux, de l’agriculture, de l’#éducation, l’organisation de la famine, et nous montrons comment tout cela marche ensemble.

    Nous considérons le procès intenté par l’Afrique du Sud contre Israël comme une chance pour les droits humains et le droit international. Ce qui s’y joue est, selon nous, très important. Qu’un pays qui a souffert de l’apartheid, qui a expérimenté le colonialisme de peuplement, un pays du Sud, attaque Israël, défendu par les pays occidentaux dans leur ensemble…, c’est un événement historique. C’est pourquoi nous sommes très engagés dans cette plainte.

    Nous n’avons pas l’illusion que la Cour puisse avoir un impact sur les événements en cours, mais il existe une puissance historique, symbolique dans cette affaire.

    Dans l’enquête que vous avez menée sur l’assassinat de la photojournaliste #Fatma_Hassona, vous dites que les forces israéliennes ont pixelisé l’image satellitaire de la toiture de sa maison pour brouiller les preuves. Est-ce de plus en plus compliqué pour vous de travailler avec les #images ? Les témoins qui vous envoient des photos, des vidéos, prennent aussi des risques énormes.

    Oui, c’est un enjeu. C’est très difficile de télécharger des vidéos à Gaza. Les connexions sont systématiquement coupées, trouver du réseau est difficile. Mais malgré les difficultés, malgré le fait que les personnes risquent leur vie pour tourner des images, les gens continuent à nous envoyer des #vidéos de Gaza comme des bouteilles à la mer.

    Vous ouvrez la bouteille, vous lisez ce message avec un soin infini pour honorer le risque qu’ils ont pris. Nous avons donc des protocoles très précis pour ne pas exposer nos sources sur le terrain. Nous faisons très attention à retirer toutes les indications qui pourraient permettre d’identifier ou de localiser nos sources.

    Nous ne sollicitons jamais de vidéos, de photos. Les gens nous les envoient parce qu’ils nous connaissent et qu’ils nous font confiance. Mais nous préférons encore les prendre lorsqu’elles sont déjà en ligne, parce que cela assure mieux la sécurité des personnes.

    Le climat dans lequel vous travaillez sur Gaza est particulièrement difficile. Votre bureau allemand a dû récemment fermer.

    L’État allemand a retiré les financements et, effectivement, cela a conduit à fermer ce bureau en janvier. De façon générale, après le 7-Octobre, j’ai été accusé d’être antisémite dans plusieurs pays où nous travaillons, en Israël bien sûr mais particulièrement en Allemagne. Pour moi qui viens d’une famille juive rescapée d’Auschwitz, entendre cela dans ce pays est particulièrement douloureux.

    Cela dit, nous avons encore une très petite équipe dans ce pays, qui vient juste de dévoiler un très important cas de violence policière lié aux manifestations de soutien à Gaza. La police avait accusé des manifestants d’avoir violemment molesté un policier à Berlin. Le gouvernement en avait profité pour interdire les manifestations de soutien à la Palestine. Nous avons pu établir que les faits étaient à l’opposé de la version officielle. En réalité, le policier a frappé un manifestant tellement fort qu’il s’est cassé la main. Donc, ils pensaient se débarrasser de nous mais ils n’ont pas complètement réussi…

    Concernant le climat, mon université à Londres est actuellement sous enquête pour antisémitisme et je sais que c’est en partie à cause de l’activité de Forensic Architecture.

    Je veux être très sérieux sur ce sujet, parce qu’il y a vraiment de l’antisémitisme, notamment en France, et il est meurtrier. La sécurité des juifs là où ils vivent doit être garantie.

    Mais Israël, à force de faire passer la défense des droits humains, le droit international pour de l’antisémitisme, crée encore plus d’#antisémitisme. Ce qui me donne de l’espoir, ce sont ces jeunes juifs dans différents pays qui rejettent l’État génocidaire. Ils sont le futur.

    Vous travaillez à un livre qui sortira dans quelques mois. Vous y parlez de ce que vous appelez « le génocide colonial ». Pouvez-vous nous en dire plus sur ce concept ?

    Quand on pense au génocide, nous avons en tête l’Holocauste. Un crime perpétré sur un temps et un espace resserré. Mais un génocide peut prendre différentes formes.

    Le génocide des Palestiniens n’a pas commencé le 7-Octobre. Pour le comprendre, il faut regarder l’#histoire_longue et la transformation de l’environnement, des lieux de vie palestiniens.

    Je voudrais, à travers un travail sur les cartes, sur les sols, revenir sur l’histoire de la création de la bande de Gaza, de l’expulsion des Palestiniens du sud de la Palestine et la façon dont les villages palestiniens ont été littéralement rayés de la carte. Il faut comprendre comment les #colonies_israéliennes ont été localisées sur ce territoire, en particulier les #kibboutz, construits sur les ruines des #villages_palestiniens.

    Ce sera, à travers l’#histoire_de_l’environnement et l’histoire des sols, une longue histoire de Gaza. Une grande partie des habitants de Gaza étaient auparavant des #bédouins. Pas des nomades, mais des #agriculteurs qui habitaient autour du fleuve #Waadi_Gaza. Ils y avaient élaboré des #techniques_agricoles très sophistiquées. Je travaille en particulier sur le village d’#Al-Ma’in, d’où viennent l’historien Salman Abu Sitta et le célèbre médecin palestinien Ghassan Abu Sitta.

    Nous essayons de reconstruire précisément la manière dont la colonisation a transformé le #paysage, l’#environnement. C’est ce qui permet d’inscrire le génocide post 7-Octobre dans un bien plus long processus de #colonialisme_de_peuplement, qui est une forme de génocide.

    Après le 7-Octobre, Israël a transformé Gaza en #désert. Mais là encore, c’est une histoire bien plus longue. On connaît le slogan revendiqué en Israël d’avoir fait « #fleurir_le_désert ». Mais Gaza n’a jamais été un désert. La région a toujours été habitée par des bédouins palestiniens qui cultivaient notamment de l’#orge à destination des Britanniques, qui s’en servaient pour la #bière. Jusqu’en 1948, c’était un territoire luxuriant.

    Vous travaillez sur l’#effacement de ces #traces. Voire, sur l’#effacement_des_traces_de_l’effacement, qui est aussi une caractéristique des entreprises génocidaires.

    Quand les Israéliens détruisaient un village palestinien, ils ne détruisaient pas seulement les bâtiments. Ils labouraient la terre, et même les #cimetières et les #routes.

    Et, s’il y avait un champ qui était labouré dans un sens, ils le labouraient dans l’autre sens. Pour effacer toute trace, effectivement, des formes de vie qui existaient jusque-là. Aujourd’hui, j’observe les mêmes phénomènes, à la différence que le labour est fait par des bulldozers.

    La destruction, c’est une chose. Par mon activité au sein de Forensic Architecture, j’ai vu beaucoup de destructions de bâtiments. Mais ce que je vois à Gaza, ce n’est pas simplement des bâtiments détruits, je vois la destruction des sols eux-mêmes, de la terre, ce que j’appelle « déraciner » Gaza.

    À l’époque de la création d’Israël, une forme de #torture vis-à-vis des Palestiniens était de les amener sur les lieux où leur village avait été rasé et dont il ne restait rien. Pas même une trace.

    C’est pour cela que vous avez voulu vous focaliser sur les sols, la #terre ?

    Oui, parce que organiser la #désertification à Gaza est politique. Construire des #barrages pour détourner l’#eau au profit d’Israël, c’est utiliser l’environnement pour expulser les Palestiniens de leurs #terres.

    #Créer_le_désert est une caractéristique continuelle du génocide. C’est la destruction des formes d’#habitabilité. D’abord Israël crée un désert, puis y envoie les Palestiniens. Si l’on pense au génocide arménien et au génocide en #Namibie par les Allemands, dans ces deux cas le désert a été un « outil » de destruction.

    Je travaille aussi sur les dommages causés en profondeur aux sols. Depuis le 7-Octobre, Israël a lancé des bombes qui explosent à 30 mètres sous terre, officiellement pour détruire les tunnels du Hamas.

    Ces bombes contiennent énormément de #produits_chimiques qui contaminent en profondeur les sols, et ce, pour des décennies. De l’eau salée a aussi été injectée dans la terre, ce qui a endommagé l’aquifère. La poussière de tous les bâtiments détruits à Gaza s’est infiltrée en profondeur et, là encore, va créer une pollution pour de très nombreuses années. C’est aussi politique. Contaminer les #sous-sols, c’est aussi détruire les capacités d’habiter des générations à venir.

    Je pense que le colonialisme de peuplement, comme l’a dit l’anthropologue Patrick Wolfe, a une logique d’#élimination. La plupart des gens qui meurent dans le génocide colonial ne meurent pas de façon violente. Bien sûr, il y a des #massacres. Mais les gens meurent de #causes_secondaires. C’est comme un génocide sur la durée.

    https://www.mediapart.fr/journal/international/010925/eyal-weizman-israel-deploie-gaza-une-architecture-de-la-mort

    #architecture_Forensique #ressources_pédagogiques #contamination #pollution #bombes #verticalité

    voir aussi :
    DIAGRAMMES - INTENTION GÉNOCIDAIRE
    https://seenthis.net/messages/1118337
    signalé par @reka

    ping @isskein

  • Schillerkiez: Kippt die Lage im Hipsterviertel?
    https://www.berliner-zeitung.de/mensch-metropole/schillerkiez-kippt-die-lage-im-hipsterviertel-li.2351926
    Jaja, willkommen im Hipsterland. Heult doch oder geht einfach dahin zurück, wo ihr herkommt, in die Schweiz, die USA oder am besten nach Australien. Einfach ganz weit weg. Wir kommen bestens ohne euch aus.

    Aus dem Artikel spricht die Haltung eines Menschen, der auch wegziehen kan. Der Kleinbürger kämpft nicht. Er berichtet. Wir bleiben hier, weil wir das wollen und müssen. Für uns ist Kampf angesagt. Kannste nichts machen.


    Foto
    Klamottenecke zwischen Herrfurthstraße und Weisestraße im SchillerkiezEmmanuele Contini/Berliner Zeitung

    2.9.2025 von Cedric Rehman - Der Neuköllner Stadtteil am Tempelhofer Feld gilt als angesagt und teuer. Drogenszene und Kriminalität bestimmen aber immer mehr den Alltag.

    Eine Menschentraube sammelt sich an der U-Bahn-Station Leinestraße im Neuköllner Schillerkiez. Zwei Einsatzwagen der Polizei stehen quer zur Zufahrt von der Hermannstraße in die Leinestraße. Ein Mann presst vor dem Aldi an der Ecke Hermannstraße und Leinestraße die Hände auf seine Augen und stöhnt. Eine Polizistin redet mit ruhiger Stimme auf den Mann ein. „Können Sie die Augen öffnen? Lassen Sie mich mal sehen, ob da Glassplitter sind“, sagt sie. Der Mann wimmert nur und schüttelt den Kopf.

    Die Passanten schweigen betreten. Sie wirken nicht wie neugierige Gaffer. Sie scheinen eher entsetzt zu sein über einen Gewaltausbruch am hellichten Tag auf einem ganz alttäglichen Weg. Einige klammern sich an ihre Einkaufstaschen. Sie hatten wohl gerade den Discounter angesteuert oder verlassen, als es am Eingang zur U-Bahn-Station knallte.

    Eine junge Frau telefoniert etwas weiter die Okerstraße hinunter in Richtung Tempelhofer Feld, sie hat die Notfallnummer gewählt, spricht aufgeregt. Der Mitarbeiter eines Cafés mit Spielautomaten klärt auf. „Bei uns liegt ein Verletzter. Wir brauchen einen Krankenwagen“, sagt der Mann. Die Passantin folgt dem Mann mit dem Handy am Ohr in das Café, um sich ein Bild von den Verletzungen zu machen.

    Laut Polizei geriet eine Gruppe Männer an der Hermannstraße in Streit, nachdem einem 19-Jährigen das Handy geklaut wurde. Die Männer attackierten den jungen Mann unter anderem mit einem Baseballschläger und einer Glasflasche. Ein 42-jähriger Mann erlitt durch Schläge innere Verletzungen. Er wollte dem 19-Jährigen helfen. Die Polizei nahm zwei Männer fest.

    Einer der Verletzten ist vor seinen Verfolgern wohl in das Café an der Okerstraße geflüchtet. Ich wurde zufällig Zeuge der Szene. Ich wohne mit Unterbrechung seit vier Jahren im Schillerkiez und will nun bei einem Rundgang durch mein Quartier herausfinden, wie Späti- und Gastronomie-Mitarbeiter die Sicherheitslage in dem beliebten Viertel am Tempelhofer Feld wahrnehmen. Meine Recherche hat mehrere Anlässe.

    Das Messer sitzt locker in Berlin-Neukölln

    Ein Mann urinierte am Vortag der Schlägerei vor dem Aldi an der Kienitzer Straße in ein Blumenbeet, während ich vorbeijoggte. Der Mann fühlte sich durch den Hinweis provoziert, dass ein Blumenbeet keine öffentliche Toilette sei. Er begann zu toben, zog sein T-Shirt hoch und führte seine Hand an den Hosenbund. Dort steckte ein Messer.

    Ich legte joggend einen Zahn zu, um aus seiner Reichweite zu verschwinden, und ärgerte mich über mich selbst. Fremde zu ermahnen, kann böse schiefgehen in Berlin. Wer wegschaut, vermeidet gerade in Neukölln Probleme.

    Mitte August patrouillierten bewaffnete Polizisten mehrere Tage lang vor dem Eingang eines Wohnhauses an der Hermannstraße. Sie standen in wechselnden Schichten mit ihren Dienstwaffen im Anschlag vor der Haustür. Laut Auskunft der Polizei gab es eine Lage, die eine „Objektschutzmaßnahme“ nötig gemacht habe. In einem Chat der betroffenen Hausgemeinschaft ist von nächtlichen Schüssen vor dem Hauseingang die Rede.

    Was ist los in dem Kiez, der nach der Schließung des Flughafens Tempelhof 2008 und der Umwandlung des Flughafengeländes in das Tempelhofer Feld eine Veränderung erlebt hat, wie sie vielleicht nur in Berlin möglich war? Jahrzehntelang donnerten die Flugzeuge über die Dächer des Kiezes hinweg. Der Schillerkiez war vor 2008 in Feinstaub gepudert. Es stank nach Kerosin.

    Viele Gebäude im Schillerkiez stammen aus der Gründerzeit

    In dem Viertel lebten viele Migranten in mit Stuck verzierten Wohnungen aus der Gründerzeit. Die Wohngegend rund um die Schillerpromenade galt um 1900 herum als gehoben. Der 1923 eröffnete Flughafen vertrieb mit Ruß und Lärm die Gutbetuchten. Arbeiter bezogen nach dem Zweiten Weltkrieg das Viertel. Der Flugverkehr nahm zu, und die Anwohner konnten die Landekappen und Triebwerke der Passagiermaschinen von unten sehen.

    Foto
    U-Bahnhof Leinestrasse im Schillerkiez in BerlinEmmanuele Contini/Berliner Zeitung

    Der Schillerkiez galt in den 1990er- und Nullerjahren als schlechte Gegend. Selbst nach der Eröffnung des Tempelhofer Feldes änderten sich die Strukturen zunächst kaum. Bis 2013 gab es eine vom damaligen Quartiersmanagement ins Leben gerufene „Taskforce Okerstraße“. Sie sollte Verwahrlosung und Probleme mit einer örtlichen Trinkerszene in den Griff bekommen.

    Im Blick hatte man besonders einige Gebäude an der Okerstraße. Hier wohnten vor allem eingewanderte Familien aus Südosteuropa in prekären Verhältnissen. Geht es jetzt, zwölf Jahre später, für den Schillerkiez zurück in die Vergangenheit?

    Im Schillerkiez gibt es seit 2020 kein Quartiersmanagement mehr. Trostlose Trinkhallen verschwanden nach und nach aus den Straßen rund um den Herrfurthplatz und die Schillerpromenade. Bars und Restaurants, um die Alteingesessene mit wenig Geld nach einem Blick auf die Preise wohl eher ein Bogen machten, haben sie ersetzt. Immobilienfirmen kauften sich ein im Kiez. Die Mieten stiegen. Die Popularität des Tempelhofer Feldes zeigte schließlich Wirkung.

    Ein neues Bürgertum flaniert an Wochenenden über den Wochenmarkt rund um die Genezarethkirche. Es kombiniert ausgebeulte Lederjacken mit teuren Sonnenbrillen, bezahlt französische Käsesorten mit Kreditkarte und gönnt sich in aller Lässigkeit den ersten Spritz an sonnigen Vormittagen. Umgangssprache ist selbst unter in Deutschland Geborenen Englisch.

    Es wird von Bedienungen in vielen Lokalen gesprochen, und wer dazugehören will, zeigt gern, wie polyglott er ist, selbst wenn die Muttersprache Deutsch ist.

    Das Tempelhofer Feld zieht Erholungsuchende an

    Im Sommer pilgern nicht nur die Kiezbewohner auf das Tempelhofer Feld. Tausende Berliner und Besucher aus aller Welt machen es sich auf der Grünfläche bequem. Sie schauen Skatern zu, die auf den Start- und Landebahnen entlangsausen, als würden sie gleich abheben. Migranten, die nicht wegen ihrer guten Jobs und hohen Qualifikationen „Expats“ genannt und umworben werden, fallen im Schillerkiez kaum auf.

    Sie sitzen nicht in den hippen Cafés, sondern auf Hockern vor den Spätis oder an den Kassen der Supermärkte. Auch die Rocker aus den wilden 90ern sind im Schillerkiez kaum mehr zu sehen. Manche ältere Herren in Biker-Kluft trinken noch im Bierbaum 3 an der Schillerpromenade. Sie müssen sich den Tresen mit den hippen Zugezogenen teilen, die mal einen „Futschi“ probieren und sich dabei authentisch fühlen wollen.

    Eine unsichtbare Grenze schien den Schillerkiez entlang der Hermannstraße vom Rest des Bezirks zu trennen. Kleidungsstil, Sprache, kulinarische Vorlieben und vor allem der Geldbeutel separierten die Welten.

    Doch Neukölln weigert sich, nur die Staffage zu liefern für das urbane Lebensgefühl der Happy Few. Die Realität jenseits der Hermannstraße sickerte ein in das Bullerbü der Hipster. Wer auf einer der Kneipenterrassen am Herrfurthplatz sitzt, wird im Minutentakt angeschnorrt. In einem französischen Lokal an der Kienitzer Straße werden Austern serviert. Vorbei schleppen sich von harten Drogen und dem Leben auf der Straße gezeichnete Elendsgestalten. Manche schreien dabei wüste Beschimpfungen, als würden sie mit unsichtbaren Dämonen fechten.

    Abhängige konsumieren am U-Bahnhof Leinestraße in aller Öffentlichkeit ihren Stoff. Das träge machende Heroin wird nach Augenschein immer mehr durch das in Glaspfeifen gerauchte und Aggressionen verursachende Crack ersetzt. Wer die U8 an der Leinestraße verlässt, hält manchmal besser den Atem an. Scharf riechende Dämpfe wabern in Schwaden durch die Station.

    Der Müll verhält sich im Schillerkiez wie eine sich rasch ausbreitende Infektionskrankheit. Liegt Krempel vor einem Hauseingang, türmen sich bald ganze Berge von zerschlissener Kleidung und noch unappetitlicheren Abfällen auf dem Gehweg. Blumenbeete werden wie bereits geschildert mit menschlichen Ausscheidungen gedüngt. Zu hohen Mieten und Immobilienpreisen gibt es Verwahrlosung und eine tägliche Portion Elend in der Premiumlage am Tempelhofer Feld gratis dazu. Austern können im Schillerkiez zu kühlem Weißwein geschlürft werden. Obdachlose liegen fußläufig entfernt in Decken gehüllt im Straßendreck. Wohl bekomms!
    Späti-Betreiber an der Okerstraße fühlt sich an schlimme Zeiten erinnert

    Die Hilflosigkeit ist mit Händen zu greifen. Ein Späti-Betreiber an der Okerstraße erzählt, dass die Polizei täglich mit Blaulicht an seinem Laden vorbeibrause. Die Lage im Schillerkiez ist seinem Eindruck nach dabei, wieder zu kippen. „Es ist fast so schlimm wie früher“, sagt er.

    Foto
    Drogenabhängige im Schillerkiez im August 2025 Emmanuele Contini/Berliner Zeitung

    Die Kriminalitätsbelastung der Bezirke und Bezirksregionen Berlins wird mit der sogenannten Häufigkeitszahl (HZ) dargestellt. Sie bezieht die Zahl bekannt gewordener Fälle auf je 100.000 Einwohner. Laut Kriminalitätsatlas der Berliner Polizei betrug die Häufigkeitszahl an der Schillerpromenade 2024 14.475. Im Vorjahr lag die HZ bei 14.000. Der Schillerkiez ist auf der virtuellen Karte der Polizei rot markiert. Es geht allerdings noch tiefer ins Rote in Neukölln. Am nahe gelegenen Hermannplatz lag die HZ über 23.000.

    Ein Sprecher des Bezirksamts Neukölln betont, dass dem Bezirk die Probleme bekannt seien. Er verweist unter anderem auf den Verein Fixpunkt. Der betreibt ein Drogenkonsummobil, das auch den Anita-Berber-Park im Schillerkiez ansteuert. Die Ironie scheint niemandem aufzufallen. Die Berliner Tänzerin und Femme Fatale aus den Goldenen 20ern richtete sich mit Alkohol, Morphin und Kokain zugrunde.

    Laut Bezirksamt gehört der nach der Künstlerin benannte Park an der Hermannstraße der Autobahngesellschaft, er ist eine Ausgleichsfläche für die A100. „Durch diese Zugehörigkeit sind aber bereits grundlegend die Möglichkeiten des Bezirksamtes sehr eingeschränkt“, teilt der Sprecher mit. Grundsätzlich fehlten dem Bezirk legale Konsumräume und Notübernachtungsplätze für die Szene. Finanzielle Mittel seien dafür nicht vorhanden, erklärt er.

    In einem Drogenkonsumraum können Substanzen unter hygienischen Bedingungen und unter Aufsicht eingenommen werden. Die Drogen müssen nicht auf Spielplätzen oder in Hausfluren injiziert oder inhaliert werden. Der für das auch den Anita-Berber-Park ansteuernde Mobil zuständige Mitarbeiter von Fixpunkt will kein Gespräch über seine Arbeit im Schillerkiez führen. Es gebe zu viele Presseanfragen, teilt er mit.

    Berliner Sucht- und Drogenberatungsstellen warnten im Herbst 2024 in einem Schreiben an die Fraktionen im Berliner Abgeordnetenhaus vor einer Ausdünnung der Angebote durch finanzielle Kürzungen. Das Streichen der Mittel belaste das Gesundheits- und das Sozialsystem, erklärten unter anderem die Stiftung Sozialpädagogisches Institut Berlin Walter May (SPI), die Integrative Suchtberatung Mitte der Caritas und der Berliner Drogennotdienst. „Nicht zuletzt wird dadurch auch die öffentliche und soziale Sicherheit in der Stadt beeinträchtigt“, hieß es in dem Schreiben.

    Die Senatsverwaltung für Stadtentwicklung, Bauen und Wohnen nutzt in Abstimmung mit dem Bezirk Neukölln Mittel aus dem Bund-Länder-Programm „Lebendige Zentren und Quartiere“, um den Schillerkiez weiter zu entwickeln. Unter anderem sind Neupflanzungen von Straßenbäumen als Anpassung an den Klimawandel geplant. Mehr Sicherheit und Sauberkeit im Quartier stehen bisher nicht auf der Agenda. Im Juli konnten Anwohner sich immerhin an einer Online-Umfrage zur Müllverschmutzung beteiligen.

    Die Kiezbewohner können auf ihren täglichen Wegen Not und Misere nicht mehr aus dem Weg gehen. Die Vergangenheit des früheren Brennpunktviertels kriecht in schwierigen Zeiten für Berlin und das besonders von sozialen Schieflagen geplagte Neukölln aus den Ritzen. Den Anwohnern bleibt die Erkenntnis, dass sie nicht wie auf einer Insel leben können. Läuft es überall schlecht, kann es niemandem gut gehen.

    #A100
    #Bezirke
    #Polizei
    #Gesundheit
    #Wohnen
    #Mobilitä
    #Infrastruktur
    #Bauen
    #Wohnen

    #Berlin #Neukölln #Hermannstraße #Schillerpromenade #Herrfurthstraße #Weisestraße #Leinestraße #Okerstraße #Kienitzer_Straße

  • Glasfaserausbau in Berlin: Müssen die Mieter jetzt die Rechnung zahlen?
    https://www.berliner-zeitung.de/mensch-metropole/glasfaserausbau-in-berlin-muessen-die-mieter-jetzt-die-rechnung-zah

    Tolles Thema aber null Info im Artikel. Wieso? Wer in den unterschiedlichen Konfigurationen genau wie viel zahlen muss und wo die Konfliklinien verlaufen hätten wir gerne erfahren. Dazu erfahren wir nur Andeutungen. Muss man sich nun kümmern? Kann man Einfluss auf die Lage nehem? Nichts als Mysterien.

    2.9.2025 von Yoko Rödel - Berlin hinkt im Vergleich zu anderen Ländern noch immer beim Glasfasernetz hinterher. Nun schreitet der Ausbau voran, doch wer trägt die Kosten für den Ausbau?

    Ohne Glasfaser keine Digitalisierung: Schnelle und stabile Netze sind Grundvoraussetzung für eine leistungsfähige digitale Infrastruktur – doch die genau fehlt. Nicht nur im europäischen Vergleich ist Deutschland in Sachen Digitalisierung weit abgeschlagen – sogar Länder wie Ruanda oder Südafrika verfügen längst über flächendeckende Glasfasernetze.

    In der Hauptstadt ist der Netzausbau bislang nur punktuell erfolgt. Immer mehr Unternehmen meiden Berlin inzwischen und weichen auf andere Metropolen mit einer leistungsfähigeren digitalen Infrastruktur aus. Das soll sich nun ändern – doch während der Glasfaserausbau in der Hauptstadt voranschreitet, stellt sich einmal mehr die Frage: Wer zahlt die Rechnung?

    Glasfaserausbau in Berlin: Mieter unter Druck

    Der Deutsche Mieterbund warnt ausdrücklich davor, die Kosten auf die Mieter abzuwälzen. Das kommt nicht von ungefähr: Zwar wurde die Umlage von Kabel- und Breitbandgebühren über die Mietnebenkosten seit einer Novelle des Telekommunikationsmodernisierungsgesetzes im Jahr 2021 stark eingeschränkt und ist seit Juli 2024 sogar ganz untersagt.

    Doch ganz ausgeschlossen ist eine Belastung der Mieter dennoch nicht: Denn Netzbetreiber könnten mit Vermietern gesonderte Verträge schließen und dabei die Preise kräftig anziehen. Außerdem könnte der Glasfasernetzausbau als Teil der Modernisierungsumlage auf die Mieter abgewälzt werden. Genau diese gesetzliche Grauzone moniert der Mieterverbund und fordert daher eine klare Regelung durch den Gesetzgeber.

    Gerade in der Hauptstadt ist die Sorge groß, dass die Mieter zur Kasse gebeten werden könnten. Denn in Berlin wohnen mehr als 80 Prozent aller Menschen zur Miete. Der Großteil von ihnen gibt bereits mehr als die Hälfte seines Einkommens für Wohnkosten aus. Würden zusätzliche Kosten im Zuge des Glasfaserausbaus auf die Nebenkosten aufgeschlagen, träfe das die Hauptstadt besonders hart.

    Digitalisierung bringt Eigentümer unter Zugzwang

    Der Eigentümerverband Wohnen im Eigentum (WiE) indes betont, die Schuld liege dabei keineswegs bei den Eigentümern: Nach Plänen des Bundesministeriums für Digitalisierung und Staatsmodernisierung (BMDS) sollen Telekommunikationsunternehmen künftig ein Recht auf Vollausbau in Mehrfamilienhäusern erhalten – und dieses auch gegen den Willen der Eigentümer durchsetzen können.

    Wohnen im Eigentum warnt vor einem „Anschluss- und Benutzungszwang durch die Hintertür“ und kritisiert das geplante Glasfaserbereitstellungsentgelt, das von 540 auf bis zu 960 Euro pro Wohnung steigen soll. „Diese Anhebung ist weder nachvollziehbar noch sachlich begründet“, so WiE-Vorständin Sandra von Möller.

    De facto bleibe Eigentümern häufig gar keine andere Wahl, als das Entgelt in die Nebenkostenabrechnung ihrer Mieter aufzunehmen. WiE fordert daher mehr Transparenz und längere Fristen für Wohnungseigentümergemeinschaften.

    Glasfaser ja, aber nicht auf Kosten der Berliner

    Für Berlin steht viel auf dem Spiel: Wohl ist die digitale Zukunft ohne den Glasfaserausbau kaum denkbar. Doch die Furcht ist groß, die Digitalisierung könnte zur Kostenfalle werden. In Zeiten der Inflation und steigender Miet- und Immobilienpreise würde dies Tausende Menschen vor enorme Belastungen stellen.

    Experten sind sich einig: Damit der Ausbau nicht zur Kostenfalle wird, braucht es klare gesetzliche Regelungen, transparente Entgeltstrukturen und eine stärkere öffentliche Förderung. Glasfaser ja – aber nicht auf dem Rücken der Berliner Mieter und Eigentümer.

    #Berlin #Internet #Infrastruktur

  • #Codeberg - Mastodon
    https://social.anoxinon.de/@Codeberg/115033790447125787

    It seems like the #AI #crawlers learned how to solve the #Anubis #challenges. Anubis is a tool hosted on our #infrastructure that requires #browsers to do some heavy #computation before accessing Codeberg again. It really saved us tons of nerves over the past months, because it saved us from manually maintaining #blocklists to having a working detection for “real browsers” and “AI crawlers”.

  • L’#Allemagne vacille sur ses infrastructures en ruines

    Les Allemands, qui paient le prix d’années de sous-investissements publics, attendent beaucoup du fonds spécial de 500 milliards pour rénover leurs infrastructures. Mais ce dernier pourrait être mois ambitieux qu’annoncé.

    La fermeture de la voie nord du « périphérique » de Berlin (A100), en mars dernier, est tombée sans crier gare. Après la découverte d’importantes fissures dans le tablier et les piliers du Ringbahnbrücke, un tronçon d’autoroute suspendu de plus de 200 mètres, les autorités en charge ont décidé de fermer d’urgence les trois voies qui montent vers le nord.

    (#paywall)

    https://www.alternatives-economiques.fr/lallemagne-vacille-infrastructures-ruines/00115781
    #infrastructure #investissement #sous-investissement #it_has_begun

    • La fermeture de la voie nord du « périphérique » de Berlin (A100), en mars dernier, est arrivée sans crier gare. Après la découverte d’importantes fissures dans le tablier et les piliers du Ringbahnbrücke, un tronçon d’autoroute suspendu de plus de 200 mètres, les autorités en charge ont décidé de fermer d’urgence les trois voies qui montent vers le nord.

      Sur les trois restantes, une circulation à double sens a été organisée en catastrophe pour permettre le passage d’environ 20 000 véhicules par jour. Puis, pendant un mois, les pinces à béton des pelleteuses ont grignoté jour et nuit le pont défaillant. Le tout sur webcam et avec une belle couverture médiatique pour garantir aux Berlinois que la puissance publique peut réagir vite. Mais les experts les plus optimistes pensent que la reconstruction ne prendra pas moins de quatre ans…

      Cette fois-ci, Berlin a évité de justesse une catastrophe du type de l’effondrement du Pont Morandi à Gênes en 2018 dans lequel 43 personnes avaient trouvé la mort. Mais sur les 2 700 ponts que compte la capitale, pour la plupart construits dans les années 1960, seulement 25 % sont considérés en bon état. A l’époque, personne n’avait prévu l’explosion du trafic routier ou l’augmentation significative du poids des camions. Aujourd’hui, 120 ponts sont dans un état critique et doivent être rénovés d’urgence.

      « Nous devons absolument parvenir à accélérer la planification et les procédures administratives au niveau fédéral et régional », constate Uta Bonde, la sénatrice CDU du Land de Berlin en charge des transports.

      Arne Huhn, référent de la ville de Berlin pour les ponts, pointe aussi le manque cruel de personnel. Onze de ses collaborateurs directs sont en CDD, a-t-il expliqué à la presse locale. Et une seule personne au sein de l’administration communale des Transports est responsable de l’inspection des ouvrages : « Nous essayons de compenser en faisant appel à des cabinets externes. »
      Conséquences économiques

      L’histoire du Ringbahnbrücke n’est pas isolée en Allemagne. Le ministère fédéral des Transport évalue à environ 4 000 de nombre de ponts dans un état critique. Les histoires de catastrophes évitées de justesse pullulent.

      Comme à Dresde, où un morceau des tabliers du pont Carola, qui enjambe l’Elbe et relie les deux parties de la ville, s’est effondré dans le fleuve le 11 septembre 2024 à trois heures du matin. Sans faire de victime, mais en emportant les voies de tramway et les pistes cyclables, et en sectionnant deux conduites centrales pour le chauffage urbain.

      Le risque n’est pas seulement humain, mais aussi économique et écologique. La Société de construction routière du Land de Rhénanie-du-Nord-Westphalie a par exemple évalué que pour tenir les objectifs régionaux de développement du parc éolien, plus de 20 000 convois exceptionnels devraient sillonner le Land d’ici à 2027. Or, dans la région, près de 1 000 ponts sont interdits aux transports spéciaux et autres convois exceptionnels. Bien sûr, des itinéraires de délestage existent. Mais le coût et le temps de transport des mâts, pales et turbines d’éoliennes risquent d’exploser.

      L’effondrement du tunnel ferroviaire de Rastatt, lors de travaux de forage en 2017, montre que les conséquences peuvent aussi sortir du cadre national. Cet accident a bloqué pendant des semaines le crucial corridor Rhin-Alpes qui relie par le rail les ports de Gênes et de Rotterdam en passant par l’Allemagne et la Suisse. L’interruption totale pendant sept semaines a conduit au détournement de 1 200 trains de marchandises par semaine avec un chaos ferroviaire et des pertes estimées à au moins 2 milliards d’euros. Toujours fermé, le tunnel doit ouvrir en 2026.
      Le rail mal en point

      Pour un pays fortement exportateur et qui joue, en principe, un rôle central de plateforme logistique pour les convois militaires de l’Otan, l’état des 33 000 kilomètres de rails du réseau ferroviaire allemand est particulièrement délabré. C’est la conséquence de décennies de sous-investissements et mais aussi d’une tentative désastreuse d’introduction en Bourse de la Deutsche Bahn, la SNCF allemande.

      L’état des 33 000 km de rails du réseau ferroviaire allemand est particulièrement délabré. C’est la conséquence de décennies de sous-investissements

      Les grands axes principaux, tels que Cologne-Francfort, Francfort-Mannheim ou Hambourg-Berlin sont complètement saturés. Selon la DB, 26 % des aiguillages sont en mauvais état, mais aussi 11 % des ponts, 23 % des voies, 42 % des passages à niveau et 48 % des postes d’aiguillages.

      « Le réseau allemand est en partie trop vieux et manque de capacités », résumait Phillip Nagl, le président du conseil d’administration de DB InfraGO, (gestionnaire du réseau ferroviaire), dans un rapport interne de 2023.

      Le retard d’investissements est évalué à au moins 100 milliards d’euros. Fin 2024, Deutsche Bahn a finalement lancé le programme de rénovation dit « S3 », soit 53 milliards d’euros d’investissements dans le réseau et les gares, dont 26 milliards d’euros pour la remise en état des grands corridors, comme la liaison Berlin-Hambourg, qui est entièrement interrompue à partir de ce mois d’août et pour neuf mois.

      La réalisation de ces chantiers doit être en principe bouclée entre 2027 et 2030. En attendant, le taux de ponctualité des grandes lignes de trains continue à s’effriter avec seulement 65,2 % des trains arrivés à l’heure en 2024, contre 80,2 % en 2020.

      La DB a aussi accumulé une dette de 32,57 milliards d’euros. En 2024, on compte 700 millions de manques à gagner du fait de la grève des conducteurs de locomotives, mais surtout des dédommagements colossaux versés aux clients.
      Sous-investissement chronique

      Ces infrastructures en mauvais état soulignent le sous-investissement public chronique :

      « Aucun pays de l’UE n’investit aussi peu dans ses infrastructures publiques que l’Allemagne. En moyenne européenne, environ 3,7 % du PIB ont été consacrés chaque année depuis 2000 aux routes, à la construction d’écoles et à d’autres investissements publics. Avec une moyenne de 2,1 %, l’Allemagne se situe nettement en dessous », souligne Felix Rôsel, professeur d’économie urbaine et régionale à l’Université technique de Braunschweig.

      Selon lui, les analyses les plus serrées ne permettent pas d’expliquer cet écart par les seuls facteurs économiques, fiscaux, démographiques ou institutionnels, ni même par le célèbre frein à l’endettement budgétaire :

      « La faiblesse des investissements allemands semble être devenue une maladie chronique, dont d’autres facteurs, tels que la lenteur des procédures de planification et le manque de personnel, sont probablement responsables », ajoute-t-il en pointant les facteurs aggravants que sont la pénurie de main-d’œuvre qualifiée, l’augmentation du prix des matériels ou les choix politiques.

      Ce dernier point explique par exemple l’important retard allemand sur le développement du réseau de fibre optique. Selon les chiffres de l’OCDE (juin 2024), 70,6 % des connexions haut débit en France se font par fibre optique, contre seulement 12,17 % en Allemagne, pour une moyenne de 44,3 % dans l’OCDE.

      A la fin des années 1970, le chancelier Helmut Schmidt avait prévu un grand plan national d’installation de la fibre optique. Mais l’arrivée d’Helmut Kohl au pouvoir en 1982 a tout changé. Celui-ci a misé sur le câble en cuivre moins cher et plus facile à installer. Les conservateurs ont aussi pensé faciliter le développement des chaînes privées de leur ami Léo Kirch, les télévisions publiques étant jugées comme bien trop à gauche.

      Le déploiement de la fibre optique a ainsi été retardé de plusieurs décennies. Le Bundestag a toutefois amendé, le 26 juin dernier, la loi allemande sur les télécommunications. Celle-ci stipule désormais que le déploiement des réseaux de fibre optique et la pose des mats pour la 5G, relèvent d’un « intérêt public majeur ».

      Les villes, les communes et les districts ont accumulé un retard d’investissements de 215,7 milliards d’euros. Le secteur scolaire est particulièrement touché

      Les collectivités n’échappent pas au désastre. L’Association des villes et des communes allemandes (DStGB) parle d’une « crise financière catastrophique ». Selon une étude de la Banque fédérale de développement (KfW), les villes, les communes et les districts ont accumulé un retard d’investissements de 215,7 milliards d’euros. Le secteur scolaire est particulièrement touché (67,8 milliards d’euros de retard d’investissement), les investissements dans les routes arrivant en deuxième position (54,4 milliards d’euros).
      Un plan d’investissement moins ambitieux

      Dans ces conditions, la décision de la nouvelle coalition de créer un fonds spécial avec un volume d’emprunt de 500 milliards d’euros à dépenser sur douze ans, a éveillé beaucoup d’espoir et de désirs. Mais aussi des craintes.

      En effet, le projet de loi initial prévoyait que ces sommes seraient exclusivement dépensées dans le renouveau des infrastructures, et non pour remplacer les investissements déjà prévus dans les budgets courants. Pour obtenir l’appui du groupe écologiste, il a aussi été décidé que sur ces 500 milliards d’euros, 100 milliards d’euros iraient alimenter le Fonds pour le climat et la transformation (KTF). Enfin, que 100 milliards d’euros iraient aux Länder (40 %) et aux communes (60 %).

      Or, suite à la pression des Länder, la disposition qui prévoit d’attribuer 60 milliards d’euros exclusivement aux communes a été supprimée de la loi de création du fonds. Comme souvent dans le cadre du fédéralisme, ces dernières risquent d’être les parents pauvres de la négociation budgétaire.

      Par ailleurs, l’obligation de supplémentarité inscrite dans le projet de loi – c’est-à-dire l’exigence d’utiliser l’argent exclusivement pour des investissements supplémentaires – a aussi été supprimée.

      « Nous constatons que certains Länder réduisent déjà leurs budgets d’investissement réguliers et comblent le vide avec les fonds du fonds spécial », a expliqué le directeur général de la Fédération allemande de l’industrie du bâtiment, Tim-Oliver Müller.

      Pour leur part, les écologistes sont furieux depuis que la ministre de l’Economie, Katarina Reiche a décidé que quelques milliards seraient prélevés sur le KTF pour faire baisser les prix du gaz. « Le fonds spécial est une chance historique de moderniser l’Allemagne – mais la coalition noire-rouge en fait la plus grande gare de triage de l’histoire de l’après-guerre », a critiqué le vice-président du groupe parlementaire des Verts au Bundestag, Andreas Audretsch qui estime que « chaque euro détourné est une promesse non tenue ».

      A cela, le président de l’Institut de recherche économique de Munich (Ifo), Clemens Fuest, ajoute une mise en garde :

      « La forte augmentation des dépenses d’armement et le fonds pour les infrastructures ne doivent pas faire oublier que les marges de manœuvre financières sont limitées », rappelle-t-il.

      En raison de l’endettement croissant, les dépenses d’intérêts, qui s’élèvent aujourd’hui à environ 30 milliards d’euros, passeront à plus de 60 milliards d’euros en 2029. Par conséquent, il ne restera que peu de marge de manœuvre pour les autres dépenses publiques.

      « Si la coalition se repose sur les marges d’endettement élargies et néglige les réformes structurelles, elle échouera et aggravera les problèmes économiques de l’Allemagne », a-t-il déclaré en évoquant entre autres une incontournable négociation sur les retraites et le système de protection sociale.

      https://archive.ph/G4bD6

  • « On est un peu les sacrifiés de la Data City ! » : à Marseille, les data centers colonisent les quartiers populaires - L’Humanité
    https://www.humanite.fr/social-et-economie/numerique/on-est-un-peu-les-sacrifies-de-la-data-city-a-marseille-les-data-centers-co


    Les conflits de l’eau devraient être plus rapides.

    Le collectif cartographie les fermes de données marseillaises, mais mène aussi des actions d’éducation populaire, par le biais de balades organisées notamment. « Le data center est l’incarnation matérielle d’une certaine forme de capitalisme, poursuivent les militants. Il résume de nombreux enjeux contemporains : l’impérialisme américain, le technocapitalisme, l’extractivisme, la course à l’intelligence artificielle… »

    L’écolo Sébastien Barles, qui fut l’un des tout premiers à se mobiliser, ne dit pas autre chose : « À Marseille, c’est une forme de prédation à la fois foncière et énergétique, pour des retombées économiques très contestables. Un data center crée en moyenne dix fois moins d’emplois qu’une industrie manufacturière classique ! Pour des conflits d’usage en matière d’électricité qui sont évidents. »

    Au cours des dix prochaines années, l’ensemble des data centers de la région devraient avoir besoin de 1 200 MW d’électricité supplémentaires, selon les données officielles. Cela représente autant d’électricité qu’il en faudra pour décarboner toute l’industrie régionale et six fois plus que pour l’aménagement urbain et les hôpitaux. « Il est évident que nous aurons besoin de plus de puissance électrique, convient Sébastien Barles. Mais il faudrait réfléchir en termes d’utilité sociale : bien souvent, les data centers servent à alimenter l’essor des transactions financières, du bitcoin ou de la pub imposée. »

    • Enquête : à Marseille comme ailleurs, l’#accaparement du territoire par les infrastructures du numérique

      Depuis fin 2023, le collectif marseillais Le Nuage était sous nos pieds enquête, analyse et lutte contre les impacts sociaux, écologiques et politiques des infrastructures du numérique à Marseille, en particulier des câbles sous-marins et des data centers. Ce collectif est composé d’habitant·es de Marseille, affilié·es à au moins trois entités : le collectif des Gammares, collectif marseillais d’éducation populaire sur les enjeux de l’eau, Technopolice Marseille, qui analyse et lutte contre les technologies de surveillance policière et La Quadrature du Net, association de défense des libertés fondamentales dans l’environnement numérique. Dans cet article, nous restituons une partie de l’enquête menée par le collectif sur les infrastructures numériques à Marseille, leur impact socio-environnemental et le monde délétère qu’elles représentent, enquête que nous élargissons au delà du territoire marseillais, inspiré·es notamment par les échanges lors du festival « Le nuage était sous nos pieds » qui a eu lieu les 8, 9 et 10 novembre dernier à Marseille.

      Arrivent à Marseille aujourd’hui environ seize câbles sous-marins intercontinentaux qui atterrissent, transitent et relient l’Europe et la Méditerranée à l’Asie, au Moyen Orient, à l’Afrique, aux États-Unis. Ce sont ces câbles intercontinentaux qui permettent à l’information numérique de circuler, en particulier sur le réseau Internet, et aux services numériques déployés dans ce qu’on appelle « le cloud », d’apparaître sur nos écrans : mails, réseaux sociaux, vidéos et films en streaming. Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés en surchauffe renferment des milliers de serveurs qui rendent possible le technocapitalisme et ses données numériques invisibles : la collecte massive de données personnelles, servant à l’analyse de nos comportements constamment traqués et traités à des fins marketing, la publicité numérique qui pollue nos cerveaux, la vidéo-surveillance policière et plus largement la gouvernance et la surveillance algorithmiques dopées à l’intelligence artificielle qui discriminent et sapent nos libertés fondamentales. Derrière ces infrastructures, ce sont également l’accaparement des terres et des ressources en eau, mais aussi la pollution de l’air, la bétonisation de nos villes réchauffées, et les réalités tachées du sang de l’extractivisme numérique colonial que les puces des serveurs qui peuplent ces data centers renferment. Et ce sont encore une fois des industries peu scrupuleuses qui, aidées par des politiques honteuses, s’accaparent nos territoires et nos vies.

      Data centers et #câbles_sous-marins transcontinentaux

      La présence de ces 16 câbles sous-marins intercontinentaux attire à Marseille les gestionnaires de data centers, ces entrepôts géants où s’empilent des serveurs par milliers, appartenant en grande majorité à Google, Amazon, Microsoft, Meta, Netflix, Disney+, Capgemini, Thalès, etc. Des serveurs qui stockent et font transiter des données, des serveurs qui rendent possibles les services numériques et les échanges de données décrits plus haut. Depuis une dizaine d’années, et de façon accélérée depuis 2020, une douzaine de data centers ont été construits un peu partout dans Marseille intra muros, et plusieurs nouveaux sont en chantier ou annoncés dans la ville et aux alentours. On y trouve ainsi cinq data centers de Digital Realty, un géant américain d’investissement immobilier coté en bourse, spécialisé en gestion de data centers dits neutres ou de colocation. Cette entreprise construit, aménage et gère le fonctionnement du bâtiment, et loue ensuite les emplacements de serveurs à d’autres sociétés, telles Microsoft, Amazon, Google, Netflix ou d’autres. Ces data centers de colocation sont bien implantés en France, mais dans d’autres pays et territoires, Amazon, Microsoft, Google et autres géants du numérique construisent leurs propres bâtiments de data centers et toute l’infrastructure nécessaire à leur fonctionnement : postes électriques de transformation du courant, réseaux fibrés terrestres, câbles sous-marins transcontinentaux, etc.

      À Marseille, le géant Digital Realty, un des trois leaders mondiaux de data centers de colocation, possède quatre data centers MRS1, MRS2, MRS3, MRS4 et est en train d’en construire un cinquième, MRS5, tous sauf MRS1 situés dans l’enceinte du Grand Port Maritime de Marseille (GPMM). Les autres data centers marseillais sont souvent situés dans le nord de la ville. Dans le quartier de Saint-Henri notamment, où un data center de colocation de Free Pro est actuellement en cours d’agrandissement pour doubler de taille, se partageant l’espace avec un data center de Telehouse. Dans le quartier de Saint-André, un projet de data center surdimensionné de Segro viens d’être annoncé. Tandis qu’à la Belle-de-Mai un data center de Phocea DC est en construction. Il y a même eu un projet de data center flottant dans le Grand Port, par l’entreprise Nautilus ! Hors des limites municipales, à Bouc-Bel-Air, Digital Realty a également un projet de construction d’un sixième data center, bien plus grand que les précédents, baptisé MRS6.

      Marseille n’est pas la seule ville concernée. La France, avec ses plus de 300 data centers, se situe aujourd’hui au 6ème rang mondial des pays en accueillant le plus, après les États-Unis, l’Allemagne, le Royaume-Uni, la Chine et le Canada. En Île-de-France, premier territoire d’implantation française avec plus de 160 data centers en 2023, juste devant Lyon (18), puis Marseille (12), Digital Realty y possède 2 hubs d’un total de 17 data centers (et plusieurs autres en construction), concentrés pour la plupart en Seine-Saint-Denis. Equinix, autre géant du top 3 mondial des data centers de colocation en possède 10, tandis que Data4, Scaleway ou Free Pro, OVH, Telehouse, Verizon, Zayo et autres acteurs se partagent les 72 restants.

      Les seize câbles sous-marins intercontinentaux qui arrivent aujourd’hui à Marseille sont répertoriés par Telegeography, une entité qui maintient Submarine Cable Map, une des cartes mondiales de référence de ce type de câbles. Ils sont construits et déployés au sein de consortiums internationaux regroupant plusieurs entreprises et multinationales du numérique. On y retrouve en premier lieu les géants du numérique — Google, Facebook/Meta, Microsoft et Amazon — qui sont désormais les premiers financeurs et les acteurs principaux des projets de déploiement de ces câbles sous-marins intercontinentaux. On y retrouve également des entreprises de télécommunications telle que Orange, mais aussi des opérateurs internationaux, qui seront souvent en charge de l’atterrissement des câbles sur les plages, ainsi que des stations ou centres d’atterrissement de ces câbles, permettant la transition entre les infrastructures sous-marines et le réseau câblé terrestre. On y retrouve également des entreprises qui fabriquent et déploient ces câbles en mer, comme Alcatel Submarine Networks qui vient d’être racheté par l’État français, et qui est un des trois leaders mondiaux dans ce domaine avec TE SubCom (Suisse) et NEC Corporation (Japon).

      Mainmise des géants du numérique

      Ces câbles sous-marins et leurs centres d’atterrissements sont aujourd’hui des infrastructures stratégiques, avec des enjeux géopolitiques mondiaux importants, mais où la domination des géants numériques est, là aussi, en passe de devenir la norme. Ainsi à Marseille, la plupart des nouveaux câbles sous-marins construits ou en cours de construction ces dernières années ont pour principal acteur Facebook (2Africa), Google (Blue), et Microsoft (SeaMeWe-6). Parmi les opérateurs télécoms et fournisseurs d’accès à Internet du monde entier que la présence de câbles sous-marins intercontinentaux attire également à Marseille, on retrouve la multinationale française Orange, qui possède dans la ville au moins un data center pour ses propres besoins et plusieurs centres d’atterrissements de câbles sous-marins. On retrouve aussi Verizon, opérateur américain de télécommunications avec un data center couplé à un centre d’atterrissement de câbles sous-marins, Omantel, la compagnie nationale de télécommunications d’Oman qui en possède également un — pour ne citer que les opérateurs identifiés par le travail d’enquête et de cartographie des infrastructures numériques à Marseille réalisé par le collectif Le Nuage était sous nos pieds. Vous pouvez retrouver ce travail de cartographie mené sur le terrain, sur la carte libre et collaborative OpenStreetMap, et de façon condensée sur cette carte élaborée lors de cette enquête.

      On retrouve également à Marseille la présence de plusieurs Internet Exchange Points (IXP), ou points d’échange d’Internet, des infrastructures physiques où opérateurs télécom, fournisseurs d’accès à internet (FAI) mais aussi entreprises offrant leurs services numériques, se branchent et s’échangent du trafic sans coûts à travers des accords mutuels. Ainsi, comme l’explique Stéphane Bortzmeyer dans L’interconnexion pour les nuls, un client de Sfr qui envoie un mail via sa connexion gérée par son opérateur, donc via des infrastructures terrestres de Sfr, peut interagir avec d’autres clients que ceux de Sfr et même accéder à tout internet. Cette interconnexion, qui se fait essentiellement au sein des IXP, s’appelle aussi le « peering », et constitue, selon l’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse en France), « une relation technico-économique au fondement de l’Internet ». L’avantage des IXP réside dans le fait que ce sont des infrastructures souvent gérées de façon non commerciale et neutre, souvent par des structures associatives (comme FranceIX en France parmi d’autres) et qui permettent ainsi l’interconnexion des réseaux sans surcoûts, en optimisant les coûts d’échange, mais aussi la latence et la bande passante. Ces IXP sont très souvent localisés physiquement dans les data centers.

      Il y a au moins 6 points de présence IXP aujourd’hui à Marseille comme on peut le voir sur cette base de données européenne accessible librement. Les IXP marseillais semblent tous localisés dans les data centers de Digital Realty, et on peut voir pour chacun d’eux (onglet Points of Presence) la liste des acteurs numériques qui y sont branchés : TikTok, Google Cloud, Amazon Web Services, Disney+, Netflix, Zoom, la liste des géants habituels est longue. La proximité de ces IXP avec les câbles sous-marins transcontinentaux à Marseille permet une latence et une bande passante optimales, tandis que leur présence au sein même des data centers, au plus près des services numériques qui y exploitent l’espace, est également un argument commercial supplémentaire pour ces derniers. Au niveau national, Paris, avec sa douzaine d’IXP, est avec Marseille le territoire où se trouvent la plupart des IXP, devant Lyon et d’autres grandes métropoles. On trouve les emplacements et les spécificités des IXP dans le monde sur une carte maintenue par Telegeography.

      L’ensemble des câbles sous-marins intercontinentaux, les points d’échanges Internet et les data centers hébergeant les nombreux services numériques des entreprises dominantes mondiales du secteur font de Marseille le deuxième hub numérique français après Paris, et le 7ème au rang mondial, en passe dit-on de devenir le 5ème.
      Data centers : une implantation territoriale opportuniste et des politiques d’État accueillantes

      Partout dans le monde, l’implantation des data centers se fait de façon opportuniste, tirant avantage des spécificités de chaque territoire. Ainsi, à Marseille c’est la présence des câbles sous-marins de liaison Internet transcontinentales, ainsi que celle des grands acteurs des télécoms et des points d’échange Internet. Mais c’est également une opportunité foncière peu chère au sein du territoire du Grand Port Maritime de Marseille (GPMM), cet établissement public placé directement sous la tutelle de l’État, ayant des missions de service public administratif et de service public à caractère industriel et commercial. En réalité le GPMM est géré comme une entreprise, et ses dirigeants nommés directement par l’État, trouvent dans ces projets d’entrepôts de données numériques une opportunité de mutation lucrative pour son patrimoine immobilier, autrefois occupé par des activités portuaires en déclin. Comme aime à le souligner Christophe Castaner, président du conseil de surveillance du GPMM, le « French smartport de Marseille-Fos […] ouvre la voie au concept de hub maritime des données », et est un port entrepreneur qui « craint avant tout sa désindustrialisation ».

      En Île-de-France, l’implantation des data center se fait essentiellement dans le département de Seine-Saint Denis, en particulier à La Courneuve, Aubervilliers et Saint-Denis, membres de l’établissement public territorial de Plaine Commune, en charge de leur aménagement et développement économique, social et culturel. Autrefois territoire agricole alimentant les Halles de Paris, ces zones sont devenues progressivement industrielles dans les années 60 – 70, se désindustrialisant brutalement à partir des années 90. Les anciennes friches industrielles, à bas prix malgré leur proximité immédiate avec Paris, deviennent alors une opportunité foncière peu chère pour de nouvelles industries telle les data centers et les opérateurs télécoms qui s’y installent en masse depuis les années 2010. On retrouve donc là encore des dynamiques foncières et économiques, poussées par des politiques d’État, similaires à celles de Marseille.

      Mais de façon générale, comme aime le dire l’association France Datacenters, la plus grande association de lobbying en la matière, la France est « la destination idéale », une véritable « data centers nation ». En effet, détaille l’association dans cette vidéo promotionnelle, la France possède des secteurs économiques solides et diversifiés, tels ceux du numérique et des télécommunications, de la finance, de l’automobile ou de l’aéronautique, secteurs moteurs des data centers. Le gouvernement français a, poursuit-elle, lancé de nombreuses initiatives et des financements dédiés à la numérisation des industries (10 milliards dédiés au secteur numérique au cours des dernières années), permettant au secteur des data centers une croissance multipliée par deux entre 2016 et 2021, avec un milliard d’euros d’investissement annuel. Mais aussi et surtout, un foncier peu cher et facilement accessible, une énergie électrique à bas coût (la deuxième la moins chère en Europe, avec une moyenne de 84 euros le mégawattheure en 2020) et à faibles émissions carbone (car majoritairement nucléaire). L’infrastructure réseau de la France, avec son réseau fibré, sa 5G et ses câbles intercontinentaux, est également présentée comme un atout majeur à bas coût d’accès. L’infrastructure électrique française est présentée comme très développée et solide, ayant un coût de maintenance infrastructurelle gratuit pour les data centers, car maintenue par les entreprises publiques RTE et Enedis, qui ont promis un investissement de plus de 100 milliards d’euros d’ici 2035 sur cette infrastructure. Cette vidéo souligne de plus que les industries disposent en France de nombreux avantages fiscaux, et même de financements régionaux pour leur implantation.

      Le lobby des data centers de France peut en effet compter sur des politiques favorables. En 2018, l’Assemblée nationale a voté, sur proposition du député Bothorel, une aide fiscale pour les data centers, consistant à appliquer un tarif réduit à la taxe intérieure de consommation finale d’électricité (TICFE), d’ordinaire de 22,5 euros par mégawattheure (MWh), qui sera alors divisée par 2 pour les data centers, soit 12 euros par mégawattheure, au-delà du premier GWh consommé. En 2019, l’ancien ministre de l’économie Bruno Le Maire, lors de l’inauguration à Pantin d’un data center d’Equinix hébergeant, parmi des géants américains, Docaposte (groupe La Poste) et les serveurs de la SNCF, déclarait :

      Notre ambition c’est que la France soit la première terre d’accueil de data centers en Europe. […] L’installation sur le territoire national de data centers est une nécessité pour accélérer l’accès des entreprises aux outils de la transformation numérique et un enjeu de souveraineté pour maintenir sur le territoire national les données sensibles des entreprises.

      Deux ans plus tard, en 2021, le ministre, accompagné de Cédric O, alors secrétaire d’État chargé du numérique, lançait, dans le cadre du Plan « France Relance », la stratégie nationale d’accélération pour le Cloud :

      Doté de 1,8 milliard d’euros, dont 667 millions d’euros de financement public, 680 millions d’euros de cofinancements privés et 444 millions d’euros de financements européens, […] vise à renforcer le soutien à l’offre de la filière industrielle de cloud française et mise sur l’innovation et les atouts de l’écosystème français du Cloud, […] accélérant le [en gras dans le texte] passage à l’échelle des acteurs français sur les technologies critiques très demandées, telles le big data ou le travail collaboratif […]

      Ce plan a surtout servi les GAFAM et leur implantation plus profonde dans nos territoires. Ainsi, peu après, les français OVH et Dassault Systems concluent un partenariat avec les clouds de Google et Microsoft, que le gouvernement approuve sous couvert de leur localisation dans des data centers en France, pour accueillir des données sensibles. C’est ce qui permettra au Health Data Hub, ce projet de privatisation des données de santé des français, que nous dénoncions en 2021, de continuer à être hébergé par Microsoft en France jusqu’au moins en 2025, malgré de nombreuses contestations de la société civile et d’associations. Orange, quant à lui, a conclu dès 2020 un accord avec le cloud AWS d’Amazon pour « accélérer la transformation numérique des entreprises vers le cloud AWS ». Google, suite à l’annonce du plan stratégique cloud en 2021, déclare alors commencer son plan d’implantation en France, qui est désormais terminé avec succès. Plus récemment, sur le site de l’Élysée, on peut lire l’annonce du dernier plan d’investissement de Microsoft (4 milliards d’euros en France) pour étendre son infrastructure cloud dédiée à l’IA, « le plus important à ce jour dans le pays, pour soutenir la croissance française dans la nouvelle économie de l’intelligence artificielle » salué par Emmanuel Macron qui s’est déplacé pour l’occasion jusqu’au siège français de l’entreprise. On peut y lire :

      Microsoft a ainsi dévoilé l’extension de son infrastructure cloud et IA en France avec l’expansion de ses sites à Paris et Marseille qui doteront le pays d’une capacité allant jusqu’à 25 000 GPU de dernière génération d’ici fin 2025, et l’ouverture de nouveaux sites pour héberger des centres de données de nouvelle génération dans les agglomérations de Mulhouse et de Dunkerque.

      À Mulhouse, le data center dédié IA de Microsoft a déjà commencé à être construit à Petit-Landau, village de 800 habitants, qui possède ironiquement, la distinction de Commune Nature, pour ses « actions orientées vers la préservation de la biodiversité et l’amélioration de la qualité des eaux du bassin Rhin-Meuse ».

      Les data centers : ces mega-ordinateurs bétonnés en surchauffe aux multiples dangers environnementaux

      Un data center, infrastructure pilier de ce qu’on a appelé le « cloud », n’a rien de nuageux, de léger ou de vaporeux. Au contraire, ces grands entrepôts sont des bâtiments bétonnés de plusieurs étages, aux planchers et parois fortifiés, lourds et massifs, pour pouvoir supporter sans risques d’effondrement le poids conséquent des milliers de serveurs qu’ils abritent. Ces serveurs, qui tournent en permanence, utilisent de grandes quantités d’électricité. Ils sont dotés chacun de nombreuses puces et composants électroniques tels des processeurs et cartes graphiques, qui génèrent de la chaleur en quantité. Ces serveurs ont besoin, pour garder un fonctionnement optimal et éviter les pannes, de bénéficier d’une température d’air ambiant ne dépassant pas les 28 degrés Celsius. Bien souvent, par précaution, les data centers ne souhaitent pas dépasser les 23 – 25 degrés. C’est pourquoi ils sont toujours équipés de systèmes de climatisation et de refroidissement de la température ambiante. Il s’agit de systèmes classiques basés sur l’air climatisé par fluides frigorigènes, ou de circuits de refroidissement utilisant la fraîcheur de l’eau. Parfois les deux types de systèmes, par air conditionné et eau, cohabitent dans un data center.

      Les data centers consomment de grandes quantités d’électricité et d’eau. Pour satisfaire ces besoins, ils sont raccordés en France au réseau d’électricité national, et bien souvent aux circuit d’eaux potable de la ville ou des territoires sur lesquels ils se trouvent. C’est le cas par exemple de PAR08, le data center de Digital Realty à la Courneuve, dont le directeur France Fabrice Coquio, surfant lui aussi sur la vague du marketing olympique, aime dire qu’il a été très important à l’occasion des Jeux Olympiques de Paris 2024. Construit au sein d’un complexe de quatre data centers surnommé le « vaisseau spatial », avec une surface totale de 40 000 m² de salles machines (correspondant à 7 terrains de football) et 120 Megawatt de puissance électrique, ce data center est aujourd’hui le plus grand de France. Dans ce rapport de la Direction régionale de l’environnement, de l’aménagement et du logement (DREAL) d’Île-de-France, PAR08 est pointé du doigt pour son utilisation annuelle massive de 248 091 m3 d’eau, provenant directement du circuit d’eau potable de la ville de Saint-Denis, dans une zone sujette aux sécheresse répétées depuis 2003, comme le pointait cette étude de l’OCDE (Organisation de coopération et de développement économiques) en 2023 sur « la gestion du risque de raréfaction de la ressource en eau liée au changement climatique dans l’aire urbaine fonctionnelle de Paris ». Cette eau est utilisée par le data center pour son système de refroidissement adiabatique, mais aussi pour la vaporisation des espaces qui doivent garder une hygrométrie optimale. Outre le besoin excessif en eau, le rapport pointe le manque de plan d’aménagement de l’usage de l’eau en cas de crises de sécheresse, obligatoire dans de telles circonstances. Mais la priorité est encore une fois ici politique et économique, et non pas environnementale, ce data center ayant profité du contexte lié aux JOP 2024.

      Ces systèmes de refroidissement à eau sont désormais privilégiés par les constructeurs de data centers dans le monde entier. D’abord parce que les systèmes de refroidissement purement électriques, comme ceux qui opèrent par fluides frigorigènes, sont très énergivores et ont donc un coût économique important. Ensuite, parce que l’eau n’est pas une ressource qui rentre dans le calcul des impacts usuels des data centers sur l’environnement, celui-ci étant en général basé sur la consommation d’électricité et le Power Usage Effectiveness (PUE), ou indicateur d’efficacité énergétique.

      Parfois, ces systèmes de refroidissement, quand ils ne sont pas reliés au réseau d’eau potable du territoire les accueillant, captent directement l’eau potable de nappes phréatiques, de fleuves ou de lacs à proximité. C’est le cas par exemple du data center de Facebook situé sur la ville espagnole de Talaveira de la Reina, dans la région de Castilla-La Mancha en Espagne, que le collectif Tu Nube Seca Mi Rio (« Ton nuage assèche ma rivière ») dénonce, entre autre pour son utilisation de plus de 200 millions de litres d’eau par an, équivalent à la consommation de 4 181 habitant⋅es de la région. Il s’agît ici d’un data center dit « hyperscaler », aux grandes dimensions et capacités de stockage et de traitement des données, sans qu’il y ait un consensus sur la définition. D’une puissance de 248 Megawatt, étendu sur plus de 300 000 m2 de terrain, ce data center géant bénéficie d’un soutien politique national et local. Bien que la zone de son implantation connaisse un fort stress hydrique permanent depuis des décennies, d’abord de par sa situation géographique et son climat quasi désertique, et désormais par la crise environnementale qui l’aggrave, le coût du litre d’eau y est faible. Ici encore, l’implantation des data centers sur le territoire est régie par des impératifs avant tout économiques, et non par des critères sociaux ou environnementaux, car comme le déplore Aurora Gomez du collectif « Ces entreprises extérieures s’imposent et accaparent les ressources. C’est du technocolonialisme ! […] Les autorités restent sourdes à nos alertes et font semblant de ne pas nous voir. ».

      Pour assurer une électrification continue des serveurs, les data centers disposent d’une triple alimentation en énergie. En plus d’être raccordés au réseau électrique, ils disposent également de groupes électrogènes et de leurs cuves de fioul prêts à prendre la relève en cas de coupure d’électricité, et de batteries et autres accumulateurs d’énergie censés assurer les quelques secondes de passage entre réseau électrique et groupes électrogènes. L’ensemble de ces dispositifs (serveurs, refroidissement, cuves de fioul, batteries) est potentiellement dangereux pour l’environnement et les riverain·es : fluides frigorigènes qui sont susceptibles de polluer l’air en cas de fuites, mais aussi nuisances sonores, que ce soit à l’intérieur du bâtiment, du fait des milliers de serveurs qui tournent en permanence avec chacun plusieurs ventilateurs, mais aussi du bruit extérieur et des vibrations causées respectivement par les systèmes réfrigérants placés sur les toits ou par les sous-stations de transformations électriques et les systèmes de générateurs au fioul qui sont testés plusieurs heures par mois. Ces nuisances sonores sont réglementées en France, et les data centers classés ICPE sont toujours concernés et font l’objet d’obligations et de contrôles en la matière, et ont par le passé fait l’objet de plaintes de riverains.
      Une autre source de nuisances environnementales sont les cuves de fioul et les locaux à batteries lithium qui constituent des risques de pollution des nappes phréatiques pour le premier, et des risques d’incendies dans les deux cas. En particulier, les feux de ces batteries au lithium ne sont pas des feux ordinaires : ils sont bien plus difficiles à éteindre et ont une durée bien plus longue, comme l’explique cet article de Reporterre qui relate l’effort démultiplié des pompiers pour éteindre ce type de feu, ou comme l’illustre l’incendie récent d’un data center de Digital Realty à Singapour, lequel rappelle également l’incendie de deux data centers d’OVH à Strasbourg en 2021.

      C’est en raison de tous ces risques que les data centers sont le plus souvent qualifiés d’« Installation classée pour la protection de l’environnement » (ICPE). D’après le site du ministère de la Transition écologique, de l’Énergie, du Climat et de la Prévention des risques, ce label ICPE recense les établissements « susceptibles de créer des risques pour les tiers-riverains et/ou de provoquer des pollutions ou nuisances vis-à-vis de l’environnement ». Du fait de ce classement, les data centers sont réglementairement soumis à un certain nombre d’obligations et de contrôles de la part du ministère, entre autres à travers les services déconcentrés que sont les DREAL, Direction régionale de l’environnement, de l’aménagement et du logement, placées sous l’autorité du préfet de région et des préfets de départements.
      Data centers de Digital Realty : fuites répétées de gaz fluorés à fort potentiel de réchauffement climatique

      De nombreuses irrégularités ont été observées par les inspections de la DREAL de Provence-Alpes-Côte d’Azur s’agissant des data centers MRS2, MRS3 et MRS4 de Digital Realty à Marseille. Ces éléments passés sous les radars, révélés récemment par le journal indépendant Marsactu, sont pourtant documentés dans les rapports d’inspections consultables sur la base de données Géorisques.

      L’irrégularité la plus préoccupante concerne le data center MRS3 : depuis 2021, ce dernier fait l’objet de fuites répétées de gaz fluorés, ainsi rejetés dans l’atmosphère. Les services de l’inspection de la DREAL ont demandé à plusieurs reprises au géant américain de prendre les mesures nécessaires pour arrêter ces fuites. Faute de réaction, cela a abouti en octobre 2023, trois ans après les premiers constats de fuites, à une mise en demeure de la société Digital Realty (ex-Interxion) par un arrêté préfectoral n°2023-215-MED. Voici un extrait de cette mise en demeure (consultable en intégralité ici) :

      « Considérant que la société Interxion France [ancien nom de Digital Realty] est autorisée à exploiter un data center, dénommé MRS3, situé sur la commune de Marseille ;
      Considérant que lors de la visite du site en date du 3 mars 2023, l’inspecteur de l’environnement a constaté que les équipements ne sont pas équipés d’un dispositif de détection de fuite fonctionnel ;
      Considérant que ce constat constitue un manquement aux dispositions de l’article 5 du règlement européen n°517/2014 du 16 avril 2014 relatif aux gaz à effet de serre fluorés ;
      Considérant que lors de cette visite il a également été constaté que les dispositions prises par l’exploitant sont insuffisantes pour éviter la survenue de fuites récurrentes de gaz dans l’environnement depuis 2021, ce qui constitue un manquement aux dispositions de l’article 3.2 du Règlement européen n°517/2014 précité ;
      Considérant que les installations de production du froid du site MRS3 ont dû être rechargées, du fait de fuites, par 745 kg de fluide frigorigène R134A depuis 2021, ce qui correspond en équivalent CO2 à une distance de près de 9 millions de kilomètres effectuée avec un véhicule thermique sans malus ni bonus écologique (émissions de CO2 d’environ 120g/km) ;
      […]
      Considérant de plus que, compte tenu de l’absence de système de détection de fuite sur l’équipement, qui réglementairement alerte l’exploitant ou une société assurant l’entretien lorsqu’une fuite entraîne la perte d’au moins 10% de la charge de fluide contenu dans l’équipement, ne permettant pas à l’exploitant de mettre en œuvre les actions correctives limitant l’émission de gaz à effet de serre dans l’atmosphère, il convient d’imposer à l’exploitant les mesures nécessaires pour prévenir les dangers graves et imminents pour la santé, la sécurité publique ou l’environnement, conformément à l’article L.171-8 du code de l’environnement ; »

      Le fluide frigorigène R-134A dont il est ici question, autrement nommé HFC-134A, est un gaz fluoré qui contribue grandement à l’effet de serre, avec un Potentiel de Réchauffement Global sur 100 ans (PRG100 ou GWP100 en anglais) de 1430. Ces fluides frigorigènes fluorés et leurs effets sur l’environnement sont connus depuis les années 1990, puisqu’à l’époque ils ont été reconnus comme principale cause du trou et de l’amincissement de la couche d’ozone. Certains types de gaz frigorigènes, dont ceux responsables de ce trou, ont déjà été interdits à la circulation. D’autres, dont celui utilisé ici par MSR3, font aujourd’hui l’objet, après les conventions de Kyoto et de Paris sur le climat, de réglementations contraignantes de l’Union Européenne (régulations dites F-Gas I, II et III). Celles-ci visent à interdire progressivement mais entièrement d’ici 2030 ces gaz fluorés polluants, alors que de nouveaux types de gaz fluorés non polluants sans effet de serre sont déjà largement commercialisés depuis plusieurs années.

      En partant du calcul de la DREAL ci-dessus, qui fait correspondre ces fuites répétées depuis 2021 à un équivalent CO2 rejeté dans l’atmosphère de 9 millions de km effectués en voiture thermique, nous estimons que cela correspond également à (9M 0,120 kgCO2eq) 1 080 tonnes équivalent CO2 émises depuis 2021. Nous pourrions continuer les calculs d’équivalence et ramener cette quantité à l’émission par nombre d’habitants, par nombre de piscines au par nombre de vols Paris-New-York que cela représente. Mais ce qui nous préoccupe ici, c’est le fait que ce géant américain, tout en se permettant de polluer, multiplie les déclarations de greenwashing dans la presse, en bénéficiant de surcroît d’un climat politico-médiatique fait de louanges et de connivences de la part des préfets, élus de la ville et dirigeants de la région, alors même que les services de l’État alertent sur ces pollutions. Ainsi, la présidente de la métropole Aix-Marseille, Martine Vassal, adressait ses voeux de nouvelle année en janvier 2023 depuis MRS3, le data center mis en demeure peu de temps après. Plus récemment, l’adjoint au numérique responsable de la ville de Marseille, Christophe Hugon (Parti Pirate), accompagné de représentants du préfet de région, de la présidente de la métropole et du président de la Région Sud, tenaient pour leur part des discours élogieux à l’égard de Digital Realty, prenant la pose ensemble lors de l’évènement presse organisé par l’entreprise au palais du Pharo pour célébrer le dixième anniversaire de sa présence sur Marseille.

      Ces fuites de gaz fluoré ne sont pas les seules irrégularités constatées par les services de la DREAL au cours des différentes inspections portant sur les data centers de Digital Realty à Marseille. Le data center MRS2, à proximité immédiate de MRS3 et du futur MRS5, est ainsi à l’origine d’incidents de fuites de fluides frigorigènes fluorés qui n’ont pas été déclarées aux autorités, alors même que ces déclarations sont obligatoires au-delà d’une certaine quantité, comme le soulève le rapport d’inspection de la DREAL de mars 2023.

      Par négligence, Digital Realty est donc responsable d’émissions répétées de gaz à effet de serre. Cette négligence aggravée, voire cette faute intentionnelle compte tenu du fait que l’exploitant a été mis au courant dès 2021 et que ces fuites se sont répétées par la suite, devrait suffire à mettre un coup d’arrêt aux déploiements en cours de Digital Realty. Or, c’est le contraire qui se produit. A Marseille : le projet de construction du data center MRS5 vient d’obtenir un avis positif de la part des autorités environnementales, de la ville et de la préfecture, et même du commissaire en charge de l’enquête soi-disant publique, et ce malgré une trentaine d’avis négatifs d’associations d’habitantes et habitants, d’organisations environnementales telle France Nature Environnement, d’élues et du collectif Le nuage était sous nos pieds qui répondaient à cette enquête.

      Nous sommes d’autant plus interpelées par la lecture des rapports de la DREAL que, à travers la voix de son président en France Fabrice Coquio, Digital Realty se vante largement dans les médias, dans la presse spécialisée et dans les conférences techniques des industriels des data centers de l’exemplarité environnementale de MRS3 (le site mis en demeure) et de MRS4. À l’en croire, ces sites industriels seraient des modèles du genre en termes écologiques, des « data centers verts » grâce notamment au système de refroidissement dit « river cooling » dont ils sont dotés, mais qui n’a visiblement pas empêché cette pollution considérable par gaz fluorés. Qui plus est, cette pollution a été dissimulée par F. Coquio et les autres dirigeants de Digital Realty. Un « data center vert » aux 1080 tonnes de CO2 de pollution en gaz fluorés émis depuis trois ans par négligence intentionnelle, voilà la réalité que Digital Realty et les pouvoir politiques locaux, cachent et habillent de greenwashing.
      Le river-cooling : privatisation et accaparement de ressources en eau de qualité potable

      La « Galerie à la Mer », construite en 1905, permet d’évacuer le trop plein d’eau des anciennes mines de charbon de la ville voisine de Gardanne, située plus au Nord. Ce trop plein est versé dans la Méditerranée au niveau de Cap Pinède à Marseille. Gérée depuis 2007 par le Bureau de Recherches Géologiques et Minières (BRGM), l’autorité nationale de service géologique, la Galerie est composée d’une partie supérieure, utilisée pour évacuer les eaux d’exhaure (ferrugineuses) de l’ancienne mine vers la mer, et d’une partie inférieure, dite « cunette », qui permet de collecter et évacuer les eaux de ruissellement et d’infiltrations provenant du Massif de l’Étoile à proximité. D’après le document de conclusion à l’enquête publique en 2018, écrit par le commissaire enquêtaire en charge, l’eau de la cunette est une eau « de très bonne qualité » et de « qualité potable » pouvant donc servir à la population ou de réserve stratégique en cas de besoin, dans une région sujette aux sécheresses.

      En 2018, l’entreprise Digital Realty a obtenu de la Préfecture l’autorisation de détourner pour une durée de sept ans les eaux de la cunette de la Galerie à la Mer, afin de les récupérer pour refroidir son data center MRS3. Les eaux fraîches de cette cunette, qui sont à 15,5 degrés Celsius toute l’année, sont ainsi captées et injectées dans un circuit de refroidissement dans le data center, pour échanger leurs « frigories » contre des « calories » dans des « échangeurs thermiques ». Elles repartent ensuite, réchauffées à environ 27 degrés, dans la Galerie à la Mer, à destination de la Méditerranée au niveau de Cap Pinède. Ce système est appelé « river-cooling ».

      Tandis que le dirigeant en France de Digital Realty, Fabrice Coquio, proclame dans une vidéo promotionnelle, que le rejet d’eau chaude dans la Méditerranée « n’a aucun impact sur la faune et la flore », les conclusions de l’enquête publique précédemment citée, soulignaient dès 2018 des inquiétudes relatives aux effets du rejet de ces eaux chaudes dans le milieu marin, pointant notamment les « risques d’eutrophisation » (déséquilibre du milieu provoqué par l’augmentation de la concentration d’azote et de phosphore) entraînée par les rejets d’eau rechauffée de la Galerie à la mer, risques accrus en période estivale. Mais, d’après l’enquête, bien d’autres impacts sont méconnus à ce jour, comme par exemple « l’éventuelle prolifération des algues filamenteuses ». Il faut par ailleurs noter que ce rapport se basait sur des estimations proposées par Digital Realty à 23,4 degrés, et non pas les 27 degrés effectivement constatées depuis la mise en place du système. Malgré ces alertes, le river cooling d’abord mis en place pour MRS2 et MRS3, n’a pas été mis en pause, mais au contraire étendu aux data centers MRS4 et MRS5. La question des eaux réchauffées par ces data centers et renvoyées dans le milieu marin, dans un contexte où le réchauffement des mers entraîne des taux de mortalité importants dans les communautés biotiques sous marines, n’est pas prise en compte. Aucun suivi ni mesures sérieuses des effets de ce rejet ne sont aujourd’hui publiées, d’après les collectifs locaux tels le collectif des Gammares ou l’association des habitants du 16ème arrondissement dont nous parlerons plus bas, directement concernés par ces enjeux.

      Ainsi, dès 2018, lors de l’enquête publique relative à la construction du river cooling pour MRS3, plusieurs communes se situant sur le tracé de la Galerie à la Mer entre Gardanne et Marseille avaient émis des réserves sur l’accaparement de l’eau publique par une entreprise et proposé d’autres usages pour ces eaux. Les conclusions de l’enquête allaient même dans ce sens, pointant que l’eau potable devait en premier lieu servir l’intérêt général. La commune de Septème-les-Vallons demandait par exemple que soit priorisée la possibilité de pomper une partie des eaux potables de la Galerie à la Mer pour le soutien de l’activité agricole et de la biodiversité et pour le déploiement de dispositifs de prévention des incendies (DFCI). La ville de Mimet demandait aussi à pouvoir utiliser cette réserve d’eau douce. Le collectif des Gammares à Marseille, qui analyse en profondeur les enjeux de l’eau à Marseille, pointe ainsi ces enjeux en septembre 2024, dans sa réponse à l’enquête publique sur la construction de MRS5, qui utilisera lui aussi le river cooling :

      « Alors que les hydrologues enjoignent à la sobriété et régénération des cycles naturels de l’eau, le choix de refroidir les data centers pour que des géants du numérique puissent louer des espaces pour leurs serveurs ne nous parait pas d’intérêt général.
      Dans un contexte d’accroissement des épisodes climatiques extrêmes ayant pour cause le réchauffement climatique, où les sécheresses s’intensifient et se produisent de plus en plus régulièrement en Région Sud et ailleurs, mettant en cause l’approvisionnement en eau potable ou à usage agro-alimentaire, il serait urgent à ce que soient systématisées et publiées toutes les enquêtes portant sur cette ressource commune qui est l’eau et nous considérons que les eaux doivent être autant que possible allouées à des usages d’utilité publique ou pour les milieux qui en ont besoin. ».

      Détourner des eaux fraiches de qualité potable pour refroidir gratuitement ses data centers et rejeter de l’eau réchauffée en mer : voici donc le river cooling de Digital Realty à Marseille.
      Le river cooling : du greenwashing mensonger financé par de l’argent public

      Ce river cooling est devenu un argument phare de la communication de Digital Realty, en France et dans le monde entier. Dans la presse généraliste il est présenté comme une « solution innovante verte minimisant l’impact écologique » de l’entreprise. Dans la presse spécialisée, Digital Realty se vante d’utiliser de l’eau gratuite d’une installation publique. Ce n’est pas uniquement l’eau qui est gratuite pour l’entreprise. L’État français a financé en partie les travaux de détournement des eaux de la Galerie à la Mer vers les data centers de Digital Realty, à travers deux subventions publiques. Sur un total d’à peu près 15 millions d’euros d’investissements, la Région Sud a ainsi apporté 800 000 euros, tandis que l’Agence publique de la transition écologique, l’ADEME, a subventionné le projet à hauteur d’1,9 millions d’euros au nom du fond de « décarbonation de nos industries ».

      Dans le dossier de maîtrise d’ouvrage inclus dans les conclusions du commisaire rapporteur, déposé en 2018 par Digital Realty, on peut lire que le système de « river cooling » permettrait de réduire de 90% la consommation d’électricité destinée au seul refroidissement de ses data centers marseillais. En septembre 2024 son dirigeant Fabrice Coquio parle d’une réduction de 30% de la consommation totale d’électricité de l’ensemble des data centers à « river cooling » grâce à ce système. Or, pour son prochain data center en construction MRS5, selon les chiffres donnés par l’entreprise lors de l’enquête publique du projet, on constate que le « river cooling » permettra de réduire de seulement 4,33% la consommation totale en électricité (calcul d’après les données page 107 : (241 133 856 kWh – 230 695 705 kWh) / 241 133 856 kWh 100). En effet, la dépense d’énergie la plus importante d’un data center se situe au niveau des serveurs. Ces derniers occupent 79 à 83 % de l’énergie totale du data center MRS5 d’après l’entreprise (page 107 du dossier précité).

      La dépense énergétique de ces data centers qui s’agrandissent et s’étendent sans cesse, malgré des optimisations à la marge via des méthodes comme le « river cooling » est globalement nettement en hausse, et c’est là une tendance globale. Ces optimisations sporadiques, baissent les coûts pour l’entreprise tout en lui permettant de garder un potentiel commercial constant ou grandissant, et sont donc intéressantes pour elles, mais se font toujours et encore à travers l’accaparement de nouvelles ressources qui peuvent servir les habitantes et habitants.

      La communication de Digital Realty laisse également entendre que le « river cooling » serait l’unique système de refroidissement des data centers. Ce qui s’avère faux à la lecture de ce rapport. Ce système ne remplace pas les systèmes de refroidissement par air conditionné à fluides frigorigènes, qui causent les fuites de gaz fluorés mentionnées plus haut dans l’article, mais vient s’y ajouter. Le refroidissement des data centers de l’entreprise à Marseille ne se fait qu’en petite partie par « river cooling ». Mais le plus grave dans la communication mensongère du dirigeant de Digital Realty est le fait qu’il prétend que l’eau utilisée pour le river cooling serait de l’eau sale provenant des mines de Gardanne, comme il le répète dans les médias et la vidéo promotionnelle avec Jamy citée plus haut. C’est faux, comme le montre d’ailleurs, cette vidéo d’Interxion (ancien nom de Digital Realty) trouvée sur un compte Viméo d’une employée de l’entreprise, vidéo qui explique bien la construction du river-cooling et son utilisation de l’eau de la nappe phréatique récoltée dans la cunette.

      De l’argent public utilisé pour financer les data centers d’un géant américain côté en bourse, utilisant une ressource commune précieuse, l’eau de qualité potable, tout en rejetant des gaz fluorés à fort impact de réchauffement climatique, voilà la réalité des data centers de Digital Realty aujourd’hui à Marseille. Le plus ironique est que c’est précisément ce river cooling que l’Etat a aidé à financer, qui sert aujourd’hui d’argument de greenwashing médiatique mondial à cette entreprise.

      Accaparement de l’énergie électrique au détriment de projets d’intérêt commun à urgence environnementale

      Bien que l’électricité, majoritairement issue de la filière nucléaire, soit présentée comme « verte » en France, elle est bas carbone, mais pas neutre en carbone. En effet, l’intensité carbone de l’électricité en France est de 32 gCO2eq par kilowatt-heure d’après le gestionnaire du réseau de transport d’électricité en France RTE. Nous n’allons pas ici calculer les émissions CO2 dues à l’utilisation massive d’énergie électrique par l’ensemble des data centers marseillais. Nous n’avons aucun doute quant au fait que cette consommation est considérable, et qu’elle est également grandissante. En effet, nous constatons partout en France et dans le monde une tendance au lancement de projets de data centers de plus en plus grands et de plus en plus énergivores. Les data centers de type « hyperscaler » se multiplient partout, et les prévisions ne vont qu’en augmentant avec l’arrivée de l’Intelligence Artificielle, qui crée un effet de passage à l’échelle multiple. En effet l’Intelligence Artificielle demande des serveurs dotés de puces dédiées et de cartes graphiques puissantes, consommant plus, chauffant plus, nécessitant des systèmes de refroidissements dédiés, modifiant en profondeur les bâtiments et la globalité de la structure d’un data center. Ce qui nous intéresse ici ce sont les effets systémiques de ces infrastructures et de ce numérique qu’on nous impose, les effets rebonds qu’ils génèrent sans cesse et qui ne sont jamais débattus.

      Les data centers de Digital Realty à Marseille utilisent l’énergie électrique disponible que les deux gestionnaires de réseau et de transport énergétiques nationaux, RTE et Enedis, sont en capacité d’acheminer à Marseille, avec les infrastructures électriques actuelles. Plutôt qu’une simple « utilisation », il s’agit d’un véritable accaparement. Car l’énergie électrique nécessaire à ces data centers est captée au détriment de projets d’intérêt commun à urgence environnementale de la ville. Dans leur rapport « L’impact spatial et énergétique des data centers sur les territoires » les chercheuses Fanny Lopez et Cécile Diguet notaient un premier conflit d’usage en 2012, au détriment de l’électrification des bus municipaux à Marseille (p. 62) :

      « Pour Brigitte Loubet, conseillère spéciale chaleur de la DRIEE, comme pour Fabienne Dupuy, adjointe
      au Directeur territorial Enedis en Seine-Saint-Denis, les demandes des data centers peuvent être
      bloquantes pour les territoires. La commande d’électricité se résumant à : premier arrivé / premier servi,
      des files d’attentes se constituent sur différents sites. […] C’est l’exemple de Marseille, où le maire Jean-Claude Gaudin a dû négocier avec Interxion pour récupérer 7 MW « parce qu’ils avaient oublié de les
      réserver pour leurs bus électriques » » .

      C’est à nouveau le cas aujourd’hui pour l’électrification des quais au Grand Port Maritime de Marseille, électrification qui permettrait aux nombreux navires de croisière, ferrys de lignes reliant la ville à la Corse ou à d’autres villes de Méditerranée, et au Chantier Naval de Marseille de se brancher électriquement lors de leurs escales, évitant ainsi le rejet dans l’atmosphère d’une pollution considérable due à la combustion de fioul. Cette pollution aux oxydes d’azote (NOx) et autres particules nocives a des effets immédiats sur la santé des habitantes et habitants les plus proches, mais aussi sur l’ensemble des habitant⋅es de la ville, ville où l’on comptabilise tous les ans environ 2 500 morts de pollution d’après les autorités de santé. Cette électrification en plusieurs étapes, entamée depuis de longues années, est insuffisante pour accueillir la croissance du flux estival des bateaux, Marseille étant devenue une ville où le tourisme pollueur par croisières n’a de cesse d’augmenter comme le constate et déplore l’association Stop Croisières.

      De surcroît, cette électrification est sans cesse repoussée ou ralentie. Lors de sa réponse à l’enquête publique en vue de la construction de MRS5, la fédération des Comités d’intérêts de Quartier du 16ème arrondissement de Marseille qui regroupe les associations des habitantes et habitants, demandant un arrêt de la construction de tous les data centers de la ville, écrit :

      « […] les riverains sont confrontés aux pollutions atmosphériques des navires et aux nuisances sonores des activités portuaires. Le directeur général adjoint du GPMM a estimé la puissance électrique encore nécessaire aux activités du port et à l’électrification des quais à 100 à 120 MW. […] La puissance totale des data centers actuels s’élève à 77 MW, […] la puissance totale des data centers programmés est de 107 MW. Les data centers de Digital Realty situés dans l’enceinte du GPMM sont alimentés par le poste source de Saumaty, situé dans quartier de Saint-André. Le futur data center de Segro situé à Saint André sera lui alimenté par le poste source de Septèmes-les-Vallons situé à 11 km. Le poste source de Saumaty serait-il saturé ? … L’electrification des quais du Chantier Naval de Marseille dans le GPMM est repoussée à 2029. Les data centers seraient-ils servis avant le GPMM ? ».

      Ce conflit d’usage d’électricité entre data centers et électrification des quais de navires, c’est la mairie elle-même qui le constate dans sa délibération au conseil municipal d’octobre 2023, votant également la constitution d’une commission régulatoire sur les data centers. Cette commission semble parfaitement insuffisante. C’est également ce que pointe Sébastien Barles, adjoint en charge de la transition écologique de la ville de Marseille. Ce dernier demandait un moratoire sur les data centers de la ville, moratoire qui a été écarté, alors qu’il constitue une étape indispensable pour avancer vers un début de maîtrise de ces infrastructures en pleine expansion. Par ailleurs, peu de choses sont aujourd’hui révélées par la mairie autour de cette commission régulatoire de la ville — dont feraient partie, autres autres, le dirigeant de Digital Realty et l’adjoint du Parti Pirate élogieux à son égard, Christophe Hugon. Ce manque de transparence n’est pas nouveau, la mairie de Marseille et en particulier C. Hugon, adjoint également à la transparence et l’Open Data de la ville, ayant déjà été pointé du doigt dans notre campagne Technopolice, pour son hypocrisie politique mais aussi pour son manque de transparence et son défaut de réponse aux demandes d’accès aux documents administratifs, qui sont pourtant un droit et une obligation constitutionnelle.
      Îlots de chaleurs urbains

      Ces data centers qui s’accumulent sur le territoire de Marseille sont de véritables « grille-pains en surchauffe » pour reprendre les termes de Laurent Lhardit, adjoint à la mairie de Marseille en charge du dynamisme économique, de lʼemploi et du tourisme durable.

      En effet, les lois de la thermodynamique font que la chaleur qu’on évacue des serveurs de ces data centers ne disparaît pas, mais se retrouve rejetée dans l’air entourant les bâtiments, dans les nuages, les vrais, ou dans l’eau de mer réchauffée par le river cooling. Dans une ville au climat chaud comme Marseille, sujette à des épisodes caniculaires de plus en plus nombreux, il est inquiétant de continuer à ignorer ce problème qui devient vital. Les scientifiques alertent déjà sur les effets que ces pics de chaleur répétés ont sur la vie humaine, et sur le fait qu’à plus ou moins court terme, des régions entières de notre planète et de l’Europe deviendront progressivement inhabitables en raison de cette chaleur insoutenable (voir par exemple cet atlas de prévisions des chaleurs mortelles à venir dans le monde).

      Il est grand temps de penser l’urbanisme en priorisant les espaces verts, avec des végétaux qui rafraîchissent et créent de l’ombre pour rendre les villes plus habitables, moins nocives pour la santé, plus soutenables face aux changements environnementaux en cours.

      Récupération de « chaleur fatale » ou comment faire perdurer le statu quo écocidaire

      L’utilisation de la « chaleur fatale » consiste en la récupération de la chaleur émise par les data centers, qui deviendraient alors, dans un idéal d’économie circulaire technomagique, des sortes de chaudières numériques capables de chauffer des immeubles ou des piscines olympiques. En réalité, ces projets de récupération de chaleur dite « fatale » (parce qu’elle est inévitable), ne sont pas toujours efficaces ni même possibles. Pour que cela fonctionne, il faudrait que la récupération de chaleur se fasse au plus près de la source, donc du data center, car plus la distance augmente, plus les pertes seront significatives. Mais compte tenu du bruit et des autres nuisances atmosphériques générées par un data center, réchauffer des immeubles habités ne semble pas très attrayant. Sans considérer le fait que, dans des villes aux climats chauds comme Marseille, la chaleur récupérée ne serait utile que peu de mois dans l’année, la chaleur dégagée par ces data centers devenant problématique la majorité du temps. Ainsi, un rapport de l’Uptime Insitute concluait en 2023 que les cas où cela peut être efficace sont rares, non systématiques, situés dans des zones de climat froid, et peuvent même parfois être contre-productifs (traduit de l’anglais) :

      La possibilité de réutiliser la chaleur résiduelle des centres de données est généralement limitée aux climats plus froids et peut nécessiter des connexions à des systèmes de chauffage urbain ou à des sites de fabrication. La disponibilité de ces connexions et/ou installations est fortement concentrée en Europe du Nord. La configuration d’une installation pour la réutilisation de la chaleur perdue augmente souvent la consommation d’énergie (puisque des pompes à chaleur sont nécessaires pour augmenter la température de la chaleur sortante), mais peut réduire les émissions globales de carbone en réduisant l’énergie qui serait autrement nécessaire pour le chauffage.

      Mais le vrai problème, encore une fois, n’est pas technique. Ces systèmes étant coûteux et n’ayant aucun intêrét commercial pour les data centers, ces derniers préfèrent largement y échapper, ou alors promettre constamment qu’ils les mettront en place dans un futur proche. C’est exactement ce que le lobby France Datacenter s’est employé à faire en 2022, comme le montre le registre obligatoire de déclaration de leurs acivités de lobbying auprès de la Haute Autorité pour la Transparence de la Vie Publique (HATVP), où nous pouvons lire, parmi d’autres actions de diminution de taxation ou d’échappement à des obligations de pollueurs :

      Liste des fiches d’activités
      […]
      Retirer un amendement au projet de loi énergies renouvelables visant à rendre obligatoire la réutilisation de chaleur fatale.

      Cette activité a été un succès, l’amendement rendant obligatoire la récupération de chaleur fatale a été retiré du projet de loi énergies renouvelables, au profit de « mesures incitatives » qui ont consisté, depuis 2015 au moins, à faire financer par des fonds publics, via notamment l’ADEME, les travaux de récupération de chaleur fatale qu’un data center aurait l’amabilité d’entreprendre. Les quelques cas existants servent, comme dans le cas du « river cooling », de greenwashing monté en exemple et surpublicisé. Mais cela permet aux industriels de continuer à profiter des territoires sans limites, en faisant croire que des solutions technomagiques sont possibles, tout en s’employant à repousser les obligations réglementaires qui les contraindraient à les mettre en place. Les États, quant à eux, sont tout entiers à leur service.
      Une croissance exponentielle, un extractivisme colonial sanglant

      Si l’ensemble des data centers de Digital Realty à Marseille, MRS1 à MRS5, ont une puissance électrique maximale de 98 Megawatt (16+16+24+20+22), le prochain data center de Digital Realty à Bouc-Bel-Air, MRS6, aura une capacité de 50 mégawatts à lui tout seul. Celui de PAR08 à la Courneuve, le plus grand actuellement en France, toujours de Digital Realty, a une capacité de 120 MW. Celui qui doit être construit à Dugny, en Seine-Saint Denis, toujours par Digital Realty et qui sera le futur plus grand data center de France, aura une capacité de 200 mégawatts, soit l’équivalent de 20% de la puissance d’un réacteur nucléaire EPR. L’empreinte du numérique était estimée à 2,5% de l’empreinte carbone annuelle de la France en 2020, et les data centers représentaient environ 16% de cette empreinte carbone totale du numérique selon l’Ademe et l’Arcep. Cette empreinte du numérique devrait doubler d’ici 2040 et les data centers pourraient y jouer un rôle majeur selon un avis d’expert de l’Ademe en octobre 2024.

      À l’échelle mondiale, les data centers hyperscales constituaient déjà en 2022, 37% de la capacité mondiale des data centers, et devraient en représenter 50% en 2027, cette part augmentant régulièrement. D’autre part, le besoin en eau de ces « hyperscales » augmente régulièrement. Sous la pression des pouvoirs publics en 2023, Google révélait que ses centres de données, aux Etats-Unis uniquement, utilisaient plus de 16 milliards de litres d’eau par an pour leur refroidissement. On apprenait également récemment que ses émissions de CO2 ont grimpé de 48% au cours des 5 dernières années et son usage en eau devrait augmenter de 20% encore d’ici 2030. Microsoft, quant à lui, a vu l’utilisation en eau de ses data centers augmenter de 34% en 2022 seulement, à cause de son usage de l’IA, et on peut voir la pléthore d’annonces d’investissements dans la construction de nouveaux data centers dédiés à l’IA, qui laisse présager une croissance à venir encore plus forte et inquiétante.

      Mais ces calculs institutionnels ou provenant des géants numériques, purement basés sur l’énergie électrique et son empreinte carbone, et parfois sur la consommation d’eau pour le refroidissement, ne prennent pas en compte la totalité des conflits et des accaparements de vies et de ressources vitales que ce numérique cause pour exister et s’accroître. En commençant par la phase d’extraction des nombreux minéraux qui composent les puces des processeurs et des cartes graphiques que ces data centers renferment par milliers. Génération Lumière, une association écologiste qui agit à la fois en France et en République démocratique du Congo (RdC), dénonce depuis des années un extractivisme sans scrupules de minéraux stratégiques pour nos industries numériques. En effet, la RdC renferme 70 % du cobalt mondial, utilisé pour fabriquer les batteries lithium de nos voitures électriques, de nos smartphones, et des data centers. La RdC est aussi une terre d’extraction de coltan, de cuivre, d’or, des minéraux utilisés pour les puces électroniques. Et cette extraction qui sert les industries numériques ainsi que les géants tels Apple, Nvidia (fabricant de puces graphiques) et désormais même Google, Amazon et Microsoft, est démultipliée par l’arrivée de l’IA, qui s’insère partout dans les appareils et les serveurs. Or, cette extraction se fait, comme le dit Génération Lumière, « avec notre sang », et crée en République démocratique du Congo, outre les prob lèmes dus au minage lui-même qui se fait dans des conditions inhumaines d’exploitation des travailleurs, de nombreux conflits et massacres sur le territoire.

      Ces calculs institutionnels laissent également de côté, ou ignorent à dessein, les enjeux de la fabrication des puces électroniques, de la purification des minéraux posés sur les wafers, sortes de galettes de silicium, jusqu’à leur devenir puces. L’association StopMicro, qui lutte contre l’accaparement des ressources et les nuisances causées par les industries grenobloises, et en particulier celles de la microélectronique de Soitec et de STMicroelectronics, nous rappelle ainsi que : « Derrière le dérèglement climatique et les injustices socio-environnementales, il y a des décisions politiques, des entreprises et des intérêts économiques qui conditionnent nos choix de société ». Dans ses nombreuses brochures d’analyses et dans le livre « Toujours puce » qu’elle vient de publier, l’association mène une enquête technique, sociale, politique et environnementale poussée, à la place des pouvoirs publics pourtant chargés de le faire. En prenant l’exemple de son territoire, elle explique comment on s’accapare et pollue de l’eau potable pour fabriquer des gourdes connectées avec les puces de STMicroelectronics ou Soitec, quand ce n’est pas pour équiper des armes qu’on exporte au service des guerres coloniales en cours.

      Ce numérique n’est pas le nôtre

      En regardant la liste des principaux clients de Digital Realty, nous retrouvons en masse des acteurs aux pratiques numériques contestables vis à vis des droits fondamentaux et des réglementations en vigueur. Fabrice Coquio, président de Digital Realty France, déclarait il y a peu « Sans nous, il n’y a pas d’Internet », avant de lister une bonne partie des clients de ses data centers marseillais : Facebook, Amazon, Microsoft, Netflix, Disney+, Zoom, Oracle, Youtube… Le data center MRS3, où se sont produits des rejets répétés de gaz fluorés hautement polluants, abrite en son sein les services « cloud » de Microsoft déployés dans les mairies, écoles, collèges, lycées et universités publiques, forçant tout élève dès son plus jeune âge à la création de comptes Microsoft sans grand moyen de s’y opposer.
      Sticker « Le nuage était sous nos pieds » collé sur un poteau. Photo prise lors de la balade du festival Le Nuage était sous nos pieds le 9 novembre 2024. Autocollant fabriqué lors d’un atelier organisé par le hackerspace transféministe Fluidspace à Marseille.

      Comme en atteste également le travail de La Quadrature du Net depuis ses débuts il y a plus de 15 ans, à travers notamment sa campagne d’actions de groupe contre les GAFAM, ces acteurs ont monopolisé et fait d’Internet un espace commercial géant, où règnent les violences faites aux communautés minoritaires et les discriminations en tout genre. Ces acteurs, qui utilisent en toute illégalité et immoralité nos données personnelles pour nous imposer de la publicité, polluent nos espaces en ligne et nos cerveaux, et s’accaparent notre attention à coup d’algorithmes jouant sur nos biais cognitifs et visant à susciter des dépendances psychologiques. Cette publicité est aujourd’hui coupable à son tour de l’aggravation de la crise environnementale, de par la surconsommation et le modèle insoutenable qu’elle engendre et qu’elle alimente en permanence. Couplée à l’obsolescence marketée et organisée sur tout objet de consommation, qu’il soit numérique ou non, aidée et rendue possible par les infrastructures industrielles numériques polluantes, cette publicité que les GAFAM et les géants numériques contrôlent en grande majorité est une des causes majeures de l’aggravation de la crise socio-environnementale et systémique en cours.

      L’argent public que l’État met si facilement dans les mains de tels industriels pollueurs, comme l’illustrent le fond de « décarbonation de nos industries » mentionné plus haut de même que les différents contrats publics conclus avec ces géants numériques, est ainsi distribué au détriment de projets publics à intérêt commun telle l’électrification des équipements publics, la constitution de réserves d’eau, ou encore l’air que nous respirons et la ville où nous habitons. Ces projets d’intérêt général, parfois littéralement vitaux, sont laissés de côté car la priorité est constamment donnée à la croissance numérique, qui passe par l’installation croissante de data centers et d’autres types d’infrastructures numériques.
      Ce monde-là n’est pas le nôtre

      Ce numérique de la domination, dont les câbles et les data centers sont la colonne vertébrale, imposé par la vision hégémonique de la Silicon Valley et par des politiques étatiques complices de géants sans scrupules, n’est pas le nôtre.

      Cet Internet qui reproduit les dynamiques coloniales et qui repose sur l’accaparement des ressources du sol, des minerais, de l’eau, de nos territoires, mais aussi de nos corps et espaces mentaux, structuré autour de la collecte massive de données sur nos vies, source infinie de pouvoir et de profit, n’est pas le nôtre. Ce numérique qui renforce les dominations et les inégalités, fondé sur la normativité de nos comportements, sur la police prédictive et la prise de décisions automatisées, destiné à nous contrôler et à nous surveiller, pour mieux réprimer notre colère légitime, n’est pas le nôtre. Ce numérique responsable à son tour de la crise socio-environnementale sans précédent qui nous traverse, n’est pas le nôtre et nous devons le refusons.

      Notre monde à nous est un monde de soin, soin pour soi-même, pour les unes et les autres, et pour la Terre. Notre monde numérique à nous est celui d’un autre numérique, qui nous aide à nous protéger de la surveillance et des oppressions, qui nous aide à porter des savoirs communs et d’entraide, qui nous permet de hacker, bidouiller et créer des outils, des serveurs alternatifs, des réseaux décentralisés, pour mieux s’organiser et lutter pour que d’autres mondes soient possibles.

      https://www.laquadrature.net/2024/11/20/accaparement-du-territoire-par-les-infrastructures-du-numerique

    • Le nuage était sous nos pieds

      On a cru pendant longtemps que les données volaient dans les airs. Des grappes de bits dans l’éther du « cloud » qui, imperceptiblement, se faisaient mail ou vidéo une fois l’ordinateur allumé. Et puis on a regardé sous nos pieds. La plaque en fonte Pont-à-Mousson. La trappe dans le goudron, nommée « regard », estampillée « télécom », où se lovent les câbles qui transmettent les informations à l’échelle mondiale. Un fil dont l’âme est de verre et qui transmet les données à la vitesse de la lumière. Sous nos pieds, la prolongation terrestre de grands câbles sous-marins, autoroutes qui relient et contournent les continents. Sur nos plages, leurs chambres d’atterrissement.

      Au point de croisement de ces « autoroutes de l’information » : les data centers. Ces méga-ordinateurs bétonnés renferment des milliers de serveurs qui rendent possible le technocapitalisme : le trading à haute fréquence, la publicité et le pistage de données personnelles, la smart-city, l’agriculture connectée, la surveillance algorithmique via intelligence artificielle. Des « services » à n’en plus finir, imposés, marchandés, marketés, pour mieux accaparer nos territoires et nos vies, sous l’égide des plus grandes multinationales de ce monde.

      Puis, dans ces serveurs, des millions de puces et composants électroniques, des puces faites de minéraux : du silicium, du gallium, de l’or, du cuivre, du coltan, du lithium, du cobalt … À nouveau sous nos pieds, on déchire la terre pour en extraire ce qui depuis longtemps sommeille. Une extraction qui a le prix du sang, entachée des conflits qu’elle déclenche dans les pays où l’industrie numérique rejoue encore et toujours la colonisation. Ces minerais qui deviennent puces, qui deviennent gadgets, qui deviennent armes et autres instruments au service des pouvoirs politiques et industriels.

      Il n’y a pas de fatalité au « tout numérique ». Nous pouvons reprendre le contrôle. Nous devons nous organiser pour résister et mettre un terme à la destruction socio-environnementale que la trajectoire dominante de l’informatique occasionne. Nous pouvons, toutes ensemble, imaginer d’autres mondes possibles.

      https://lenuageetaitsousnospieds.org

  • #OpenAI and partners are building a massive AI #data_center in #Texas

    On Tuesday, OpenAI announced a partnership with #Oracle to develop 4.5 gigawatts of additional data center capacity for its #Stargate AI infrastructure platform in the US. The expansion, which TechCrunch reports is part of a $30 billion-per-year deal between OpenAI and Oracle, will reportedly bring OpenAI’s total Stargate capacity under development to over 5 gigawatts.

    The data center has taken root in #Abilene, Texas, a city of 127,000 located 150 miles west of Fort Worth. The city, which serves as the commercial hub of a 19-county region known as the “Big Country,” offers a location with existing tech employment ecosystem, including Dyess Air Force Base and three universities. Abilene’s economy has evolved over time from its agricultural and livestock roots to embrace technology and manufacturing sectors.

    “We have signed a deal for an additional 4.5 gigawatts of capacity with oracle as part of stargate. easy to throw around numbers, but this is a gigantic infrastructure project,” wrote OpenAI CEO Sam Altman on X. “We are planning to significantly expand the ambitions of stargate past the $500 billion commitment we announced in January.”

    The new agreement builds on OpenAI’s initial $500 billion commitment announced at the White House in January to invest in 10 gigawatts of AI infrastructure over four years. The company estimates that the 4.5 GW expansion will generate jobs across construction and operations roles, including direct full-time positions, short-term construction work, and indirect manufacturing and service jobs.

    The 5 gigawatts of total capacity refers to the amount of electrical power these data centers will consume when fully operational—enough to power roughly 4.4 million American homes. It turns out that telling users their every idea is brilliant requires a lot of energy.
    Stargate moves forward despite early skepticism

    When OpenAI announced Stargate in January, critics questioned whether the company could deliver on its ambitious $500 billion funding promise. Trump ally and frequent Altman foe Elon Musk wrote on X that “They don’t actually have the money,” claiming that “SoftBank has well under $10B secured.”

    Tech writer and frequent OpenAI critic Ed Zitron raised concerns about OpenAI’s financial position, noting the company’s $5 billion in losses in 2024. “This company loses $5bn+ a year! So what, they raise $19bn for Stargate, then what, another $10bn just to be able to survive?” Zitron wrote on Bluesky at the time.

    Six months later, OpenAI’s Abilene data center has moved from construction to partial operation. Oracle began delivering Nvidia GB200 racks to the facility last month, and OpenAI reports it has started running early training and inference workloads to support what it calls “next-generation frontier research.”

    Despite the White House announcement with President Trump in January, the Stargate concept dates back to March 2024, when Microsoft and OpenAI partnered on a $100 billion supercomputer as part of a five-phase plan. Over time, the plan evolved into its current form as a partnership with Oracle, SoftBank, and CoreWeave.

    “Stargate is an ambitious undertaking designed to meet the historic opportunity in front of us,” writes OpenAI in the press release announcing the latest deal. “That opportunity is now coming to life through strong support from partners, governments, and investors worldwide—including important leadership from the White House, which has recognized the critical role AI infrastructure will play in driving innovation, economic growth, and national competitiveness.”

    https://arstechnica.com/ai/2025/07/openai-and-partners-are-building-a-massive-ai-data-center-in-texas
    #centre_de_données #infrastructure #aménagement_du_territoire

  • Depuis le delta du Pô, regarder en face la crise climatique
    https://www.terrestres.org/2025/07/19/depuis-le-delta-du-po-regarder-en-face-la-crise-climatique

    De l’assèchement à la submersion, il n’y a souvent qu’une brève parenthèse. Dans ce texte mosaïque, un collectif de chercheurs et d’écrivains italiens enquête sur la manière dont le changement climatique et la montée du niveau de la mer bouleverse un territoire, le Delta du Pô, dont l’histoire récente est intimement liée à la gestion industrielle de ses eaux. L’article Depuis le delta du Pô, regarder en face la crise climatique est apparu en premier sur Terrestres.

    #Climat #Décroissance #Eau #Infrastructures

  • #IA : les #data_centers transforment les territoires en #déserts

    Les data centers ont consommé environ 560 milliards de litres d’eau à l’échelle mondiale en 2023. Un chiffre qui selon eux pourrait plus que doubler d’ici à 2030, pour atteindre près de 1 200 milliards de litres par an.

    Derrière les promesses de l’intelligence artificielle et du progrès technologique se cache une réalité matérielle brutale : celle de milliers de data centers qui engloutissent des quantités astronomiques d’eau pour assurer leur fonctionnement. Dans un monde confronté à une crise climatique sans précédent, et où l’accès à l’eau est un enjeu crucial, ces infrastructures numériques sont de véritables gouffres écologiques. Et leur prolifération à grande vitesse ne laisse entrevoir qu’un désastre aggravé.

    Véritable colonne vertébrale du monde numérique, les data centers sont de vastes infrastructures abritant des milliers de serveurs qui stockent, traitent et transmettent les données de nos activités en ligne. Alors que les technologies occupent une place toujours plus centrale dans nos vies, leur présence se multiplie de manière exponentielle.

    Mais cette expansion fulgurante a un coût environnemental colossal : consommation massive d’électricité – issue principalement d’énergies fossiles –, pollution sonore et lumineuse continue, accaparement et artificialisation des terres, et, fait moins renseigné, mais tout aussi alarmant, ils pompent d’énormes quantités d’eau – principalement potable – pour assurer leur fonctionnement.

    En 2023, Microsoft a utilisé 7,8 milliards de litres d’eau pour ses seuls data centers – 22% de plus qu’en 2022 – là où Google en a utilisé 24 milliards, marquant une augmentation de 14% par rapport à l’année précédente.

    Une récente étude menée par l’entreprise Cloudscene fait état de plus de 11 800 data centers d’envergure en activité dans le monde en janvier 2025. Et ce chiffre n’est voué qu’à augmenter : les médias Source Material et The Guardian révèlent que les entreprises Amazon, Google et Microsoft prévoient à elles trois d’augmenter leur nombre de data centers en service de 78% – les trois entreprises en cumulent déjà 400 à elles seules.
    IA : des milliards de litres d’eau utilisés

    L’Intelligence Artificielle (IA) joue un rôle central dans cette course à la surconsommation. Car la performance qu’on lui vante nécessite une alimentation et des infrastructures toujours plus importantes, et donc la quantité d’eau utilisée pour son bon fonctionnement.

    L’Agence Internationale de L’Énergie (AIE) estime, dans son dernier rapport Energy and AI, publié en avril 2025, que les data centers ont consommé environ 560 milliards de litres d’eau à l’échelle mondiale en 2023. Un chiffre qui selon eux pourrait plus que doubler d’ici à 2030, pour atteindre près de 1 200 milliards de litres par an.

    Il est important, pour saisir le problème dans toute sa complexité, de faire la distinction entre l’eau consommée et l’eau prélevée par les data centers. L’eau prélevée représente la quantité totale d’eau utilisée dans le cadre de la construction, le fonctionnement et l’entretien de ces infrastructures.

    L’eau consommée représente la part, sur la quantité totale, dont l’utilisation ne permet pas un renouvellement de cette ressource. Toujours selon l’AIE, les quantités prélevées sont bien supérieures à celles citées précédemment ; plus de 5 000 milliards de litres prélevés en 2023, et des estimations excédant 9 000 milliards de litres en 2030.

    L’écart considérable entre les volumes prélevés et consommés s’explique par le fait qu’une grande quantité d’eau est réintroduite dans l’environnement après avoir été utilisée. Malgré cela, ce prélèvement n’est pas sans conséquences, notamment pour les populations avoisinantes.

    L’approvisionnement de ces infrastructures se fait soit par un raccordement au système d’eau potable de la commune sur laquelle elles sont installées, ou bien en pompant l’eau directement dans les nappes phréatiques. Dans les deux cas, la question de l’accaparement de cette ressource vitale pose de sérieux problèmes, tant sur le plan du stress hydrique qu’induit la multiplication des data centers que sur l’aspect antidémocratique d’une telle prolifération.

    « Au-delà de l’aspect consommation d’eau et conflit d’usage, cet accaparement est agressif. C’est ça qui est assez problématique. Agressif dans le sens où c’est non planifié, et parfois non discuté », précise Théo Alves Da Costa, ingénieur d’analyse de données en IA et coprésident de l’association Data For Good, pour La Relève et La Peste.

    « Il y a un réel problème autour du débat démocratique par rapport à l’usage de l’eau ».
    L’opacité des grandes entreprises de l’IA

    Un des problèmes majeurs réside dans l’opacité des grandes entreprises : rares sont celles qui divulguent des données précises sur leur consommation d’eau. Les quantités mises en avant par les entreprises sont souvent limitées à celles utilisées pour assurer le refroidissement des serveurs. Il est donc nécessaire de revoir ce chiffre à la hausse..

    Toujours selon l’AIE, la quantité d’eau utilisée pour le refroidissement direct ne représente en réalité qu’un quart de la consommation totale des data centers. Environ les deux tiers de cette consommation en 2023 étaient liés à la production et à l’approvisionnement en énergie, tandis que le reste concernait l’eau nécessaire à la fabrication des semi-conducteurs et microprocesseurs, éléments essentiels au fonctionnement de ces systèmes numériques.

    C’est pourquoi l’Union européenne a introduit une directive européenne sur l’efficacité énergétique. L’UE veut contraindre les data centers de plus de 500 KwH à plus de transparence sur leur consommation réelle en énergie et en eau. Une initiative d’autant plus pertinente compte tenu du poids de leur consommation d’énergie sur le continent européen – 2,7% de la production énergétique de l’UE en 2018, et qui atteindront 3,21% en 2030.
    L’IA transforme les territoires en déserts

    Ironie cruelle : ces infrastructures gourmandes en eau s’implantent de plus en plus dans des zones sujettes aux pénuries et aux sécheresses. Microsoft et Google disposent respectivement de 42% et de 15% de leur data centers dans des territoires soumis à un fort stress hydrique.

    La région de l’Aragon, au nord de l’Espagne, est l’une de celles qui en paient le plus les conséquences. Malgré la sécheresse qui frappe régulièrement la région et fragilise ses activités – reposant en grande partie sur l’agriculture –, Amazon y prévoit la construction de trois nouveaux data centers, en plus de celui déjà en activité.

    Les autorisations fournies à Amazon permettraient à chaque infrastructure d’utiliser 755 millions de litres d’eau à l’année, soit de quoi irriguer 200 hectares de maïs, la céréale la plus cultivée dans ces territoires. La question de l’énergie risque également de cristalliser les tensions : il est estimé que les data centers d’Amazon consommeront plus d’énergie que l’ensemble des habitants de la région.

    En mai 2024, le média elDiario.es alertait déjà sur les conséquences des futurs data centers sur la région de l’Aragon, arguant que « la situation est désastreuse : 146 000 hectares sont incultivables et 175 000 hectares sont gravement endommagés par le manque d’eau. »

    Bien que cette partie de l’Espagne soit soumise à un stress hydrique, le prix du litre d’eau y reste relativement faible. Le choix de cette région semble obéir à des logiques économiques avant tout, faisant fi des considérations sociales et environnementales.

    Agriculteurs, riverains et collectifs citoyens s’organisent pour dénoncer cette véritable spoliation. L’association “Tu Nube Seca Mi Río” [“Ton cloud assèche ma rivière”] dénonce un accaparement qui menace directement l’agriculture locale.

    Comme le pointe du doigt la fondatrice de l’association “Tu Nube Seca Mi Río”, Aurora Gomez, « Ces entreprises extérieures s’imposent et accaparent les ressources. C’est du technocolonialisme ! […] Les autorités restent sourdes à nos alertes et font semblant de ne pas nous voir. »

    Cette surdité semble bien volontaire, tant elle arrange Amazon et les autorités locales, qui travaillent main dans la main pour voir ces projets se réaliser malgré les contestations citoyennes. L’enquête conjointe de The Guardian et Source Material révèle qu’Amazon et les pouvoirs publics d’Aragon ont négocié pour autoriser une augmentation de 48% de la consommation d’eau des installations existantes. Une demande discrètement validée pendant la période de Noël afin d’éviter toute surveillance ou controverse.

    L’Espagne, autrefois surnommée le potager de l’Europe, voit sa capacité agricole menacée par des sécheresses toujours plus sévères, aggravées par une mauvaise gestion de l’eau. Dans un pays dont 74% du territoire est directement menacé par la désertification, l’implantation d’infrastructures assoiffées des géants de la tech soulève de vives interrogations sur les priorités que les États européens choisissent de défendre.

    Promesses vertes et fuite en avant technologique

    Face aux critiques, les GAFAM tentent de verdir leur image. Certaines évoquent des solutions de refroidissement par air, mais celles-ci nécessitent encore plus d’énergie, déplaçant le problème plutôt que de le résoudre. D’autres affirment concevoir des “zero-water” data centers – à l’instar de Microsoft.

    Mais ces promesses s’inscrivent dans un horizon lointain, sans garantie réelle. Le Rapport international sur la sûreté de l’IA, publié en janvier 2025, indique que « si les tendances récentes se poursuivent, d’ici la fin de 2026, certains modèles d’IA à usage général seront entraînés en utilisant environ 100 fois plus de ressources de calcul d’apprentissage que les modèles les plus gourmands en calcul de 2023, pour atteindre un coût d’apprentissage 10 000 fois plus élevé d’ici 2030. »

    Si l’on se fie à ces informations, il ne semble pas hasardeux d’affirmer que cette technologie risque, à l’avenir, d’aggraver les problématiques auxquelles nous sommes confrontés – voire d’en faire émerger des nouvelles.

    Hélas, ces nombreux signaux d’alerte ne semblent pas ralentir la course au développement de l’IA, érigée en priorité par les États européens notamment.

    https://lareleveetlapeste.fr/ia-les-data-centers-transforment-les-territoires-en-deserts
    #AI #intelligence_artificielle #ressources #data_centres #eau #infrastructure #serveurs #coût_environnemental #eau_prélevée #eau_consommée #stress_hydrique #accaparement #extractivisme #désertification

  • Plus de 80 % des gymnases nécessitent une rénovation urgente
    https://www.cafepedagogique.net/2025/06/24/plus-de-80-des-gymnases-necessitent-une-renovation-urgente

    L’enquête révèle que 230 000 élèves n’ont accès à aucun #gymnase et 450 000 élèves perdent plus de 30 minutes de cours à chaque séance en raison de l’éloignement des infrastructures. 500 000 élèves (13%) ne peuvent pas apprendre à nager avec 14,2 % des établissements sans accès à une #piscine.

    Le manque d’équipements creuse les inégalités. Ainsi, seules 33 % des filles atteignent les recommandations d’activité physique (contre 50 % des garçons). Si 80 % des jeunes de milieux aisés pratiquent un sport, ils sont 60 % dans les milieux modestes. Dans les zones rurales, 36 % des communes manquent d’#infrastructures_sportives. Le syndicat pointe des écarts flagrants : il y a 12 équipements pour 10 000 habitants à Mayotte, contre 208 dans les Hautes-Alpes.

    #natation #eps #sport

  • Des PV majorés de 500% pour les riches !

    C’est une petite révolution qui mijote de l’autre côté des Pyrénées : en Espagne, le gouvernement envisage de faire payer beaucoup plus cher les #infractions_routières... aux #automobilistes les plus aisés. Fini le ticket à 100 € indolore pour ceux qui gagnent dix fois plus que le salaire moyen ! Inspirée du modèle suisse, cette réforme vise à rendre les #sanctions plus justes, en les adaptant aux revenus de chacun. Une manière de lutter contre une #injustice trop souvent ignorée : la loi est la même pour tous, mais son poids, lui, dépend de votre fiche de paie.

    C’est le genre d’annonce qui fait grincer des dents dans les beaux quartiers de Madrid. Le parti espagnol Sumar, membre de la coalition gouvernementale, souhaite que les sanctions pour infractions au Code de la route soient indexées sur les revenus des contrevenants. Le principe est simple : plus vous gagnez, plus votre amende sera élevée. Et on ne parle pas de quelques euros supplémentaires, mais bien d’une #majoration pouvant atteindre 500 % pour les conducteurs les plus #riches.

    Concrètement, si une #infraction vous coûte aujourd’hui 100 €, elle pourrait grimper à 600 € si vous gagnez plus de 100 000 € bruts par an. Le ministre des Droits sociaux, Pablo Bustinduy, soutient cette proposition, la qualifiant de « louable » et « nécessaire pour réduire les inégalités ».

    Une #justice_routière à plusieurs vitesses

    Actuellement, en Espagne comme dans la plupart des pays, les amendes sont fixes, quelle que soit la #situation_financière du contrevenant. Un cadre supérieur peut donc se permettre d’ignorer une #contravention pour stationnement gênant ou excès de vitesse, là où un smicard y laissera une grosse part de son budget mensuel.

    La réforme s’appuie sur un principe déjà appliqué dans certains pays nordiques, et notamment en Suisse, où les amendes sont déjà proportionnelles aux revenus. Là-bas, rouler à 200 km/h peut coûter... plus d’un million d’euros. Un record mondial détenu par un conducteur suédois en 2010, épinglé pour grand excès de vitesse. Chez les Helvètes, on ne rigole pas avec les limitations.

    Les riches ciblés, les modestes soulagés ?

    La proposition espagnole va plus loin qu’une simple #surtaxe pour les hauts revenus. Elle prévoit aussi des #réductions_de_peine pour les conducteurs aux ressources modestes. Ceux qui gagnent moins de 1,5 fois le SMIC espagnol pourraient bénéficier d’un #rabais de 30 % sur leurs amendes, et ceux entre 1,5 et 2,5 fois le SMIC d’une réduction de 15 %.

    L’idée est de restaurer un semblant d’#égalité devant la loi, en évitant qu’une sanction ne soit dérisoire pour les uns et écrasante pour les autres.

    Une réforme qui fait débat

    Évidemment, la mesure ne fait pas l’unanimité. Certains dénoncent une « punition fiscale déguisée », d’autres y voient une dérive vers une justice à géométrie variable. Le gouvernement, lui, défend une approche plus équitable, dans un contexte où les écarts de richesse ne cessent de se creuser.

    Pour l’instant, la proposition doit encore être débattue au Congrès des députés espagnol. Mais elle pourrait bien faire école ailleurs en Europe, où les inégalités de traitement devant la loi sont de plus en plus critiquées.

    Vers une Europe des PV sur mesure ?

    Et si cette initiative espagnole n’était que le début d’un mouvement plus large ? Difficile de dire si la France ou d’autres pays suivront le pas. Mais à l’heure où les radars automatiques fleurissent et où l’écologie impose de nouvelles restrictions à la conduite, la question de l’équité financière dans les sanctions mérite d’être posée.

    Faire payer davantage ceux qui ont les moyens n’est peut-être pas si choquant. Après tout, payer une amende, ce n’est pas censé être un simple désagrément : c’est censé faire réfléchir.

    https://www.automobile-magazine.fr/insolite/article/48173-des-pv-majores-de-500-pour-les-riches
    #Espagne #amendes