• « S’adapter à un monde invivable n’est pas une option ». Sur l’#IA et l’#enseignement

    Le discours fataliste de l’adaptation à un monde envahi par les intelligences artificielles est un #renoncement aux objectifs émancipateurs du #service_public de l’éducation. On peut le mettre en parallèle avec le discours de l’#adaptation au #changement_climatique qui fait oublier l’objectif prioritaire : son #atténuation.

    C’est un article de plus, un article de trop, un énième éloge de la disruption des pratiques pédagogiques par l’IA. Avec une phrase qui revient à chaque fois que le thème est abordé, que ce soit institutionnellement, médiatiquement, politiquement : « la question n’est plus de savoir s’il faut s’opposer aux IA, mais comment on va #vivre_avec ces outils que les étudiants utilisent dorénavant massivement »

    Ce discours d’un apparent bon sens (on n’arrête pas le progrès) dissimule mal le fait que la question de s’opposer aux IA n’a, en réalité, jamais été politiquement, économiquement posée, comme nous l’avons déjà écrit ici (https://blogs.mediapart.fr/amelie-hart/blog/090225/education-nationale-there-no-ia-alternative) par exemple. De multiples ouvrages, articles, travaux documentaires sont parus et paraissent chaque jour encore pour analyser avec la plus grande précision les mécanismes et les enjeux du développement des IA. Cette abondante production intellectuelle montre bien l’existence d’arguments qui DEVRAIENT être pris au sérieux dans le cadre de la prise de décision politique, par exemple quand il s’agit d’ouvrir massivement la porte aux IA dans les #services_publics en général et celui de l’éducation en particulier. Pourtant, dans une réalité parallèle, de réunions de « concertation » ministérielles en webinaires et autres formations à destination des enseignant·es, il est toujours question d’un débat désormais dépassé – avant d’avoir eu lieu. Il existe un « phénomène », présent dans nos vies comme la pluie ou le soleil, on n’y peut rien, pas plus qu’on ne peut agir sur la météo, ou le climat… Ah bon, vraiment ?

    IA et #climat : un même renoncement

    Ce discours de la #fatalité rappelle la manière dont sont pris en compte aujourd’hui les enjeux du changement climatique et de ses conséquences dramatiques pour l’humanité. Les pouvoirs publics main dans la main avec les intérêts économiques capitalistes ne veulent plus réfléchir aux moyens de freiner le réchauffement global et l’effondrement du vivant (si tant est qu’ils aient un jour été sincères dans leur volonté de s’attaquer aux causes de ces deux problèmes). Il ne s’agit plus que de « s’adapter », dans une logique techno-solutionniste mortifère.

    Le discours de l’adaptation est un discours de renoncement à la lutte, un discours de #lâcheté. En tant qu’enseignant·es, du primaire jusqu’au supérieur, notre devoir moral envers les enfants, adolescent·es et jeunes adultes que nous formons n’est pas de les préparer à construire leur vie sur une planète rendue invivable par notre inaction, en « s’adaptant ». Pas plus qu’il n’est de les former à un monde totalement envahi par les intelligences artificielles, en particulier génératives. Notre devoir moral est de faire tout ce qui est en notre pouvoir pour ATTÉNUER de toute urgence le dérèglement climatique, le frein au développement tous azimuts des IA jouant d’ailleurs un rôle dans cette atténuation.

    La #consommation contre l’#émancipation

    Il est curieux que dans un monde éducatif qui se montre, heureusement, capable de s’opposer – au moins dans les programmes officiels et valeurs revendiquées – au monde tel qu’il semble aller de soi, inégalitaire, violent, machiste etc., on renonce à toute ambition émancipatrice dès qu’il s’agit d’évolutions technologiques. Même en matière d’éducation aux enjeux environnementaux et climatiques il existe des contenus, des pratiques, des formations, des projets qui tentent de faire des jeunes des acteurs et actrices d’une autre trajectoire pour la planète. En matière de formation et d’éducation au numérique en général et à l’intelligence artificielle en particulier il n’existe que le fatalisme, et le consumérisme : comment s’emparer de telle ou telle nouveauté à l’intérêt pédagogique incontesté proposée par des industriels désintéressés ? Le tout s’accompagnant d’hypocrites dénégations : bien sûr qu’il ne faut pas réfléchir à partir de l’outil, en s’obligeant à l’utiliser parce qu’il existe, mais bien à partir des besoins identifiés par les professionnel·les… Mais qui avait ressenti le besoin des IA génératives généreusement mises à disposition par OpenAI, Meta, Google etc avant qu’elles n’existent par la grâce de stratégies industrielles aux objectifs assez peu pédagogiques, on en conviendra ? Qu’importe, désormais vous apprendrez de l’école à l’université à quel point le monde ne peut se passer ces outils, et vous non plus.

    Il est urgent que le monde se défasse le plus vite et le plus largement possible de tout ce qui contribue à maintenir, a fortiori à augmenter la production de gaz à effet de serre. Il est urgent d’apprendre à se passer des IA, surtout des IA génératives, avant que nous en ayons été rendus dépendant·es, comme nous le sommes des énergies fossiles. Un enseignement émancipateur tel que, espérons-le, la majorité des professeur·es du service public le conçoit, doit libérer les esprits du fatalisme et encourager à l’#action, voire à la #lutte.

    S’adapter à un monde invivable n’est pas une option.

    https://academia.hypotheses.org/62113
    #AI #intelligence_artificielle #ESR #dépendance

  • « Nos sociétés doivent prendre conscience que l’industrie du tabac les empoisonne en tant que telles »
    https://www.lemonde.fr/sciences/article/2025/04/22/nos-societes-doivent-prendre-conscience-que-l-industrie-du-tabac-les-empoiso

    Fumer nuit à la santé des personnes et de l’environnement mais aussi, bien plus globalement, à celle des sociétés humaines, expliquent les deux professeurs de pneumologie dans une tribune au « Monde ». Ainsi, au travers d’une dépendance qui commence trop souvent dès l’enfance, le tabac s’attaque à toutes les formes de liberté.

    C’est fastoche vu que j’ai arrêté depuis 6 mois, je ferais mieux de la fermer. N’empêche que oui, ma motivation a été politique. Comment pouvais-je concevoir le mot liberté si j’étais entravée par cette saloperie. D’autant que l’industrie du tabac a toujours la perversité de jouer sur la notion de liberté, que le tabac est fait pour rendre les femmes libres, féministes, et même topo pour les hommes de l’ouest sauvage.
    Ça m’arrive quotidiennement maintenant de gouter à cette libération, le pied, de nez, de poumons.

    #paywall

  • America is great again !
    https://carfree.fr/index.php/2025/04/13/america-is-great-again

    Ça y est ! C’est nous qu’on a gagné ! #donald_trump et son « Make America Great Again » sont de nouveau au pouvoir au lieu d’être en prison. Grâce à Donald, l’Amérique Lire la suite...

    #Destruction_de_la_planète #Fin_du_pétrole #Réchauffement_climatique #consommation #destruction #humour #pétrole #pollution #ridicule #usa

  • #Enseignement et #IA : la #consommation contre l’#émancipation | Le Club
    https://blogs.mediapart.fr/amelie-hart/blog/090425/enseignement-et-ia-la-consommation-contre-l-emancipation

    Le discours fataliste de l’adaptation à un monde envahi par les #intelligences_artificielles est un #renoncement aux objectifs émancipateurs du service public de l’#éducation. On peut le mettre en parallèle avec le discours de l’#adaptation au #changement_climatique qui fait oublier l’objectif prioritaire : son atténuation.

  • L’hypercroissance du discounteur Action, qui compte « ouvrir un magasin par jour en Europe »
    https://www.lemonde.fr/economie/article/2025/04/01/l-hypercroissance-du-discounteur-action-qui-compte-ouvrir-un-magasin-par-jou


    Hajir Hajji, la PDG d’Action, dans le magasin de Velserboek, aux Pays-Bas, en 2025. ACTION

    En 2024, plus de 18 millions de clients dans le monde arpentaient chaque semaine les allées de ses magasins. Soit 3,4 millions de plus qu’en 2023, et 10 millions de plus qu’en 2019. Une illustration du changement de #consommation opéré ces dernières années. La recherche du meilleur prix dans un contexte de pouvoir d’achat contraint incite les ménages à fragmenter leurs courses, en multipliant le nombre de magasins fréquentés pour alléger leur budget.

    Lancé en 1993 aux Pays-Bas, le discounteur Action possède aujourd’hui 2 918 magasins, qui emploient 79 681 personnes dans 12 pays, et enregistre, sur une vingtaine d’années, une croissance moyenne annuelle de ses ventes de 24 %. En 2024, son activité a bondi de 10,3 % à surface comparable, 21,7 % au total, à 13,8 milliards d’euros. Parmi ses meilleures ventes, celles de la catégorie blanchisserie et nettoyage, pour laquelle, face à la flambée des prix, de nombreux ménages se sont détournés de leur supermarché.

    Dans le modèle Action, les coûts sont réduits au minimum. « Pas de dépenses marketing, pas d’emplacement dans les rues principales », souligne la patronne du #discounteur néerlandais. Les magasins, d’environ 900 mètres carrés de surface de vente, doivent être situés dans une zone de chalandise d’au moins 40 000 personnes, où le loyer est l’un des critères minutieusement examinés. Cette superficie ne doit rien au hasard : elle permet à l’enseigne, en France, d’ouvrir des points de vente très rapidement, en échappant en général à l’obtention préalable d’une autorisation administrative de la commission départementale d’aménagement commercial, obligatoire au-delà de 1 000 mètres carrés.

    Autre force du concept, son efficacité opérationnelle : « 95 % de l’assortiment est le même dans tous les pays, mais on le change tout le temps », lance la PDG. Chez le discounteur, les consommateurs ne peuvent pas, comme dans un supermarché classique, trouver à chaque passage leurs produits fétiches. Seul un tiers de l’assortiment des magasins est fixe.

    https://archive.ph/S6HIQ

    #grande_distribution #logisitique

  • La nuit, tous les chats noirs ne sont pas anars !
    https://bsky.app/profile/antifouchiste.bsky.social/post/3lkeoyyagkc2l


    #Arnaquisme

    Action Antifouchiste
    9h
    Puisqu’il semble que personne n’est au courant on va tirer les choses au clair quant au réseau dégueulasse qui se cache derrière @infolibertaire.net
    Ce site pille littéralement tout contenu militant dans le but d’agréger un maximum de trafic et afin d’attirer les internautes dans un réseau mis en place et géré par un seul mec basé au canada.
    Plus de 30 sites constituent le réseau fondé par un certain"Anarchoi".
    Le plus connu c’est le site de VPC Ni Dieu Ni Maître qui semble faire des profits mirobolants.
    Mais attention hein une part des profits sert la cause. T’achète pas un tee-shirt dégueulasse, produit à bas coût dans des conditions lamentables. Non tu achètes un acte de solidarité !
    C’est plus qu’un simple teeshirt c’est un acte de solidarité chaque achat permet de lever des fonds pour faire des dons aux mêmes causes que vous défendez
    Car une partie du pognon est reversée à une organisation appelée No Gods No Masters (gerée par le même petit malin), orga qui reverse ensuite sous forme de dons à différentes causes en toute opacité bien sûr.
    Or... Il se trouve que parmi les causes financées on retrouve la galaxie de sites fondée et administrée toujours par Anarchoi.
    Votre teeshirt financé plus de 100 groupes militants Chaque achat récolte des dons mensuels à des initiatives comme info libertaire offrant un hébergement web non commercial sur des serveurs écologique et aidant les militants à construire une présence en ligne
    Soutenez la scène punk Nos teeshirt soutiennent financièrement les plus grandes communautés punk et plateforme de streaming musical comme pirate punk et d’autres outils essentiels aidant les groupes à promouvoir leurs albums
    Site qui pille le contenu d’artistes des scènes indépendantes (ou pas) qui ont un grand succès chez les "jeunes ados rebelles", très friands des tee-shirts vendus par Ni Dieu Ni Maître.
    C’est l’économie circulaire. Tu ratisses un max des visiteurs sur tes sites en pillant le monde militant et les artistes, pour flécher ton public vers ton site de VPC qui en retour finance l’infrastructure de ton réseau.
    Afin de pouvoir offrir gratuitement des milliers de téléchargement là communauté devait trouver un moyen de payer ses frais d’opération sans recourir à des publicités
    Anarchoi est célèbre pour son management toxique de ses équipes de modération comme pour l’agressivité légendaire contre toute personne qui ose remettre en cause ses pratiques dégueulasses. En bref fuyez tout ces sites de merde.
    Avec le pognon engrangé, ce faux collectif annonce héberger un centaine de sites militants (c’est faux) qui se révèlent pour tous ceux qu’on a pu trouver en tout cas, être les vitrines du même anarchoi.
    Il va jusqu’à se faire passer pour les fédérations anarchistes locales.
    Dans le réseau on retrouve notamment :
    anarcho-punk net
    Pirate punk
    Quebec underground
    Forum libertaire
    Punk download
    Punks and skins
    Anarchist quotes
    Et tout un tas de faux website de fédération anarchiste reproduit en un dizaines de langues.
    Anarcho-Punk.net - Crust Punk Community & Music Download Ⓐ/Ⓔ FREE MUSIC ALBUMS DOWNLOADS ! Crust Punk Online Community - Music, Activism & Anarchism ! www.anarcho-punk.net
    On sait pas si le montage juridique de son réseau lui permet de défiscaliser les dons. Ou au moins de faire baisser ses bénéfices. Bref tout ça mériterait une enquête approfondie. Si y a des motivé·es hésitez pas à nous contacter.
    Merci à @doujar.bsky.social
    Liste des sites du réseau Anarchoi.
    https://www.nogodsnomasters.org https://www.no-gods-no-masters.com https://forum.anarchistfederation.net https://www.anarcho-punk.net https://www.libertaire.net https://www.pirate-punk.net https://www.ni-dieu-ni-maitre.com https://www.quebecunderground.net https://www.punkdownload.com https://www.punksandskins.com https://www.anarchistfederation.net https://www.infolibertaire.net https://www.federacionanarquista.net https://www.federacaoanarquista.com.br https://www.anarchistischefoderation.de https://www.rivoluzioneanarchica.it https://www.anarquia.cat https://www.anarxiki-omospondia.gr https://www.anarsisthaberler.net https://www.anarchistischefederatie.nl https://www.vegan-news.net https://www.anarchistimages.com https://www.propagande-anarchiste.org https://www.anarquismo.net https://www.anarchistmemes.org https://www.ni-dios-ni-amo.com https://www.sem-deuses-sem-mestres.com https://www.keinegotterkeinemeister.de https://www.defendanimals.com
    Ne vous étonnez donc pas de trouver des contenus antisémites, transphobes, ou du HB. Y a zéro filtre tout est automatisé. Anarchoi la politique c’est juste son business.
    Screen du site info libertaire L’idéologie de l’identité de genre est profondément mysogine et homophobe
    Le réseau Ni Dieu Ni Maître / No Gods No Masters s’articule autour de plusieurs sites web multilingues qui constituent la plateforme de vente en ligne. Chacun reprend le slogan anarchiste « Ni Dieu ni Maître » dans une langue différente. On dénombre cinq sites principaux interconnectés
    Ces sites présentent un contenu similaire (catalogue de vêtements, même modèle économique) adaptés à chaque langue, avec une promotion commune : « Livraison gratuite/Free shipping », « coopérative de vêtements éthiques », « chaque vente contribue à des dons pour des causes », etc..
    Un visiteur peut naviguer dans sa langue sans être redirigé vers un autre domaine, chaque version étant sur un domaine dédié
    Aucune redirection externe apparente n’est visible pour l’utilisateur lors de la commande, mais en back-end les commandes sont transmises à la plateforme Spreadshirt
    Ces sites sont de simples vitrines : ils proposent des designs et gère le site web, mais n’a pas de stock propre ni d’atelier d’impression. Ce fonctionnement « zéro inventaire » est assumé dans leur communication (« zero inventory, zero waste »)
    Concrètement, lorsqu’une commande est passée sur un des sites, c’est Spreadshirt qui la prend en charge en coulisses : Spreadshirt assure l’impression des t-shirts, la livraison au client et gère également les paiements. 100% dropshiping
    En 2010 un t-shirt était vendu 14,99 $ via la boutique Pirate-Punk/No Gods No Masters, dont 8,90 $ revenaient à Spreadshirt, laissant environ 6 $ de bénéfice net par t-shirt pour “Anarchoi"
    La "coopérative" se présente comme « à but non lucratif » et met en avant ses dons, mais il n’y a pas de statut légal clair affiché (pas de n° d’association ou coopérative déclaré publiquement sur le site, ni de rapport financier détaillé).
    Elle recueille des fonds sous l’étiquette “non-profit” sans cadre légal : les acheteurs pourraient croire à une obligation formelle de donation, là où il s’agit d’un engagement moral unilatéral.
    Autant vous dire...
    Le catalogue de No Gods No Masters puise largement dans l’iconographie militante, les logos de mouvements, les images d’artistes ou de groupes de musique engagés... Un “pillage” culturel contraire à l’éthique DIY
    ... Pillage généralisé des petites distro, artistes indépendants, etc, sur les plateformes de téléchargement illégaux qui servent de produits d’appel pour les boutiques.
    Évidemment aucun site ne comporte de mentions légales, pas de noms de société, et le whois protégé par des services d’anonymisation.
    Les sites de VPC affichent des labels du type « 100% vegan – PETA Approved » sur ses produits. Il faut noter que ces certifications proviennent en réalité de... Spreadshirt
    La réalité les teeshirt de marque "fruit of the loom" sont fabriqués au Honduras...

    Comme le dit anarchoi "plus qu’un simple teeshirt", une arnaque bien ficelée.
    Il existe une possibilité que derrière ce modèle se cache un schéma, hypothétique, d’optimisation fiscale.

    Le site de VPC (NGNM) génère des revenus via la vente de t-shirts. Ces revenus sont normalement imposables s’ils sont déclarés en tant qu’activité commerciale
    NGNM effectue des “dons” à des associations militantes affiliées.
    → Ces dons sont enregistrés comme des charges d’exploitation ou dépenses caritatives, ce qui peut potentiellement réduire le bénéfice imposable
    L’asso "militante" reçoit les fonds et les utilise pour financer ses propres projets ou ses sites web.
    Si l’asso est déclarée comme organisme d’intérêt général au Canada, elle peut délivrer un reçu fiscal permettant au donateur de déduire ce montant de ses impôts.
    L’argent revient indirectement dans le réseau géré par Anarchoi. Si ces associations financent des sites du réseau notamment en payant l’hébergement (Pirate-Punk, Libertaire . net, etc...), alors l’argent circule sans réellement quitter le contrôle du même groupe
    Là on est dans le domaine de l’hypothèse, mais cependant vu l’opacité organisée par l’administrateur de cette galaxie de sites, on peut s’attendre à tout.
    Et puis c’est pas comme si par le passé il avait pas déjà été pointé du doigt pour ramasser des dons afin de payer l’hébergement et les serveurs de ces sites de piratage de contenus, alors que les fichiers étaient stockés sur megaupload où d’autres plateformes..

  • Les contenus haineux et négatifs sont rentables pour les médias sociaux publicitaires
    https://www.laquadrature.net/2025/01/20/les-contenus-haineux-et-negatifs-sont-rentables-pour-les-medias-sociau

    Ce 20 janvier, 5 personnalités d’associations citoyennes expliquent dans cette tribune les liens, entre médias sociaux publicitaires et les contenus haineux et négatifs. Elles appellent à aller sur des réseaux sociaux sans pub, à bloquer…

    #Censure #Non_classé

  • L’#Agence_bio menacée de disparition avec l’aval du gouvernement
    https://www.lemonde.fr/economie/article/2025/01/20/l-agence-bio-menacee-de-disparition-avec-l-aval-du-gouvernement_6507306_3234

    L’Agence bio menacée de disparition avec l’aval du gouvernement
    Le Sénat a voté un amendement actant la suppression de l’#Agence_française_pour_le_développement_et_la_promotion_de_l’agriculture_biologique.

    Par Laurence Girard

    Publié hier à 19h18, modifié à 07h32

    « C’est #bio la France ! » Ce slogan a été choisi comme signature de la campagne publicitaire préparée pour soutenir le marché bio, en crise profonde de #consommation, et les #agriculteurs convertis aux pratiques respectueuses de l’environnement. Elle devait être présentée lors du Salon de l’agriculture, qui ouvrira ses portes le 22 février à Paris. Sauf que l’Agence française pour le développement et la promotion de l’agriculture biologique, dite « Agence bio », son instigatrice, pourrait bien disparaître du paysage. Vendredi 17 janvier, le Sénat a en effet voté, dans le cadre de l’examen du projet de loi de finances, un amendement défendu par le sénateur #Laurent_Duplomb (LR) actant sa suppression.

    Le gouvernement, à travers la voix de sa ministre de l’agriculture, Annie Genevard, a donné son accord de bienveillance, dit « avis de sagesse », à l’adoption de cet amendement. Lundi 20 janvier, son cabinet a réagi, en mettant cette décision en perspective avec « la trajectoire de réduction du nombre d’opérateurs de l’Etat ». Il précise que le texte adopté vise à supprimer la charge pour service public de l’Agence bio, soit une annulation de crédit de 2,9 millions d’euros, et à transférer ses missions soit sous l’égide du ministère, soit sous celle de l’établissement public FranceAgriMer. Enfin, le cabinet souligne que « toute évolution de cette nature doit être précédée d’une consultation ».

    Dirigeants et employés de l’Agence bio, qui compte 23 salariés de droit privé, n’ont, à leurs dires, pas été consultés avant cette décision. Quant au président de la Fédération nationale d’agriculture biologique, Philippe Camburet, il n’a été reçu par Mme Genevard que lundi matin. « On peut dire que ce gouvernement a le sens du timing et de la cohérence politique. Venir nous expliquer en pleine crise de la bio qu’il faut supprimer l’acteur chargé de promouvoir nos produits, c’est pour le moins osé. Depuis trois ans, nous avions l’impression d’être rentrés dans un processus collaboratif de recherche de solutions qui vient d’être mis à terre », déplore-t-il.

    La baisse de la consommation fragilise la #filière
    L’Agence bio, créée en 2001, a trois missions de service public : promouvoir le label bio auprès des consommateurs, analyser le marché tout en publiant des données statistiques fiables sur son développement, et financer la structuration des filières avec le Fonds Avenir bio. Selon le dernier baromètre diffusé en juin 2024, le nombre d’agriculteurs bio a dépassé 61 000, et ils exercent leur métier sur 10,3 % de la surface agricole utile. Mais la baisse de la consommation fragilise la filière depuis presque trois ans, et le risque de déconversion des agriculteurs bio est réel.

    Lire aussi | Article réservé à nos abonnés Loi agricole : les objectifs de surfaces en bio effacés du code rural

    Il y a un an, après bien des atermoiements, le gouvernement a lancé le plan Ambition bio 2027, avec un renforcement des moyens attribués à l’Agence bio et la fixation de l’objectif de 18 % de surfaces agricoles utiles à échéance 2027. Dans un communiqué commun, les administrateurs de l’Agence bio, dont font partie la Coopération agricole ou la grande distribution, disent « non à la suppression du seul opérateur public pour l’agriculture biologique », qualifiant cette « rationalisation » d’« économies de bouts de chandelle ».

    Pour le syndicat de la #Confédération_paysanne, « cette possible suppression, décrite comme une idée “pertinente” par la ministre de l’agriculture, sonne comme un énième #reniement pour le développement de #la_bio ».

    Lire aussi (2023) | Le bio en pleine désaffection : « Certains producteurs n’affichent plus le logo pour ne pas faire fuir le client »

    #Laurence_Girard

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • Projet Duty free shop : l’évolution du terminal de l’aéroport d’Oslo, 2005-2007
    https://www.visionscarto.net/duty-free-shop-oslo

    Titre Projet Duty free shop : l’évolution du terminal de l’aéroport d’Oslo, 2005-2007 Mots-clés #cartographie_radicale #cartographie_expérimentale #transport #aéroport #espace_public #espace_privé #accaparement #colonisation #capitalisme #consommation #commerce #Oslo #Norvège #DFS Auteur Philippe Rekacewicz Date de création 2008-2012 #Cartothèque

  • Ce que l’énergie fait à la ville : une perspective historique
    https://metropolitiques.eu/Ce-que-l-energie-fait-a-la-ville-une-perspective-historique.html

    Les transitions énergétiques remodèlent-elles l’organisation des villes ? Dans le cadre du partenariat de Métropolitiques avec le Prix de thèse sur la ville, Julie Roland et Jean Soumagne présentent le travail de Clarence Hatton-Proulx, Grand Prix 2024, qui analyse cette question au prisme du #Montréal des années 1945-1980. Tout le monde a en tête le machiavélique juge Doom de Qui veut la peau de Roger Rabbit. Nous sommes en 1947, à Los Angeles, et il symbolise ce que le pétrole s’apprête à changer #Commentaires

    / #métropole, #énergie, #transition_énergétique, #consommation, Montréal, #Canada, #histoire

    https://metropolitiques.eu/IMG/pdf/met_puca-roland-soumagne.pdf

  • « Nous assistons à une escalade de la #prédation_minière »

    Une nouvelle #ruée_minière a commencé et touche aussi la #France. Au nom de la lutte contre la crise climatique, il faudrait extraire de plus en plus de #métaux. Celia Izoard dénonce l’impasse de cette « #transition » extractiviste. Entretien.

    Basta/Observatoire des multinationales : Il est beaucoup question aujourd’hui de renouveau minier en raison notamment des besoins de la transition énergétique, avec la perspective d’ouvrir de nouvelles mines en Europe et même en France. Vous défendez dans votre #livre qu’il ne s’agit pas du tout d’un renouveau, mais d’une trajectoire de continuité. Pourquoi ?

    #Celia_Izoard : Les volumes de #métaux extraits dans le monde aujourd’hui augmentent massivement, et n’ont jamais cessé d’augmenter. Ce qui est parfaitement logique puisqu’on ne cesse de produire de nouveaux objets et de nouveaux équipements dans nos pays riches, notamment avec la #numérisation et aujourd’hui l’#intelligence_artificielle, et qu’en plus de cela le reste du monde s’industrialise.

    En conséquence, on consomme de plus en plus de métaux, et des métaux de plus en plus variés – aussi bien des métaux de base comme le #cuivre et l’#aluminium que des métaux de spécialité comme les #terres_rares. Ces derniers sont utilisés en très petite quantité mais dans des objets qui sont partout, comme les #smartphones, et de façon trop dispersive pour permettre le #recyclage.

    Et la production de tous ces métaux devrait continuer à augmenter ?

    Oui, car rien ne freine cette production, d’autant plus qu’on y ajoute aujourd’hui une nouvelle demande qui est un véritable gouffre : celle de métaux pour le projet très technocratique de la transition. « Transition », dans l’esprit de nos élites, cela signifie le remplacement des #énergies_fossiles par l’#énergie_électrique – donc avec des #énergies_renouvelables et des #batteries – avec un modèle de société inchangé. Mais, par exemple, la batterie d’une #voiture_électrique représente souvent à elle seule 500 kg de métaux (contre moins de 3 kg pour un #vélo_électrique).

    Simon Michaux, professeur à l’Institut géologique de Finlande, a essayé d’évaluer le volume total de métaux à extraire si on voulait vraiment électrifier ne serait-ce que la #mobilité. Pour le #lithium ou le #cobalt, cela représenterait plusieurs décennies de la production métallique actuelle. On est dans un scénario complètement absurde où même pour électrifier la flotte automobile d’un seul pays, par exemple l’Angleterre ou la France, il faut déjà plus que la totalité de la production mondiale. Ce projet n’a aucun sens, même pour lutter contre le #réchauffement_climatique.

    Vous soulignez dans votre livre que l’#industrie_minière devient de plus en plus extrême à la fois dans ses techniques de plus en plus destructrices, et dans les #nouvelles_frontières qu’elle cherche à ouvrir, jusqu’au fond des #océans et dans l’#espace

    Oui, c’est le grand paradoxe. Les élites politiques et industrielles répètent que la mine n’a jamais été aussi propre, qu’elle a surmonté les problèmes qu’elle créait auparavant. Mais si l’on regarde comment fonctionne réellement le #secteur_minier, c’est exactement l’inverse que l’on constate. La mine n’a jamais été aussi énergivore, aussi polluante et aussi radicale dans ses pratiques, qui peuvent consister à décapiter des #montagnes ou à faire disparaître des #vallées sous des #déchets_toxiques.

    C’est lié au fait que les teneurs auxquelles on va chercher les métaux sont de plus en plus basses. Si on doit exploiter du cuivre avec un #filon à 0,4%, cela signifie que 99,6% de la matière extraite est du #déchet. Qui plus est, ce sont des #déchets_dangereux, qui vont le rester pour des siècles : des déchets qui peuvent acidifier les eaux, charrier des contaminants un peu partout.

    Les #résidus_miniers vont s’entasser derrière des #barrages qui peuvent provoquer de très graves #accidents, qui sont sources de #pollution, et qui sont difficilement contrôlables sur le long terme. Nous assistons aujourd’hui à une véritable #escalade_technologique qui est aussi une escalade de la #prédation_minière. La mine est aujourd’hui une des pointes avancées de ce qu’on a pu appeler le #capitalisme_par_dépossession.

    Comment expliquer, au regard de cette puissance destructrice, que les populations occidentales aient presque totalement oublié ce qu’est la mine ?

    Il y a un #déni spectaculaire, qui repose sur deux facteurs. Le premier est la religion de la #technologie, l’une des #idéologies dominantes du monde capitaliste. Nos dirigeants et certains intellectuels ont entretenu l’idée qu’on avait, à partir des années 1970, dépassé le #capitalisme_industriel, qui avait été tellement contesté pendant la décennie précédente, et qu’on était entré dans une nouvelle ère grâce à la technologie. Le #capitalisme_post-industriel était désormais avant tout une affaire de brevets, d’idées, d’innovations et de services.

    Les mines, comme le reste de la production d’ailleurs, avaient disparu de ce paysage idéologique. Le #mythe de l’#économie_immatérielle a permis de réenchanter le #capitalisme après l’ébranlement des mouvements de 1968. Le second facteur est #géopolitique. Aux grandes heures du #néo-libéralisme, le déni de la mine était un pur produit de notre mode de vie impérial. Les puissances occidentales avaient la possibilité de s’approvisionner à bas coût, que ce soit par l’#ingérence_politique, en soutenant des dictatures, ou par le chantage à la dette et les politiques d’#ajustement_structurel. Ce sont ces politiques qui ont permis d’avoir par exemple du cuivre du #Chili, de #Zambie ou d’#Indonésie si bon marché.

    Les besoins en métaux pour la #transition_climatique, si souvent invoqués aujourd’hui, ne sont-ils donc qu’une excuse commode ?

    Invoquer la nécessité de créer des mines « pour la transition » est en effet hypocrite : c’est l’ensemble des industries européennes qui a besoin de sécuriser ses approvisionnements en métaux. La récente loi européenne sur les métaux critiques répond aux besoins des grosses entreprises européennes, que ce soit pour l’#automobile, l’#aéronautique, l’#aérospatiale, les #drones, des #data_centers.

    L’argument d’une ruée minière pour produire des énergies renouvelables permet de verdir instantanément toute mine de cuivre, de cobalt, de lithium, de #nickel ou de terres rares. Il permet de justifier les #coûts_politiques de la #diplomatie des #matières_premières : c’est-à-dire les #conflits liés aux rivalités entre grandes puissances pour accéder aux #gisements. Mais par ailleurs, cette transition fondée sur la technologie et le maintien de la #croissance est bel et bien un gouffre pour la #production_minière.

    Ce discours de réenchantement et de relégitimation de la mine auprès des populations européennes vous semble-t-il efficace ?

    On est en train de créer un #régime_d’exception minier, avec un abaissement des garde-fous réglementaires et des formes d’extractivisme de plus en plus désinhibées, et en parallèle on culpabilise les gens. La #culpabilisation est un ressort psychologique très puissant, on l’a vu durant le Covid. On dit aux gens : « Si vous n’acceptez pas des mines sur notre territoire, alors on va les faire ailleurs, aux dépens d’autres populations, dans des conditions bien pires. » Or c’est faux. D’abord, la #mine_propre n’existe pas.

    Ensuite, la #loi européenne sur les #métaux_critiques elle prévoit qu’au mieux 10% de la production minière soit relocalisée en Europe. Aujourd’hui, on en est à 3%. Ce n’est rien du tout. On va de toute façon continuer à ouvrir des mines ailleurs, dans les pays pauvres, pour répondre aux besoins des industriels européens. Si l’on voulait vraiment relocaliser la production minière en Europe, il faudrait réduire drastiquement nos besoins et prioriser les usages les plus importants des métaux.

    Peut-on imaginer qu’un jour il existe une mine propre ?

    Si l’on considère la réalité des mines aujourd’hui, les procédés utilisés, leur gigantisme, leur pouvoir de destruction, on voit bien qu’une mine est intrinsèquement problématique, intrinsèquement prédatrice : ce n’est pas qu’une question de décisions politiques ou d’#investissements. L’idée de « #mine_responsable » n’est autre qu’une tentative de faire accepter l’industrie minière à des populations en prétendant que « tout a changé.

    Ce qui m’a frappé dans les enquêtes que j’ai menées, c’est que les industriels et parfois les dirigeants politiques ne cessent d’invoquer certains concepts, par exemple la #mine_décarbonée ou le réemploi des #déchets_miniers pour produire du #ciment, comme de choses qui existent et qui sont déjà mises en pratique. À chaque fois que j’ai regardé de plus près, le constat était le même : cela n’existe pas encore. Ce ne sont que des #promesses.

    Sur le site de la nouvelle mine d’#Atalaya à #Rio_Tinto en #Espagne, on voir des panneaux publicitaires alignant des #panneaux_photovoltaïques avec des slogans du type « Rio Tinto, la première mine d’autoconsommation solaire ». Cela donne à penser que la mine est autonome énergétiquement, mais pas du tout. Il y a seulement une centrale photovoltaïque qui alimentera une fraction de ses besoins. Tout est comme ça.

    Le constat n’est-il pas le même en ce qui concerne le recyclage des métaux ?

    Il y a un effet purement incantatoire, qui consiste à se rassurer en se disant qu’un jour tout ira bien parce que l’on pourra simplement recycler les métaux dont on aura besoin. Déjà, il n’en est rien parce que les quantités colossales de métaux dont l’utilisation est planifiée pour les années à venir, ne serait-ce que pour produire des #batteries pour #véhicules_électriques, n’ont même pas encore été extraites.

    On ne peut donc pas les recycler. Il faut d’abord les produire, avec pour conséquence la #destruction de #nouveaux_territoires un peu partout sur la planète. Ensuite, le recyclage des métaux n’est pas une opération du saint-Esprit ; il repose sur la #métallurgie, il implique des usines, des besoins en énergie, et des pollutions assez semblables à celles des mines elles-mêmes.

    L’accent mis sur le besoin de métaux pour la transition ne reflète-t-il pas le fait que les #multinationales ont réussi à s’approprier ce terme même de « transition », pour lui faire signifier en réalité la poursuite du modèle actuel ?

    Le concept de transition n’a rien de nouveau, il était déjà employé au XIXe siècle. À cette époque, la transition sert à freiner les ardeurs révolutionnaires : on accepte qu’il faut des changements, mais on ajoute qu’il ne faut pas aller trop vite. Il y a donc une dimension un peu réactionnaire dans l’idée même de transition.

    Dans son dernier livre, l’historien des sciences #Jean-Baptiste_Fressoz [Sans transition - Une nouvelle histoire de l’énergie, Seuil, 2024] montre que la #transition_énergétique tel qu’on l’entend aujourd’hui est une invention des #pro-nucléaires des États-Unis dans les années 1950 pour justifier des #investissements publics colossaux dans l’#atome. Ils ont tracé des belles courbes qui montraient qu’après l’épuisement des énergies fossiles, il y aurait besoin d’une #solution_énergétique comme le #nucléaire, et qu’il fallait donc investir maintenant pour rendre le passage des unes à l’autre moins brutal.

    La transition aujourd’hui, c’est avant tout du temps gagné pour le capital et pour les grandes entreprises. Les rendez-vous qu’ils nous promettent pour 2050 et leurs promesses de #zéro_carbone sont évidemment intenables. Les technologies et l’#approvisionnement nécessaire en métaux n’existent pas, et s’ils existaient, cela nous maintiendrait sur la même trajectoire de réchauffement climatique.

    Ces promesses ne tiennent pas debout, mais elles permettent de repousser à 2050 l’heure de rendre des comptes. Ce sont plusieurs décennies de gagnées. Par ailleurs, le terme de transition est de plus en plus utilisé comme étendard pour justifier une #croisade, une politique de plus en plus agressive pour avoir accès aux gisements. Les pays européens et nord-américains ont signé un partenariat en ce sens en 2022, en prétendant que certes ils veulent des métaux, mais pour des raisons louables. La transition sert de figure de proue à ces politiques impériales.

    Vous avez mentionné que l’une des industries les plus intéressées par la sécurisation de l’#accès aux métaux est celle de l’#armement. Vous semblez suggérer que c’est l’une des dimensions négligées de la guerre en Ukraine…

    Peu de gens savent qu’en 2021, la Commission européenne a signé avec l’#Ukraine un accord de partenariat visant à faire de ce pays une sorte de paradis minier pour l’Europe. L’Ukraine possède de fait énormément de ressources convoitées par les industriels, qu’ils soient russes, européens et américains. Cela a joué un rôle dans le déclenchement de la #guerre. On voit bien que pour, pour accéder aux gisements, on va engendrer des conflits, militariser encore plus les #relations_internationales, ce qui va nécessiter de produire des #armes de plus en plus sophistiquées, et donc d’extraire de plus en plus de métaux, et donc sécuriser l’accès aux gisements, et ainsi de suite.

    C’est un #cercle_vicieux que l’on peut résumer ainsi : la ruée sur les métaux militarise les rapports entre les nations, alimentant la ruée sur les métaux pour produire des armes afin de disposer des moyens de s’emparer des métaux. Il y a un risque d’escalade dans les années à venir. On évoque trop peu la dimension matérialiste des conflits armés souvent dissimulés derrière des enjeux « ethniques ».

    Faut-il sortir des métaux tout comme il faut sortir des énergies fossiles ?

    On a besoin de sortir de l’extractivisme au sens large. Extraire du pétrole, du charbon, du gaz ou des métaux, c’est le même modèle. D’ailleurs, d’un point de vue administratif, tout ceci correspond strictement à de l’activité minière, encadrée par des #permis_miniers. Il faut cesser de traiter le #sous-sol comme un magasin, de faire primer l’exploitation du sous-sol sur tout le reste, et en particulier sur les territoires et le vivant.

    Concrètement, qu’est ce qu’on peut faire ? Pour commencer, les deux tiers des mines sur la planète devraient fermer – les #mines_métalliques comme les #mines_de_charbon. Ça paraît utopique de dire cela, mais cela répond à un problème urgent et vital : deux tiers des mines sont situées dans des zones menacées de #sécheresse, et on n’aura pas assez d’#eau pour les faire fonctionner à moins d’assoiffer les populations. En plus de cela, elles émettent du #CO2, elles détruisent des territoires, elles déplacent des populations, elles nuisent à la #démocratie. Il faut donc faire avec une quantité de métaux restreinte, et recycler ce que l’on peut recycler.

    Vous soulignez pourtant que nous n’avons pas cessé, ces dernières années, d’ajouter de nouvelles technologies et de nouveaux objets dans notre quotidien, notamment du fait de l’envahissement du numérique. Réduire notre consommation de métaux implique-t-il de renoncer à ces équipements ?

    Oui, mais au préalable, quand on dit que « nous n’avons pas cessé d’ajouter des nouvelles technologies polluantes », il faut analyser un peu ce « nous ». « Nous » n’avons pas choisi de déployer des #caméras_de_vidéosurveillance et des #écrans_publicitaires partout. Nous n’avons pas choisi le déploiement de la #5G, qui a été au contraire contesté à cause de sa consommation d’énergie.

    La plupart d’entre nous subit plutôt qu’elle ne choisit la #numérisation des #services_publics, instrument privilégié de leur démantèlement et de leur privatisation : l’usage de #Pronote à l’école, #Doctissimo et la télémédecine dont la popularité est due à l’absence de médecins, etc. Dans le secteur automobile, la responsabilité des industriels est écrasante. Depuis des décennies, ils ne cessent de bourrer les véhicules d’électronique pour augmenter leur valeur ajoutée.

    Ces dernières années, ils ont massivement vendu d’énormes voitures électriques parce qu’ils savaient que le premier marché de la voiture électrique, c’était d’abord la bourgeoisie, et que les bourgeois achèteraient des #SUV et des grosses berlines. Donc quand je dis que nous devons réduire notre #consommation de métaux, j’entends surtout par-là dénoncer les industries qui inondent le marché de produits insoutenables sur le plan des métaux (entre autres).

    Mais il est vrai que nous – et là c’est un vrai « nous » - devons réfléchir ensemble aux moyens de sortir de l’#emprise_numérique. Du point de vue des métaux, le #smartphone n’est pas viable : sa sophistication et son caractère ultra-mondialisé en font un concentré d’#exploitation et d’#intoxication, des mines aux usines d’assemblage chinoises ou indiennes.

    Et bien sûr il a des impacts socialement désastreux, des addictions à la #surveillance, en passant par la « #surmarchandisation » du quotidien qu’il induit, à chaque instant de la vie. Là-dessus, il faut agir rapidement, collectivement, ne serait-ce que pour se protéger.

    https://basta.media/nous-assistons-a-une-escalade-de-la-predation-miniere
    #extractivisme #minières #électrification #acidification #contamination #hypocrisie #relocalisation #prédation #guerre_en_Ukraine #militarisation #déplacement_de_populations #dématérialisation #industrie_automobile

  • Autoconsommation collective d’électricité et #justice énergétique : des usagers vulnérabilisés ?
    https://metropolitiques.eu/Autoconsommation-collective-d-electricite-et-justice-energetique-des

    Le développement de l’autoconsommation collective d’électricité véhicule l’image d’un consommateur doté d’une plus grande capacité d’actions. L’article montre que, du fait des zones d’ombre laissées par le #droit, cette plus grande liberté d’action peut aller à l’encontre de la #justice_énergétique. L’atténuation du changement climatique commande le recours aux sources d’énergie renouvelables et de récupération (ENR&R). Présentes sur l’ensemble du territoire, elles permettent une maîtrise locale et #Essais

    / justice, justice énergétique, #Europe, droit, #consommation, électricité, #énergie

    #électricité
    https://metropolitiques.eu/IMG/pdf/met-lormeteau.pdf

    • https://www.npr.org/2024/09/20/nx-s1-5120581/three-mile-island-nuclear-power-plant-microsoft-ai

      Three Mile Island, the power plant near Middletown, Pa., that was the scene of the worst commercial nuclear accident in U.S. history, will reopen to power #Microsoft's #data_centers, which are responsible for powering the tech giant’s cloud computing and artificial intelligence programs.

      Constellation #Energy, which bills itself as America’s largest producer of “clean, #carbon-free energy,” announced Friday that it had signed its largest-ever power purchase agreement with Microsoft.

      “Powering industries critical to our nation’s global economic and technological competitiveness, including data centers, requires an abundance of energy that is carbon-free and reliable every hour of every day, and #nuclear_plants are the only energy sources that can consistently deliver on that promise,” said Joe Dominguez, Constellation Energy’s president and CEO.

      The deal will create approximately 3,400 jobs and bring in more than $3 billion in state and federal taxes, according to the company. It also said the agreement will add $16 billion to Pennsylvania’s GDP.

      The agreement will span 20 years, and the plant is expected to reopen in 2028. It will be renamed the Crane Clean Energy Center in honor of Chris Crane, who died in April and served as the CEO of Constellation’s former parent company.

      #Pennsylvania’s nuclear energy industry plays a critical role in providing safe, #reliable, #carbon_free #electricity that helps reduce emissions and grow Pennsylvania’s economy,” Gov. Josh Shapiro said.

      Unlike power plants using fossil fuels, like coal or natural gas, nuclear plants do not directly release carbon dioxide or other greenhouse gas emissions driving global warming.

      The partial nuclear reactor meltdown at Three Mile Island happened on March 28, 1979, when one of the plant’s two reactors’ cooling mechanisms malfunctioned. The #reactor that will be reopened to power Microsoft’s data centers was not involved in the accident.

      #AI #IA
      #Intelligence_artificielle #Consommation_énergétique

    • “Before it was prematurely shuttered due to poor economics, this plant was among the safest and most reliable nuclear plants on the grid, and we look forward to bringing it back with a new name and a renewed mission to serve as an economic engine for Pennsylvania," Dominguez said.

      Ben tiens. Il a juste une conception des générateurs de vapeur foireuse qui fait qu’en cas de brèche sur le circuit primaire ils se vident en quelques dizaines de secondes, privant le dit circuit d’une source d’évacuation de l’énergie. Précisément un des problèmes lors de l’accident.

  • Les émissions des datacenters de Google, Microsoft, Meta et Apple seraient 662 % plus élevées que ce que les Big Tech ont officiellement déclaré.
    https://www.linkedin.com/feed/update/urn:li:activity:7242436765972586496

    Les émissions des datacenters de Google, Microsoft, Meta et Apple seraient 662 % plus élevées que ce que les Big Tech ont officiellement déclaré.

    C’est ce que révèle une enquête inédite du Guardian, menée entre 2020 et 2022, mettant à jour un vrai système de brigand climatique, derrière des allégations trompeuses de « neutralité carbone ». Ce qu’il faut en retenir :

    – La méthode : Une dissimulation d’une telle ampleur a été rendue possible grâce à un système bien huilé de « comptabilité créative » à base d’achat de certificats d’énergie renouvelable, ou « Recs ». En (très) gros : du blanchiment d’argent version facture d’énergie.

    – L’ampleur : Toutes les entreprises sont coupables de dissimulation à grande échelle, avec une mention spéciale pour Meta. En 2022, les émissions officielles de Meta provenant de ses datacenters n’étaient que de 273 tonnes de CO2. Mais en étudiant ses « émissions localisées » , le Guardian obtient le chiffre de 3,8 millions de tonnes. Sacrée différence.

    – La cause : Le boom de l’IA, beaucoup plus gourmand en énergie pour les datacenters que les applications classiques basées sur le cloud. Selon Goldman Sachs (qu’on ne peut pas taxer de technophobie), le traitement d’une requête ChatGPT nécessite près de 10 fois plus d’électricité qu’une recherche Google, et la demande d’électricité des datacenters devrait augrmenter de 160 % d’ici 2030. Une étude de Morgan Stanley, un concurrent direct de Goldman Sachs, a abouti à des conclusions similaires, prévoyant que les émissions des datacenters s’élèveront à 2,5 milliards de tonnes d’équivalent CO2 d’ici 2030.

    Et ce n’est peut-être que la partie émergée de l’iceberg : l’enquête du Guardian s’est limitée aux émissions produites entre 2020 et 2022, une période qui correspond au début de l’essor de l’IA, mais pas aux sommets qu’elle a atteints aujourd’hui. Aujourd’hui, les Big Tech sont engagées dans un greenwashing de vaste ampleur, et l’intervention de Mère Nature lors des keynote d’Apple n’y changera rien.

    Note : Amazon, de loin le plus gros émetteur, n’a pas pu être inclus dans l’enquête du Guardian car son business model rend trop opaque l’isolement de ses émissions. Elle est pourtant tout aussi coupable que les autres de dissimuler son impact réel sur l’environnement.

    #Datacenter #Intelligence_artificielle #Consommation_énergétique

  • Les vols aux selfscans plombent les supermarchés : des franchisés Delhaize veulent supprimer les caisses automatiques La Libre.be - Arnaud Farr

    Le modèle actuel des caisses automatiques constitue un défi majeur pour les supermarchés. Certains décident de les supprimer, d’autres d’intensifier les contrôles. Tour d’horizon.

    Lassé des vols à répétition aux caisses automatiques, le gérant du Delhaize de Lochristi, en Flandre-Orientale, a décidé cette semaine de supprimer son service de #selfscan. D’autres franchisés envisagent d’emboîter le pas. Une décision qui va à contre-courant des tendances observées parmi les clients lorsqu’on sait que le paiement des courses aux caisses automatiques est de plus en plus prisé.

    « La proportion doit être de 60-40 % de clients qui privilégient leur paiement aux selfscans » , selon Karima Ghozzi, porte-parole de Delhaize. « Ce service est fort apprécié et nous entendons le soutenir bien qu’il revient à l’affilié de décider ce qu’il souhaite mettre en place. »

    Le nombre de voleurs a triplé avec les selfscans
    Le service de caisses automatiques fait les affaires des clients qui évitent de longes files, mais également des fraudeurs. Traditionnellement, le voleur à la tire allait cacher la bouteille de vin dans sa veste ou son sac à dos mais désormais, le vol par le selfscan est privilégié. Les supermarchés contactés refusent d’indiquer le montant des pertes liées aux vols mais selon l’organisation Prévention&Sécurité à laquelle sont affiliés 460 supermarchés belges, l’on estime que le nombre de voleurs a triplé depuis l’instauration des caisses automatiques.

    Bien consciente du phénomène, la chaine néerlandaise Albert Heijn n’a toutefois pas l’intention de supprimer le selfscan. Au contraire, les premiers supermarchés sans caisse traditionnelle ont vu le jour à Amsterdam et Arnhem aux Pays-Bas. Ce n’est pas encore le cas en Belgique, où les contrôles ont en revanche été drastiquement renforcés pour éviter toute tentative de fraude.

    Des contrôles de plus en plus systématiques
    « Nous misons sur la responsabilisation » , explique Ann Maes, porte-parole de la filiale belge d’Albert Heijn. « Nos clients savent qu’ils ont désormais plus de chance d’être contrôlés que de ne pas l’être. Un algorithme décide de contrôler aléatoirement et à fréquence régulière telle ou telle caisse. En parallèle, certains de nos franchisés décident d’organiser des opérations proactives de contrôles systématiques durant toute la journée, ou de contrôler une personne sur deux. »

    Chez Carrefour, le selfscan est également bien ancré dans les habitudes des clients. « Cela leur facilite la tâche avec un gain de temps important puisqu’ils évitent les files » , explique Siryn Stambouli, porte-parole de Carrefour, qui démonte l’idée reçue selon laquelle les caisses automatiques suppriment le contact social. « Il y a en permanence la présence d’une caissière ou d’un caissier pour aiguiller les clients qui craignent de faire une erreur. Comme il y a souvent moins de files qu’aux caisses traditionnelles, ça laisse de la place pour papoter avec l’employé. »

    Seul bémol : lorsqu’une fraude est avérée, il revient à l’employé de jouer « à la police » pour veiller à éviter tout risque de fraude. « Sur base de sa propre appréciation, l’employé doit estimer la bonne foi ou non du client. Les vols dans les magasins sont vieux comme le monde et il y aura toujours des gens qui essayeront de tricher. S’il est avéré qu’une personne a tenté de voler, alors une transaction immédiate doit etre payée sur-le-champ. En cas de refus, la police peut intervenir » , ajoute Siryn Stambouli.

    Une transaction immédiate de 141 euros
    Le recours à la police reste toutefois très marginal. « Du côté d’Albert Heijn, nous observons moins de fraudes depuis que les contrôles ont été drastiquement intensifiés. Lorsqu’une personne est prise en flagrant délit, elle doit s’acquitter d’un montant de 141 euros. En général, elles refusent de se rebeller et nous n’avons quasiment jamais dû faire appel à la police » , précise Ann Maes.

    Les employés connaissent bien les techniques des fraudeurs et restent attentifs aux comportements suspects. « Cela concerne surtout les produits avec une tarification au volume. Ainsi, un client va scanner une bouteille de lait ou une seule bière dans un lot de six. Nos employés sont donc vigilants lorsqu’ils aperçoivent des clients dans ce cas de figure » , ajoute Ann Maes.

    Le saumon et le vin en tête des vols
    Jean, nom d’emprunt, est un adepte des fraudes aux caisses automatiques. « J’ai commencé à voler en pleine période Covid. Je vivais sur mon chômage technique et c’était donc des vols de nécessité », explique-t-il. « Depuis, je continue ces pratiques en volant du saumon fumé, un bon bout de viande, une bouteille de vin, des avocats que je scanne avec l’étiquette d’oignons. J’ai aussi volé des préservatifs ou des épices rares. Je me suis toutefois calmé depuis que certains aliments sont vendus avec des antivols, comme pour le crabe qui peut vite coûter 30 euros l’unité », conclut-il. _

    Source : https://www.lalibre.be/economie/entreprises-startup/2024/08/07/les-vols-aux-selfscans-plombent-les-supermarches-des-franchises-delhaize-veu

    #Pays_Bas #belgique #Flandre #grandes_surfaces #caisses #caisses_automatiques #grande_distribution #travail #travail_dissimulé #consommation #hypermarchés #hypermarché #supermarché #commerce #supermarchés #alimentation #économie #contributions_sociales #contrôle #surveillance

  • Les voitures électroniques qui vont sauver votre planète
    https://carfree.fr/index.php/2024/05/14/les-voitures-electroniques-qui-vont-sauver-votre-planete

    La #voiture_électrique chinoise sera-t-elle le coup de grâce porté à l’automobile, ou du moins à l’industrie automobile européenne ? Il semble qu’une vague gigantesque de voitures électriques chinoises s’apprête à Lire la suite...

    #Fin_de_l'automobile #chine #consommation #société #transition

  • Pour l’amour de l’automobile : retour sur l’histoire de nos désirs
    http://carfree.fr/index.php/2024/04/30/pour-lamour-de-lautomobile-retour-sur-lhistoire-de-nos-desirs

    Voici un article de l’économiste allemand Wolfgang Sachs publié initialement en 1984 et traduit en anglais en 1992 dans la revue Carbusters. Il s’agit d’un extrait du livre « For Love Lire la suite...

    #Fin_de_l'automobile #Insécurité_routière #Livres #Ressources #allemagne #consommation #culture #économie #féminisme #histoire #motorisation #nuisances #société #Suisse

  • #Ikea, le seigneur des forêts

    Derrière son image familiale et écolo, le géant du meuble suédois, plus gros consommateur de bois au monde, révèle des pratiques bien peu scrupuleuses. Une investigation édifiante sur cette firme à l’appétit démesuré.

    C’est une des enseignes préférées des consommateurs, qui équipe depuis des générations cuisines, salons et chambres d’enfants du monde entier. Depuis sa création en 1943 par le visionnaire mais controversé Ingvar Kamprad, et au fil des innovations – meubles en kit, vente par correspondance, magasins en self-service… –, la petite entreprise a connu une croissance fulgurante, et a accompagné l’entrée de la Suède dans l’ère de la consommation de masse. Aujourd’hui, ce fleuron commercial, qui participe pleinement au rayonnement du pays à l’international, est devenu un mastodonte en expansion continue. Les chiffres donnent le tournis : 422 magasins dans cinquante pays ; près d’un milliard de clients ; 2 000 nouveaux articles au catalogue par an… et un exemplaire de son produit phare, la bibliothèque Billy, vendu toutes les cinq secondes. Mais le modèle Ikea a un coût. Pour poursuivre son développement exponentiel et vendre toujours plus de meubles à bas prix, le géant suédois dévore chaque année 20 millions de mètres cubes de bois, soit 1 % des réserves mondiales de ce matériau… Et si la firme vante un approvisionnement responsable et une gestion durable des forêts, la réalité derrière le discours se révèle autrement plus trouble.

    Greenwashing
    Pendant plus d’un an, les journalistes d’investigation Xavier Deleu (Épidémies, l’empreinte de l’homme) et Marianne Kerfriden ont remonté la chaîne de production d’Ikea aux quatre coins du globe. Des dernières forêts boréales suédoises aux plantations brésiliennes en passant par la campagne néo-zélandaise et les grands espaces de Pologne ou de Roumanie, le documentaire dévoile les liens entre la multinationale de l’ameublement et l’exploitation intensive et incontrôlée du bois. Il révèle comment la marque au logo jaune et bleu, souvent via des fournisseurs ou sous-traitants peu scrupuleux, contribue à la destruction de la biodiversité à travers la planète et alimente le trafic de bois. Comme en Roumanie, où Ikea possède 50 000 hectares de forêts, et où des activistes se mobilisent au péril de leur vie contre une mafia du bois endémique. Derrière la réussite de l’une des firmes les plus populaires au monde, cette enquête inédite éclaire l’incroyable expansion d’un prédateur discret devenu un champion du greenwashing.

    https://www.arte.tv/fr/videos/112297-000-A/ikea-le-seigneur-des-forets
    #film #film_documentaire #documentaire #enquête
    #greenwashing #green-washing #bois #multinationale #meubles #Pologne #Mazovie #Mardom_House #pins #Ingvar_Kamprad #délocalisation #société_de_consommation #consumérisme #résistance #justice #Fondation_Forêt_et_citoyens #Marta_Jagusztyn #Basses-Carpates #Carpates #coupes_abusives #exploitation #exploitation_forestière #consommation_de_masse #collection #fast-furniture #catalogue #mode #marketing #neuro-marketing #manipulation #sous-traitance #chaîne_d'approvisionnement #Sibérie #Russie #Ukraine #Roumanie #accaparement_de_terres #Agent_Green #trafic_de_bois #privatisation #Gabriel_Paun #pillage #érosion_du_sol #image #prix #impact_environnemental #FSC #certification #norme #identité_suédoise #modèle_suédois #nation_branding #Estonie #Lettonie #Lituanie #lobby #mafia_forestière #coupes_rases #Suède #monoculture #sylviculture #Sami #peuples_autochtones #plantation #extrême_droite #Brésil #Parcel_Reflorestadora #Artemobili #code_de_conduite #justice #responsabilité #abattage #Nouvelle-Zélande #neutralité_carbone #compensation_carbone #maori #crédits-carbone #colonisation

    • #fsc_watch

      This site has been developed by a group of people, FSC supporters and members among them, who are very concerned about the constant and serious erosion of the FSC’s reliability and thus credibility. The group includes Simon Counsell, one of the Founder Members of the FSC; Hermann Edelmann, working for a long term FSC member organisation; and Chris Lang, who has looked critically at several FSC certifications in Thailand, Laos, Brazil, USA, New Zealand, South Africa and Uganda – finding serious problems in each case.

      As with many other activists working on forests worldwide, we share the frustration that whilst the structural problems within the FSC system have been known for many years, the formal mechanisms of governance and control, including the elected Board, the General Assembly, and the Complaints Procedures have been highly ineffective in addressing these problems. The possibility of reforming – and thus ‘saving’ – the FSC through these mechanisms is, we feel, declining, as power within the FSC is increasingly captured by vested commercial interest.

      We feel that unless drastic action is taken, the FSC is doomed to failure. Part of the problem, in our analysis, is that too few FSC members are aware of the many profound problems within the organisation. The FSC Secretariat continues to pour out ‘good news stories’ about its ‘successes’, without acknowledging, for example, the numerous complaints against certificates and certifiers, the cancellation of certificates that should never have been awarded in the first place, the calls for FSC to cease certifying where there is no local agreement to do so, the walk-outs of FSC members from national processes because of their disillusionment with the role of the economic chamber, etc. etc. etc.

      There has been no honest evaluation of what is working and what is not what working in the FSC, and no open forum for discussing these issues. This website is an attempt to redress this imbalance. The site will also help people who are normally excluded from the FSC’s processes to express their views and concerns about the FSC’s activities.

      Please share your thoughts or information. Feel free to comment on our postings or send us any information that you consider valuable for the site.

      UPDATE (25 March 2010): A couple of people have requested that we explain why we are focussing on FSC rather than PEFC. Shortly after starting FSC-Watch we posted an article titled: FSC vs PEFC: Holy cows vs the Emperor’s new clothes. As this is somewhat buried in the archives, it’s reproduced in full here (if you want to discuss this, please click on the link to go to the original post):
      FSC vs PEFC: Holy cows vs the Emperor’s new clothes

      One of the reasons I am involved in this website is that I believe that many people are aware of serious problems with FSC, but don’t discuss them publicly because the alternative to FSC is even worse. The alternative, in this case is PEFC (Programme for the Endorsement of Forest Certification schemes) and all the other certification schemes (Cerflor, Certflor, the Australian Forestry Standard, the Malaysian Timber Certification Council and so on). One person has suggested that we should set up PEFC-Watch, in order “to be even-handed”.

      The trouble with this argument is that PEFC et al have no credibility. No NGOs, people’s organisations or indigenous peoples’ organisations were involved in setting them up. Why bother spending our time monitoring something that amounts to little more than a rubber stamp? I can just see the headlines: “Rubber stamp PEFC scheme rubber stamps another controversial logging operation!” Shock, horror. The Emperor is stark bollock naked, and it’s not just some little boy pointing this out – it’s plain for all to see, isn’t it?

      One way of countering all these other schemes would be to point out that FSC is better. But, if there are serious problems with FSC – which there are, and if we can see them, so can anyone else who cares to look – then the argument starts to look very shaky.

      FSC standards aren’t bad (apart from Principle 10, which really isn’t much use to anyone except the pulp and paper industry). They say lots of things we’d probably want forest management standards to say. The trouble is that the standards are not being applied in practice. Sure, campaign against PEFC, but if FSC becomes a Holy Cow which is immune to criticism (not least because all the criticism takes place behind closed doors), then we can hardly present it as an alternative, can we?…”

      By the way, anyone who thinks that PEFC and FSC are in opposition should read this interview with Heiko Liedeker (FSC’s Executive Director) and Ben Gunneberg (PEFC’s General Secretary). In particular this bit (I thought at first it must be a mix up between FSC and PEFC, or Liedeker and Gunneberg):

      Question: As a follow-up question, Heiko Liedeker, from your perspective, is there room ultimately for programs like the Australian Forestry Standard, Certfor and others to operate under the FSC umbrella?

      Heiko Liedeker: Absolutely. FSC was a scheme that was set-up to provide mutual recognition between national standard-setting initiatives. Every national initiative sets its standard. Some of them are called FSC working groups, some of them are called something else. In the UK they are called UKWAS. We’ve been in dialogue with Edwardo Morales at Certfor Chile. They are some of the FSC requirements listed for endorsement, we certainly entered into discussion. We’ve been in discussion with the Australian Forestry Standard and other standard-setting initiatives. What FSC does not do is, it has one global scheme for recognizing certification. So we do not, and that’s one of the many differences between FSC and PEFC, we do not require the development of a certification program as such. A standard-setting program is sufficient to participate in the network.

      https://fsc-watch.com

    • Complicit in destruction: new investigation reveals IKEA’s role in the decimation of Romania’s forests

      IKEA claims to be people and planet positive, yet it is complicit in the degradation and destruction of Romania’s forests. A new report by Agent Green and Bruno Manser Fonds documents this destruction and presents clear requests to the furniture giant.

      A new investigative report (https://www.bmf.ch/upload/Kampagnen/Ikea/AG_BMF_report_IKEA_web_EN.pdf) by Agent Green and Bruno Manser Fonds shows a consistent pattern of destructive logging in IKEA-linked forests in Romania, with massive consequences for nature and climate. The findings are based on an analysis of official documents and field investigations of nine forest areas in Romania. Seven of them are owned by the IKEA-related company Ingka Investments and two are public forests supplying factories that produce for IKEA. The analysis uncovers over 50 suspected law violations and bad forest management practices. Biodiversity rich forest areas cut to the ground, intensive commercial logging conducted in ecologically sensitive or even old-growth forests without environmental assessments, dozens of meters deep tractor roads cutting through the forest are just a few of the issues documented.

      Most of the visited forests are fully or partially overlapping with EU protected areas. Some of these forests were strictly protected or under low-intensity logging before Ingka took over. Now they are all managed to maximize wood extraction, with no regard to forest habitats and their vital role for species. Only 1.04% of the total Ingka property in Romania are under a strict protection regime and 8.24% under partial protection. This is totally insufficient to meet EU goals. The EU biodiversity strategy requires the protection of a minimum of 30% of EU land area, from which 10% need to be strictly protected. One key goal is to strictly protect all remaining primary and old-growth forests in the EU.

      At the press conference in Bucharest Gabriel Păun, President of Agent Green, stated: “IKEA/Ingka seem to manage their forests like agricultural crops. Letting trees grow old is not in their culture. Removing entire forests in a short period of time is a matter of urgency for IKEA, the tree hunter. The entity disregards both the written laws and the unwritten ways of nature. IKEA does not practice what they preach regardless of whether it is the European Union nature directives, Romanian national legislation, or the FSC forest certification standard. But as a company with revenues of billions of Euros and Romania’s largest private forest owner, IKEA / Ingka should be an example of best practice.”

      Ines Gavrilut, Eastern Europe Campaigner at the Bruno Manser Fonds, added: “It is high time that IKEA started to apply its declared sustainability goals. IKEA could do so much good if it really wanted to set a good example as a forest owner, administrator, and large wood consumer in Romania and beyond. Needs could also be covered without resorting to destructive logging, without converting natural forests into plantations – but this requires tackling difficult issues such as the core of IKEA’s business model of “fast furniture”. Wood products should not be for fast consumption but should be made to last for decades.”

      Agent Green and Bruno Manser Fonds urge IKEA and the Ingka Group to get a grip on their forest operations in Romania to better control logging companies, not to source wood from national or natural parks, to effectively increase protection and apply forestry close to nature in own forests, to ensure full traceability and transparency of the IKEA supply chain, and allow independent forest oversight by civil society and investigative journalists.

      In August 2021, Agent Green published its first report documenting destruction in IKEA-linked forests in Romania. In May 2023, Agent Green and Bruno Manser Fonds sent an open letter of concern to the Ingka Group and IKEA Switzerland. BMF also started a petition demanding IKEA to stop deforestation in Romania’s protected forest areas and other high conservation value forests.

      The ARTE documentary IKEA, the tree hunter brilliantly tells the story of the real cost of IKEA furniture, the uncontrolled exploitation of wood and human labour.

      https://bmf.ch/en/news/neue-untersuchung-belegt-ikeas-beteiligung-an-der-waldzerstorung-in-rumanien-256

      #rapport

  • « Le pavillon fait partie du rêve français » : Attal promet de doper la construction de maisons - Figaro Immobilier
    https://immobilier.lefigaro.fr/article/le-pavillon-fait-partie-du-reve-francais-attal-promet-de-doper-l

    « Oui, le pavillon fait partie du rêve français ! » Gabriel Attal a été ferme : le premier ministre veut relancer la construction de maisons individuelles. Les Français dont on dit que leurs envies sont souvent en décalage avec la politique du gouvernement, apprécieront. « J’assume de vouloir continuer à permettre à tous les Français qui le veulent, de s’offrir leur propre maison. Ça fait partie du rêve de beaucoup de familles, de classes moyennes qui travaillent dur et aspirent à se loger, si c’est leur choix, dans une maison individuelle », a déclaré le chef du gouvernement, en déplacement à Villejuif (94) pour présenter les grandes lignes de son « choc d’offre ».

    « Ceux qui ont pu émettre des doutes, sur cette question, se trompent », a ajouté Gabriel Attal.

    #immobilier #construction #logement #propriétaire #propriété #artificialisation

    • Ça sent le bétonnage de zone agricole et l’étalement urbain, pas du tout viable écologiquement. La maison individuelle #prête_a_crever française date du libéral de droite Giscard (voiture individuelle, maison individuelle, four individuel… cf en quoi l’individualisme a été une stratégie poilitique) et le coup d’Attal ne vient pas de nulle part… A une époque, j’étais locataire d’un logement où on recevait des publications au nom de mes propriétaires. Au bout d’un moment, avant que mon pote Mohammed ne leur fasse la blague de leur courir après avec dans les mains le paquet des envois, je me suis mise à ouvrir les blisters noirs qui les recouvraient, c’était nh l’hebdo du fn, arf. Bref, donner à chaque français une maison avec un jardin faisait partie des promesses de campagne de l’extrême droite. Comme c’est étonnant.

    • En marche arrière
      Coups de rabot sur la rénovation énergétique des logements
      https://www.lemonde.fr/societe/article/2024/02/20/coups-de-rabots-sur-la-renovation-energetique-des-logements_6217454_3224.htm

      La ponction de 1 milliard d’euros dans les crédits de MaPrimeRénov’, annoncée dimanche par le ministre de l’économie, Bruno Le Maire, suscite l’incompréhension du secteur.
      Par Claire Ané

      MaPrimeRénov’ est le dispositif qui paie le plus lourd tribut aux nouvelles réductions de dépenses annoncées par le ministre de l’économie, Bruno Le Maire, dimanche 18 février : cette aide à la rénovation énergétique va perdre 1 milliard d’euros de crédits en 2024. Elle s’élèvera toutefois à 4 milliards d’euros, soit 600 millions d’euros de plus qu’en 2023, mais sans permettre l’accélération initialement prévue.

      Deux trains de mesures venaient déjà d’être présentés, afin que la rénovation énergétique contribue au « choc de simplification » dans le logement, promis par le chef du gouvernement, Gabriel Attal. La première salve a été lancée par le ministre de la transition énergétique, Christophe Béchu, dans un entretien au Parisien, lundi 12 février. Elle prévoit de modifier le diagnostic de performance énergétique (#DPE), afin de faire sortir 140 000 logements de moins de 40 mètres carrés du statut de #passoire_thermique – étiquetés F ou G –, soit 15 % d’entre eux. Ils échapperont ainsi à l’interdiction de mise en #location, à laquelle sont déjà soumis les logements classés G+, qui doit être étendue à l’ensemble de logements G début 2025 et aux F en 2028.
      S’ajoute une confirmation : les travaux de rénovation des G ne s’imposeront pas dès le 1er janvier 2025, mais lors d’un changement de locataire ou d’un renouvellement de bail. Dans ce dernier cas, le propriétaire en sera désormais exonéré si le locataire en place refuse de déménager le temps des travaux. Autre nouveauté : l’interdiction de louer un logement classé G sera suspendue pendant deux ans si la copropriété, dont il fait partie, vote en assemblée générale une rénovation des parties communes

      Deuxième étape, jeudi 15 février : M. Béchu et le ministre délégué au logement, Guillaume Kasbarian, ont rencontré le président de la Fédération française du bâtiment, Olivier Salleron, et celui de la Confédération de l’artisanat et des petites entreprises du bâtiment (Capeb), Jean-Christophe Repon. Ils ont promis de simplifier l’accès à MaPrimeRénov’, début mars, sur trois points : limiter l’obligation de recourir à Mon accompagnateur Rénov’aux propriétaires bénéficiant des subventions les plus élevées, « simplifier le label RGE [pour « reconnu garant de l’environnement » ; que les professionnels doivent obtenir pour que les #travaux soient finançables par MaPrimeRénov’] » et « lever les restrictions de financement concernant les gestes de #rénovation simples et efficaces ».
      Si les premières annonces ont été saluées par certains, le coup de rabot sur MaPrimeRénov’est largement critiqué. La Fédération nationale de l’immobilier (Fnaim) a estimé que les allégements sur les DPE et l’interdiction de louer « vont dans le bon sens », tout en appelant à « aller plus loin ». Avant de s’alarmer, six jours plus tard, sur X, du fait que « Bruno Le Maire supprime encore 1 milliard d’euros pour le logement » – le budget 2024 prévoyait déjà 2 milliards d’euros d’économies grâce à la fin du dispositif de défiscalisation Pinel, et un autre gain de 400 millions d’euros par le recentrage du prêt à taux zéro. Et la Fnaim d’insister : la baisse des crédits alloués à MaPrimeRénov’ est « incompréhensible, alors que les obligations de travaux énergétiques imposées par la loi doivent s’accélérer ».

      « Incohérence totale »
      La Fédération française du bâtiment, après avoir apprécié les « intentions » du gouvernement visant à relancer MaPrimeRénov’, dénonce l’« incohérence totale » consistant à amputer cette aide, trois jours plus tard. « Comme sur le logement neuf, ces coups de barre laissent craindre qu’il n’y ait plus de vision au sommet de l’Etat. (…) Organiser la mutation d’une filière dans ces conditions devient tout simplement impossible », affirme le syndicat dans un communiqué.

      Le président de la Capeb, qui représente des entreprises du bâtiment de moins de dix salariés (97 % du secteur), estime pour sa part que « la priorité, c’est de ramener les particuliers et les artisans sur la rénovation. Donc de simplifier, alors que les budgets MaPrimeRénov’ont été moins consommés l’an dernier qu’en 2022 ». De fait, les aides attribuées ont diminué en 2023 – passant de 3,1 milliards d’euros à 2,7 milliards d’euros, tandis que 3,4 milliards avaient été alloués, en hausse de 500 millions d’euros. « Si l’enveloppe de 4 milliards d’euros désormais prévue pour 2024 est dépensée, nous aurons réussi un sacré coup de pouce », fait valoir l’entourage du ministre du logement.

      Pour nombre d’acteurs, cependant, il est malvenu de revoir MaPrimeRénov’, alors que la nouvelle formule vient à peine d’entrer en vigueur, au 1er janvier. « On craint un retour en arrière. Pourtant, on a obtenu de généraliser Mon accompagnateur Rénov’, ce qui évite les arnaques et les travaux peu pertinents. Cela permet aussi de donner la priorité aux rénovations d’ampleur, qui sont bien plus efficaces et moins coûteuses qu’une succession de monogestes, et de renforcer les aides pour les ménages les plus modestes. Réduire leur #consommation est d’autant plus nécessaire que les prix de l’#énergie ont flambé », alerte Léana Miska, responsable des affaires publiques de Dorémi, entreprise solidaire spécialisée dans la rénovation performante.
      « Réduire l’ambition sur MaPrimerénov’ est une catastrophe concernant le signal et la lisibilité, considère le directeur des études de la Fondation Abbé Pierre, Manuel Domergue. Et assouplir les obligations de rénovation va aussi créer de l’attentisme de la part des propriétaires bailleurs. Tout cela à cause du fantasme d’une sortie des passoires thermiques du marché locatif. Ce ne sera pas le cas. Si le calendrier de rénovation n’est pas respecté, l’Etat, les maires ne peuvent rien faire, seuls les #locataires gagnent une petite arme : la possibilité de demander au juge d’instance que leur bailleur effectue des travaux. »

      Inquiétude sur l’assouplissement annoncé du DPE
      Olivier Sidler, porte-parole de NégaWatt, association d’experts qui développe des solutions pour atteindre la neutralité carbone en 2050, ne comprend pas le recul prévu sur MaPrimeRénov’. Même s’il lui rappelle la mise en pause de la réduction des pesticides dans l’agriculture, annoncée par Gabriel Attal au début du mois. « Au sein même du gouvernement, le secrétariat général à la planification écologique prévoit 200 000 rénovations d’ampleur dès 2024 [contre 71 600 en 2023] et une montée en puissance pour arriver à 900 000 par an en 2030. Comment y parvenir sans une forte hausse des crédits ? Il faut que tout le monde s’y mette, y compris les professionnels : ils ont fait déraper le coût de la rénovation quand ils avaient assez de travail sur la construction neuve, plus simple. »
      Le responsable associatif s’inquiète aussi de l’assouplissement annoncé du DPE. « Si une partie des petits logements sont mal classés, ce n’est pas à cause du mode de calcul, mais parce qu’ils consomment beaucoup, notamment pour produire de l’eau chaude. Le gouvernement s’apprête donc à changer le thermomètre, mais pas la fièvre ! »

      M. Sidler juge essentiel de ne pas céder à l’Union nationale des propriétaires immobiliers, à la Fnaim et à Bruno Le Maire, désormais chargé de l’énergie (dont EDF), qui voudraient de nouveau modifier le thermomètre : « Ils considèrent que le calcul du DPE désavantage le chauffage à l’électricité, ce qui n’est pas le cas. Or, s’ils obtenaient gain de cause, énormément de logements gagneraient des classes énergétiques et échapperaient aux rénovations nécessaires. »
      Claire Ané

    • Oui, il n’y a pas de pilote dans l’avion.

      Faut savoir que pour lancer des travaux dans une résidence, faut compter au moins 2 ans : dans un premier temps, faut présenter et faire voter un diagnostique obligatoire. Puis débriefer le diag, faire voter le principe des travaux, lancer un appel d’offres, dépouiller les propositions… quand il y en a et repasser au vote.

      Là, avec des gus qui changent les règles tous les 2 mois, c’est totalement impossible.

      On a lancé un appel d’offres pour le DPE obligatoire et fait voter pour l’une des propositions (6 mois de travail) et comme les règles ont encore changé depuis le début de l’année, la boite choisie ne répond plus, vu qu’on a voté pour un devis qui concrètement n’a plus d’objet car ne correspond plus à la législation en cours.

      Donc, va falloir recommencer ?

      Pendant ce temps, les travaux sont bloqués sur les réparations d’urgence qui ne résolvent rien et consomment les budgets.

  • « Affirmer que la #transition_énergétique est impossible, c’est le meilleur moyen de ne jamais l’engager »
    https://www.lemonde.fr/idees/article/2024/01/22/affirmer-que-la-transition-energetique-est-impossible-c-est-le-meilleur-moye

    Partant du double constat selon lequel il n’y a jamais eu, par le passé, de remplacement d’une source d’énergie par une autre ; et que les transformations énergétiques se sont toujours faites de manière additive (les énergies s’ajoutant les unes aux autres), certains historiens en déduisent, à tort selon nous, qu’il n’y aurait aucun horizon pour une sortie des fossiles. Cette sortie des fossiles (le « transitioning away from fossil fuels », dans le langage forgé à la COP28) serait donc condamnée par avance.

    Tel est le message récurrent de Jean-Baptiste Fressoz [chroniqueur au Monde] notamment, dans ses ouvrages ou tribunes, qui visent toutes à réfuter ce qu’il considère comme « la fausse promesse de la transition ».

    Or, ce déclinisme écologique est non seulement grandement infondé, mais également de nature à plomber les ambitions dans la lutte contre le changement climatique. Affirmer que la transition est impossible, c’est le meilleur moyen de ne jamais l’engager. A rebours de ce défaitisme, nous voulons ici affirmer, avec force, qu’il est possible de réussir cette transition.

    Certes, à l’exception des années de crise – financière en 2008-2009, sanitaire en 2020-2021 –, les émissions de CO2 n’ont jamais cessé d’augmenter, bien que sur un rythme ralenti, d’environ + 1 % annuel au cours des années 2010, contre + 3 % annuels dans les années 2000. Car, dans le même temps, la population mondiale continuait à augmenter, tout comme la satisfaction des besoins énergétiques d’une part croissante de cette population.

    Pourtant le désempilement des énergies a déjà lieu dans certaines régions du monde : c’est le cas en Europe, par exemple, qui a engagé sa transition énergétique. Parallèlement, des acteurs de plus en plus nombreux – Etats, entreprises, chercheurs, citoyens – intègrent aujourd’hui la nécessité de réduire les émissions de gaz à effet de serre dans leurs stratégies et comportements. L’ambition n’est pas encore assez affirmée, la mise en œuvre des transformations pas assez rapide et efficace, mais le mouvement est enclenché. Comment l’ignorer ?

    Sobriété, efficacité et investissements
    Le 11 janvier, Fatih Birol, directeur de l’Agence internationale de l’énergie (AIE), indiquait que les capacités installées dans l’année en énergies renouvelables avaient augmenté de 50 % entre 2022 et 2023. Pour la part des renouvelables dans la production d’électricité, l’AIE attend le passage de 29 % à 42 % en 2028 (de 12 % à 25 % pour les seules énergies éolienne et solaire). Depuis 1975, le prix des panneaux photovoltaïques est passé de 100 dollars par watt à moins de 0,5 dollar par watt aujourd’hui, soit une réduction de 20 % du coût pour chaque doublement des capacités installées ; c’est la mesure du taux d’apprentissage de la technologie. Et alors que la question du stockage de l’électricité devient de plus en plus cruciale, on constate le même taux d’apprentissage pour les batteries : depuis 1992, chaque fois que double le nombre de batteries produites, leur coût diminue de 18 %.

    Il est clair que ces progrès spectaculaires ne contredisent pas la thèse de l’additivité des énergies : si depuis 2016 les investissements dans les énergies décarbonées dépassent largement les investissements dans les énergies fossiles, ces derniers ont à nouveau augmenté après la baisse de 2020. Et la sortie des fossiles ne se vérifiera vraiment que le jour où l’augmentation de la production d’énergie décarbonée sera supérieure en volume à celle de la consommation totale d’énergie.

    Pour atteindre cet objectif, sobriété et efficacité énergétique sont indispensables afin de maîtriser la croissance de la demande. Mais il est également évident que sobriété et efficacité ne suffiront pas. Pour atteindre le plafonnement des émissions avant 2030, il faudra décupler les investissements dans ces énergies décarbonées, et notamment dans les pays du Sud, afin de faire baisser le volume des énergies fossiles : c’est la condition sine qua non pour atteindre les objectifs de l’accord de Paris. Nous sommes conscients qu’il s’agit d’un processus long et difficile, mais osons le dire : il n’y a pas d’autre solution, et nous pouvons y arriver.

    De nouvelles alliances s’imposent
    Serions-nous condamnés par l’histoire ? Faut-il prendre acte de notre impuissance supposée, ou poser un renversement complet du système comme condition préalable à la transition ? Dans les deux cas, cela serait très risqué, et franchement irresponsable.

    Car il n’y a pas de fatalité ! On trouve sur le site du dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) une citation d’Albert Camus : « Pour ce qui est de l’avenir, il ne s’agit pas de le prédire, mais de le faire. » C’est dans cette perspective que s’inscrivent tous les acteurs des COP et des négociations internationales – que certains stigmatisent comme un « grand cirque » –, pour qui « dire, c’est faire ».

    Evidemment, dire ne suffit pas, et il faut aussi mobiliser des moyens puissants, politiques et financiers. Il faut également affronter ceux – lobbys industriels et politiques – qui, par fatalisme ou par intérêt, freinent cette transformation. Enfin, comme le suggère le philosophe Pierre Charbonnier, la création de nouvelles alliances s’impose entre ceux qui ont compris que la transition servait leurs intérêts, et surtout ceux de leurs enfants.

    La démarche des sciences de la nature et de la physique consiste à s’appuyer sur des constats d’observation pour en tirer des lois immuables. Elle s’applique mal cependant aux sciences sociales. Mais ces obstacles ne doivent pas empêcher de penser l’avenir, à la manière de Gaston Berger, le père de la prospective, qui ne cessait de rappeler : « Demain ne sera pas comme hier. Il sera nouveau et il dépendra de nous. Il est moins à découvrir qu’à inventer. »

    Signataires : Anna Creti, économiste, chaire Economie du climat, université Paris-Dauphine ; Patrick Criqui, économiste, CNRS, université Grenoble-Alpes ; Michel Derdevet, président de Confrontations Europe, Sciences Po ; François Gemenne, politiste, HEC Paris ; Emmanuel Hache, économiste, IFP énergies nouvelles et Institut de relations internationales et stratégiques ; Carine Sebi, économiste, chaire Energy for Society, Grenoble Ecole de Management.

  • Désescalade énergétique • Player • PCA – STREAM
    https://www.pca-stream.com/fr/player/desescalade-energetique-178?mc_cid=78156d3629

    Comment les territoires font-ils face à la réduction de leur puissance énergétique ? À l’occasion de la journée d’étude Désescalade Énergétique, organisée à l’agence par le groupe de travail Ville et Energie du Labex Futurs Urbains, cinq chercheurs et chercheuses présentent leurs travaux. Beyrouth, passage du cyclone Irma sur l’Ile de Saint-Denis [en fait c’est Saint Martin], gestion des ressources au Moyen-Âge, choc pétrolier de 1973, et crise environnementale actuelle : tour d’horizons.

    J’ai participé en juillet 2024 à cette rencontre dont ce podcast offre un résumé. Mon intervention est la première, à partir de 2’40’’
    #énergie #désescalade #effondrement #transition #reconfiguration des circuits et de la #consommation énergétique
    #Liban #Saint-Martin #chauffage_urbain #Moyen_Age