• #BDS #STOPSIONISTGENOCIDEINGAZA
    “No nos representa”: duro descargo de artistas e intelectuales judíos contra Milei | Rosario3
    https://www.rosario3.com/politica/No-nos-representa-duro-descargo-de-artistas-e-intelectuales-judios-contra-

    “Judíos y judías de Argentina afirmamos: Milei no nos representa”, el comunicado completo

    Quienes firmamos esta carta, con orgullo de nuestra identidad judía, argentina y humanista, manifestamos nuestra preocupación por las expresiones de odio de Javier Milei, candidato más votado en las Paso presidenciales, así como también por el uso político que realiza del judaísmo, sus textos y sus símbolos.

    Durante esta campaña presidencial, este candidato ha tenido declaraciones de contenido discriminatorio, misógino, contrario a la diversidad sexual, a la pluralidad política, y a la convivencia democrática en general. Corresponde condenar además su ataque al papa Francisco, ofendiéndolo a él y, a través suyo, a millones de fieles.

    Asimismo, no puede obviarse que su compañera de fórmula, Victoria Villarruel, es la principal figura del negacionismo en nuestro país y de defensa de una dictadura que tuvo un probado carácter antisemita al ensañarse especialmente con desaparecidos/as de origen judio. En igual sentido, ha sido tristemente célebre en las últimas semanas por atacar a una referente indiscutida de la lucha por los derechos humanos como Estela de Carlotto.

    Se da la particularidad de que Milei dice estudiar la Torá asiduamente, incluyó el talit y el shofar en su acto de cierre de campaña previo a las Paso, cita frecuentemente fuentes judías y hace referencias a personajes como Moshé, entre otros actos.

  • #milano: #manifestazione_nazionale “Fermiamo la macchina bellica, #palestina Libera!”
    https://radioblackout.org/2025/04/milano-manifestazione-nazionale-fermiamo-la-macchina-bellica-palestin

    Per la giornata di domani, Sabato 12 Aprile, è stata indetta una Manifestazione Nazionale a Milano per richiedere lo stop dell’ingranaggio bellico e una Palestina libera. La partenza è prevista alle 14.30 e il percorso previsto parte dalla Piazza Duca D’Aosta e terminerà all’Arco Della Pace. Il corteo è indetto da Giovani Plaestinesi e Unione […]

    #L'informazione_di_Blackout #stop_alle_armi

  • J’ai testé #/e/OS alias #Murena sur le #Fairphone 4
    (billet de blog publié en 2022, ici pour archivage, car je me tâte à passer à Fairphone + /e/OS...)

    Contexte : il y a quelques mois, j’ai proposé sous forme de candidature spontanée mes services aux équipes de la e.fondation qui développe /e/OS, un système d’exploitation mobile. Je trouvais le projet vraiment inspirant, important. Indispensable même, pour offrir une troisième voie plus vertueuse1 dans le duopole d’Apple (iOS) et Google (Android). L’équipe m’a gentiment répondu qu’il n’y avait pas de possibilité de missions ou d’ouverture de poste. Par contre, elle m’a proposé de tester /e/OS sur un Fairphone 4.

    J’ai immédiatement accepté, tout content de pouvoir tester à la fois le Fairphone 4 qui m’intriguait depuis sa sortie, en même temps que /e/OS, ce système d’exploitation mobile respectueux des données, sobre, open source, porté par une structure à but non lucratif. J’en ai profité pour réinterroger mon propre rapport au smartphone, à l’écosystème Apple, à la technologie en général.

    Bonne lecture !
    Avant-propos : d’où je parle et d’où je viens

    Pour comprendre en quoi ce test a été important pour moi, il faut que je vous dise en deux mots d’où je parle et d’où je viens technologiquement.

    J’ai toujours été un peu geek, profil bidouilleur mais pas programmeur, avec de réelles affinités pour la technologie. Mais pas toutes les technologies, et ce dès le départ. Par exemple, je n’ai jamais été intéressé par les consoles de jeu, ou par la télévision. Aucune idée claire du pourquoi. En revanche, j’ai été fasciné par les ordinateurs, et j’ai eu mon premier PC portable en 3ème. C’était tôt à l’époque. En 2006, j’ai eu mon second PC, un macbook d’Apple, la première génération sous Intel. Là encore, à l’époque c’était audacieux de passer sur Apple, ils ne pesaient pas bien lourd sur le marché, j’étais tout stressé et d’ailleurs j’ai longtemps conservé une partition Windows (cracké) pour me rassurer (et pour jouer aussi).

    Mon histoire avec Apple a donc commencé en 2006. En 2007, l’iPhone est sorti, et un ou deux ans plus tard, j’étais équipé. L’accoutumance à un écosystème qui se structurait pouvait commencer. À mon état le plus avancé (sic), c’est-à-dire en 2019, je possédais un iMac, un Macbook, un iPad, un iPhone pro et une Apple Watch2. Outch. Pour ma défense, cet équipement constituait à la fois mon équipement personnel et surtout professionnel (je suis indépendant depuis avril 2018). Mais quand même, j’étais encore récemment un très gros utilisateur de produits et services Apple.

    2019 a été l’année de la bascule, celle où j’ai commencé à donner des cours de culture numérique, celle où j’ai commencé à murir une réflexion technocritique. J’ai commencé à prendre du recul sur mes propres usages et pratiques technologiques. J’ai réalisé ma dépendance à des plateformes qui me posaient des problèmes de modèle économique, d’éthique, d’enfermement, etc. Et j’ai donc commencé à m’en émanciper.

    Des 5 GAFAM, j’ai pu m’extraire de Facebook, de Google, d’Amazon, de Microsoft3, mais il me reste Apple. Il faut comprendre que m’affranchir de cet écosystème n’est pas anodin pour moi. C’est un acte de « renoncement » à 15 ans d’habitudes, d’accoutumance, de confort, d’une certaine forme de fétichisation d’objets technologiques. J’y reviendrai peut-être dans un autre article.

    Voilà d’où je parle et d’où je viens. Maintenant que vaut ce combo Fairphone + /e/OS ?
    Mon test du combo Fairphone + /e/OS

    Comme je l’ai évoqué lors de mon échange avec Gaël Duval, le fondateur du projet /e/OS, ma première impression a été l’incroyable fiabilité de /e/OS. Pour être honnête, je m’attendais à un système capricieux, buggé, complexe. En gros, je m’attendais à galérer. Je me trompais : /e/OS est stable, très stable. Lorsqu’on reçoit un appareil avec /e/OS déjà installé, comme ça a été mon cas, tout est totalement fonctionnel dès le premier allumage. Le système est très ergonomique, quelque soit son niveau de pratiques numériques.

    Pour celles et ceux qui ne connaîtraient pas encore du tout /e/OS, quelques mots rapides. Quand on choisit un smartphone aujourd’hui, on a le choix entre deux acteurs hégémoniques : iOS d’Apple (16% des parts de marché) et Android de Google (84% des parts de marché)4. Or Android by Google, c’est un OS qui est basé sur les données personnelles, comme le reste de l’écosystème de Google. Il y a donc des projets, plus ou moins aboutis, qui repartent de la brique open source d’Android pour le faire fonctionner sans les services supplémentaires de Google. Le plus connu est LineageOS. /e/OS est quant à lui basé sur LineageOS. Inutile de dire que même les deux combinés ne représentent pas encore grand-chose sur le marché des OS mobile. Mais ça peut changer !
    À quoi ressemble /e/OS et que vaut-il ?

    On sent que /e/OS est inspiré d’iOS plus que d’Android. Et de fait, le « launcher » par défaut reproduit trait pour trait l’apparence d’iOS. C’est un choix qui sera certainement discuté, mais la beauté d’Android, c’est aussi de pouvoir changer ce launcher et donc j’imagine que chacun y trouvera son compte. Pour ma part, venant de l’écosystème Apple et amateur de minimalisme, il me convient tout à fait, d’autant que Gaël Duval a annoncé une réécriture complète du launcher pour 2022.

    Un système ultra stable

    Comme je l’ai déjà écrit plusieurs fois, /e/OS est totalement stable. Je n’ai jamais eu de bug, d’écran figé, de redémarrage, rien du tout. Alors bien sûr, quand on passe d’un iPhone haut de gamme à un Fairphone sous /e/OS, l’effet se fait sentir. Les transitions sont moins fluides, les délais d’ouverture sont plus longs. Mais vous savez quoi ? On s’y habitue. Et il n’y a pas si longtemps, on s’en sortait très bien avec des ordinateurs super lents et l’ADSL. L’effet rebond technologique, encore et toujours.

    C’est pareil pour l’appareil photo du Fairphone 4. Forcément, quand on est habitué aux smartphones haut de gamme, boostés aux IA propriétaires qui rendent le meilleur des photos, le combo Fairphone + /e/OS pique. Mais là encore, c’est utilisable, et ça réinterroge les attentes qu’on a vis à vis d’un ordinateur de poche vs un appareil photo (pourquoi on prend autant de photos déjà ?). Que ce soit dans un usage professionnel et personnel, il est tout à fait possible d’utiliser /e/OS comme seul OS mobile. C’est impressionnant, et porteur d’espoir.
    Un marketing perfectible

    Là où j’aurais un petit reproche à faire à /e/OS, c’est sur son marketing. Franchement, entre eelo, /e/OS qui s’écrit avec des « / », un petit e, OS en majuscule, Murena, le e.shop, la e.foundation, on est perdu, vraiment. Et d’ailleurs, dès qu’on cherche le projet sur un moteur de recherche ou sur un réseau social, on doit s’y reprendre à 2 ou 3 fois avant de trouver. Problématique pour un OS qui se veut grand public, il va falloir travailler cet aspect. Je sais qu’il y a un travail en cours pour renommer la marque grand public Murena (d’où la photo à la une), on verra comment se matérialisera la simplification.
    Comment ai-je installé des applications sur /e/OS ? Et lesquelles ?

    Quand on choisit de quitter l’écosystème « mainstream » et douillet d’Android et Apple, il y a quelques petits contrecoups, qui s’ils ne sont pas insurmontables, sont à prendre en compte.

    /e/OS exclut tous les systèmes Google, et donc en premier lieu le Play Store, le magasin d’applications par défaut de l’écosystème Android. En alternative, j’ai utilisé trois App Store sur /e/OS. Le premier, c’est celui proposé par défaut sur /e/OS. On y trouve presque tout, c’est bien intégré, il y a les notes de confidentialité, c’est cool. Mais il n’y a pas tout, et notamment, il n’y a pas la plupart des banques !

    https://louisderrac.com/test-e-os-alias-murena-sur-le-fairphone-4
    #alternative #système_d'exploitation #smartphones #téléphones_portables

  • « L’#hypocrisie des #puces_électroniques#made_in_France” »

    Relocaliser l’industrie numérique, telle que la production de puces électroniques, est un #leurre. #Quartz, #silicium, #cobalt... viennent du Sud global. « Le #numérique est une #technologie_impériale », résume notre chroniqueuse.

    C’était un mot qui faisait souffler un vent d’idéalisme, un mot de contre-sommet plus que de journal télévisé : « relocaliser ». Dans les années 2000, les altermondialistes voulaient « relocaliser l’économie ». Défendre la menuiserie de bois local contre la production mondialisée d’Ikea, soutenir l’agriculture paysanne contre la monoculture d’exportation. Le monde entier était devenu la base logistique des multinationales. Relocalisation et coopération s’opposaient à ce libre-échange impérial qui permet d’obtenir de l’huile de palme d’Indonésie ou du soja d’Amazonie cultivé sur les terres ancestrales des peuples autochtones.

    Mais en vingt ans, et plus encore depuis le Covid, « relocaliser » est devenu un mantra du patronat. Ce sont désormais les #multinationales qui demandent à l’État de les aider à rapatrier certaines activités « stratégiques ». Entre-temps, le sens du mot a complètement changé. Le but est aujourd’hui de « sécuriser les #chaînes_d’approvisionnement » : aider l’industrie à avoir sous le coude #matières_premières et #composants.

    Imaginez qu’un missile tombe sur Taïwan où se trouvent les principales fonderies de semiconducteurs, ces puces électroniques présentes dans le moindre objet du quotidien (Il y en a 160 dans un téléphone, plus de 3 500 dans une voiture hybride [1]). Voilà qui mettrait à l’arrêt la production de voitures, de drones, de satellites, d’objets connectés et d’armement (la France étant le deuxième exportateur d’armes du globe).

    Les multinationales n’ont pas subitement décidé qu’un autre monde était possible et qu’elles devaient exploser en millions de coopératives locales. C’est plutôt que, pour elles, la planète n’est plus cette base logistique commodément aménagée par les politiques de la Banque mondiale et du Fonds monétaire international. L’hégémonie occidentale est terminée. Il y a plusieurs empires en concurrence pour les ressources et les marchés. Tous veulent des #métaux, des #semiconducteurs, etc. pour produire peu ou prou les mêmes objets.

    #Dépendance à un vaste tissu économique mondialisé

    C’est dans ce contexte que les députés européens ont voté en juillet 2023 le #Chips_Act. Objectif : produire sur le continent 20 % de la demande européenne de semiconducteurs. À #Crolles, près de #Grenoble, l’État va consacrer 2,9 milliards du #Plan_France_Relance pour augmenter les capacités de l’usine #STMicroelectronics, un groupe franco-italien dont le siège est en Suisse.

    Une usine de semiconducteurs est-elle relocalisable comme la production de chaussettes, qu’on peut approvisionner en laine de brebis du causse d’à côté ? En quoi consiste la production de puces électroniques ? À cette question, le #collectif_Stop_Micro a consacré toute une enquête (https://stopmicro38.noblogs.org/post/2024/11/01/ce-que-signifie-relocaliser), publiée en amont des rencontres organisées à Grenoble du 28 au 30 mars avec Les Soulèvements de la Terre.

    Décrivant les étapes de la production d’une puce électronique, ce document d’une quarantaine de pages illustre « le degré de dépendance de l’industrie de la #microélectronique à un vaste tissu économique mondialisé ». « Les produits made in France de ST sont en réalité de purs produits de la #mondialisation capitaliste, et ne pourraient exister sans elle », conclut-il.

    Fondé en 2022, #Stop_Micro s’oppose à l’agrandissement des usines de puces électroniques, deux sites industriels situés en Isère qui consommeront bientôt plus d’#eau et d’#électricité qu’une ville de 200 000 habitants. Ces besoins colossaux s’expliquent par le degré de #miniaturisation des composants. Sur la moindre puce de quelques millimètres sont gravés des dizaines de milliards de #transistors dont chacun est « 10 000 fois plus fin qu’un cheveu humain », précise l’Esia, l’association européenne des semiconducteurs, dans une brochure. De l’#eau_potable ultrapure est nécessaire pour laver les plaquettes de silicium et les débarrasser de contaminants présents à l’échelle nanométrique.

    Milliards de #subventions_publiques

    Pourtant, malgré leur consommation de ressources, les usines de STMicroelectronics à Crolles et de #Soitec à #Bernin « ne produisent formellement même pas “des puces” », selon le collectif. En résumant beaucoup, disons qu’une puce électronique commence avec l’extraction de quartz dans une carrière puis sa transformation en silicium métal dans de hauts fourneaux. Pour atteindre le niveau de pureté de 99,9999999 % requis pour les semiconducteurs, il faut y ajouter de nombreuses étapes impliquant produits chimiques et hautes températures pour obtenir des lingots de silicium monocristallin ultrapur qui sont ensuite découpés en galettes très fines (#wafers).

    Ce n’est qu’à ce stade qu’interviennent les usines grenobloises. Elles reçoivent ces galettes pour y graver « par photolithographie (dans l’esprit d’une photo argentique mais en autrement plus complexe), des milliards de transistors et circuits miniatures ». À la sortie de ces usines, la puce n’existe pas encore comme objet séparé, précise Stop Micro. C’est dans d’autres sites en Asie qu’elles sont découpées, testées et préparées individuellement de façon à pouvoir être intégrées à des circuits électroniques. Ces usines « relocalisées » en Isère au moyen de milliards de subventions publiques ne sont donc qu’une étape parmi des dizaines d’autres, réparties sur toute la planète.

    Autre exemple : une minuscule puce peut contenir des dizaines de métaux différents : arsenic, tantale, titane, antimoine, gallium…. #Intel, le plus grand vendeur de semiconducteurs au monde, a travaillé pendant six ans pour retracer la provenance du #cobalt qu’il utilise afin de comprendre s’il est extrait dans des zones de guerre en République démocratique du Congo. L’entreprise n’y est parvenue qu’en partie, alors que le cobalt n’est qu’un seul de tous les métaux utilisés.

    Le fait que STMicro, à Crolles, ait plus de 6 600 fournisseurs directs donne une idée de la complexité des process mis en œuvre sur ce gigantesque site. « La fabrication de semiconducteurs est l’activité de fabrication la plus complexe que l’on connaisse actuellement », résume l’Esia. « Avant d’atteindre le stade du produit final, une puce peut faire 2,5 fois le tour du monde et traverser 80 frontières ».

    Des chaînes d’approvisionnement d’une complexité inouïe

    Il y a des technologies emblématiques de certaines formes politiques. Le métier à tisser mécanique, par exemple, cristallise le capitalisme industriel anglais du XIXe : le coton produit en Inde, les usines textiles de Manchester alimentées au charbon, les cotonnades vendues aux marchands d’esclaves africains. La puce de silicium, elle, est emblématique de l’hégémonie néolibérale des puissances occidentales des années 2000.

    Elle nécessite de maîtriser des chaînes d’approvisionnement d’une complexité inouïe, réparties sur des dizaines de pays. C’est la pax americana qui a rendu possible la Silicon Valley. Si cette domination mondiale n’avait pas existé, naturelle au point de passer pour « la fin de l’Histoire », si le monde n’avait pas été cet espace de libre-échange commodément organisé pour achalander les multinationales, il ne serait venu à l’idée de personne de numériser toutes les activités humaines.

    Car au fond, est-il bien raisonnable de rendre une société entière dépendante, pour sa survie, d’un objet qui repose sur l’activité de centaines de mines aux quatre coins du monde, qui franchit en moyenne 80 frontières avant d’atteindre le stade du produit final ? Le numérique est une #technologie impériale. Que devient-il quand l’empire vole en éclats ?

    Pour promouvoir l’activité de ses entreprises, l’Esia souligne que les semiconducteurs sont indispensables « aux soins médicaux critiques », « aux infrastructures d’eau », « à l’agriculture durable qui nourrit le monde ». Faut-il en conclure que tout doit être mis en œuvre pour trouver des terres rares, des galettes de silicium ou du cobalt ? Ou, au contraire, que l’hôpital, la distribution d’eau et l’agriculture devraient absolument pouvoir fonctionner sans informatique ? Qu’il est follement inconséquent de laisser les services essentiels à la merci de la moindre cyberattaque ou rupture d’approvisionnement.

    C’est tout ce qui sépare la quête d’#autonomie et de #sobriété, dont nous avons besoin pour nous protéger autant que pour rendre le monde plus juste, des politiques actuelles de « #souveraineté_industrielle » qui, en augmentant notre dépendance à des technologies impériales, nous condamnent à la guerre des ressources.

    https://reporterre.net/L-hypocrisie-des-puces-electroniques-made-in-France
    #puces #relocalisation #industrie

  • Developer Revives Iconic Desktop #weather App for Linux
    https://www.omgubuntu.co.uk/2025/03/developer-revives-iconic-desktop-weather-app-for-linux

    An iconic desktop weather app from Linux’s past has just blown in — yes, #typhoon is back! Typhoon’s conceit is simple: display current conditions at a location plus a 4 day forecast on a customisable coloured background. Long long-time OMG! Ubuntu readers may just about recall that Typhoon is a fork of an older app called #stormcloud. Between 2012 and 2013, Stormcloud was one of the best-selling apps on Ubuntu – topping the download chart for 6 consecutive months! Sadly, development on Typhoon dried up not long after it launched, with its dev unable to weather changes to its backend […] You’re reading Developer Revives Iconic Desktop Weather App for Linux, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #App_Updates

  • En pleine élection agricole, le Sénat vote le retour des #insecticides tueurs d’abeilles

    Lundi 27 janvier, le Sénat a voté le retour des #néonicotinoïdes et des facilitations accordées à la construction des #mégabassines. Une proposition de #loi venue du sénateur et ancien élu de la #FNSEA Laurent Duplomb, qui devra passer en deuxième lecture à l’Assemblée nationale.

    Au Sénat, lundi 27 janvier, deux positions se sont opposées. Les tenant·es du « pragmatisme » et de la « compétitivité » l’ont emporté face à des élu·es qui craignent un « grand recul » et défendent des « alternatives ». En définitive la réintroduction des néonicotinoïdes a été votée, pour « sauver » les filières des #betteraves_à_sucre et de la #noisette. Ces insecticides tueurs d’abeilles étaient interdits en France depuis 2018. Le débat a été tout aussi enflammé concernant le #stockage_d’eau pour des fins agricoles et la redéfinition des #zones_humides, et là aussi ce sont les défenseurs de l’agriculture productiviste qui l’ont emporté.

    À l’origine de cet affrontement : la #proposition_de_loi (#PPL) visant à « lever les contraintes à l’exercice du métier d’agriculteur » à l’initiative du sénateur Les Républicains (LR) #Laurent_Duplomb, finalement adoptée à 233 voix contre 109. Cet agriculteur, ancien élu de la FNSEA-JA (Jeunes Agriculteurs) et ancien président de la chambre d’agriculture de Haute-Loire, et dont le fils est lui-même, depuis l’an dernier, président des #Jeunes_Agriculteurs du département, a réussi à mettre son texte à l’agenda du Sénat en pleine élection agricole, après avoir déjà présenté la semaine dernière un amendement au budget pour supprimer l’Agence Bio.

    La PPL a ainsi court-circuité la poursuite du travail parlementaire sur la #loi_d’orientation_agricole – dont l’examen par la chambre haute est suspendu depuis la dissolution de juin 2024 et doit commencer le 4 février –, parfois en le doublonnant, mais surtout en allant encore plus loin dans la remise en cause de mesures environnementales.

    « La plume officielle de la FNSEA »

    La réintroduction des néonicotinoïdes, emblématique de ce texte, concerne l’#acétamipride, une molécule qui, après son interdiction, avait bénéficié d’une dérogation jusqu’en 2020. Elle est destinée à lutter contre les insectes suceurs dans les cultures de végétaux feuillus et de fruits à coque. Même si l’amendement de compromis présenté par la ministre de l’agriculture, Annie Genevard, a nuancé le texte initial porté par Laurent Duplomb, le faisant évoluer d’une réautorisation stricto sensu de la substance à une nouvelle #dérogation, la gauche et les écologistes étaient unanimes contre tout aménagement ouvrant la voie à un retour de ce produit toxique dans les champs.

    L’opposition a tenté, en vain, de « débunker » les assertions des défenseurs du texte – les deux rapporteurs, le président de la commission des affaires économiques, la ministre de l’agriculture et, plus largement, les élu·es des partis gouvernementaux. Ainsi, pour Daniel Salmon, du groupe Écologiste Solidarité et territoires, élu en Ille-et-Vilaine : « Ce genre de procédure [la dérogation – ndlr] nous amène à traîner sans chercher les alternatives. Or les alternatives existent déjà. Certes, sans néonicotinoïdes, les rendements baissent. Mais regardons les betteraves à sucre : on produit 70 % de sucre en plus de ce qu’on consomme. Produire plus, pourquoi pas, mais ça se fait au détriment de la santé et de la biodiversité. »

    Le socialiste Jean-Claude Tissot, lui-même agriculteur et membre de la Confédération paysanne, a dénoncé avec cette PPL « un contresens historique » et « un populisme rétrograde en rupture totale avec la transition écologique », et rappelle qu’en avril 2023, le directeur scientifique de l’Inrae avait été auditionné dans l’enceinte du Sénat. « Il nous avait expliqué que l’acétamipride est pire que l’imidaclopride [autre néonicotinoïde interdit – ndlr], et que c’était le #chlordécone de l’Hexagone, relate le sénateur de la Loire. Ce que vous faites s’appelle de l’#obscurantisme. Vous niez la #science car vous mettez le rendement économique devant tous les paramètres. Qu’allez-vous dire à nos petits-enfants qui vont subir des #dérèglements_hormonaux ? » L’opposition a, à plusieurs reprises, dénoncé une remise en cause du principe de non-régression du droit de l’environnement.

    À des années-lumière de ces interrogations, Laurent Duplomb n’a cessé d’assurer, lui, que cette PPL ne constituait en aucun cas « une #régression ». Tout au contraire, l’éleveur de Haute-Loire s’est vanté de « mettre fin à dix années d’interdiction » pour reconquérir des parts de marché perdues face à d’autres pays européens où l’acétamipride est autorisé, comme la Pologne, sur un ton qui frisait bon le paternalisme face à une opposition interloquée. « L’enfant, quand il fait une erreur, on le lui dit et on l’éduque. Eh bien, pour une fois, on va éduquer en corrigeant les erreurs que nous avons faites dans le passé. »

    « Ayons le courage de sortir de l’#obscurantisme_vert », « Continuez, madame, de mettre les agriculteurs dans le corner », a également lancé le sénateur FNSEA, incriminant au passage « le lobby de la Confédération paysanne ».

    Mais c’est surtout un discours collant aux éléments de langage de la FNSEA-JA et de la #Coordination_rurale qui a dominé l’hémicycle lundi soir, alors qu’agricultrices et agriculteurs sont appelés ces jours-ci, jusqu’à vendredi, à élire leurs représentantes et représentants syndicaux : il fallait « sauver la ferme France », et le corapporteur du texte Franck Menonville (Union centriste) fustigeait « une surtransposition mortifère » et « une avalanche de normes toujours plus contraignantes »...

    Nicole Bonnefoy, pour les socialistes, a ainsi dénoncé « la plume officielle de la FNSEA au Sénat, qui en cette période électorale veut montrer son influence au Parlement ». « Jamais les mots #santé et #biodiversité ne sont utilisés, alors que ce sont des choses essentielles. On ne parle ici que d’#économie », a déploré la sénatrice.

    #Pulvérisation de #pesticides par #drone

    Dans son introduction générale, le président de la commission des affaires économiques, Pierre Cuypers, avait souligné que le texte était « né du constat que le projet de loi agricole évitait soigneusement les sujets qui fâchent, comme l’utilisation des #produits_phytosanitaires. […] Le texte se veut court, pour s’attaquer à quelques irritants majeurs, comme la séparation du conseil et de la vente des produits phytosanitaires ». Force est de constater que la discussion au Sénat n’a en rien levé les profonds désaccords sur ces sujets.

    Le gouvernement a toutefois apporté quelques nuances : la séparation de la vente et du conseil vaudra pour les distributeurs de produits phytosanitaires, pas pour les fabricants comme le voulait le texte initial. L’exécutif a également bloqué sur la volonté des rapporteurs du texte de lever l’interdiction du rabais sur les pesticides : c’était là une « ligne rouge », a expliqué Annie Genevard, qui a fait retirer ce point.

    Pour le reste, la ministre de l’agriculture a suivi les orientations de la PPL, proposant des modifications à la marge pour « sécuriser le texte » d’un point de vue juridique, et elle a remis à la Conférence de l’eau promise par le premier ministre lors de sa déclaration de politique générale la discussion sur une nouvelle « hiérarchie des usages de l’#eau ».

    Pulvérisation de pesticides par drone, possibilité pour le ministère de demander à l’Anses l’examen prioritaire d’un produit en vue de son autorisation de mise sur le marché, facilitation des projets de bâtiments d’élevage et de stockage d’eau ouvrant la voie à de nouvelles #retenues_collinaires et mégabassines pour « #intérêt_général_majeur », assouplissement de la définition des zones humides : les principales mesures contenues dans cette PPL ont donc été adoptées et constituent autant de périls pour la préservation des écosystèmes et la santé des populations. L’opposition a pointé en outre, sur plusieurs dispositions, le risque de se mettre en porte-à-faux vis-à-vis du droit européen.

    L’avenir du texte, cependant, n’est pas acquis. La deuxième lecture, à l’Assemblée nationale, pourrait faire apparaître beaucoup plus de réserves parmi les député·es MoDem et Renaissance, où l’on défendait, pendant les débats sur la loi d’orientation agricole au printemps dernier, une approche plus modérée face à la levée des garde-fous environnementaux.

    https://www.mediapart.fr/journal/politique/280125/en-pleine-election-agricole-le-senat-vote-le-retour-des-insecticides-tueur

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

  • Cyclone #Chido à #Mayotte : d’où vient l’estimation rétractée de 60 000 morts ? – Libération
    https://www.liberation.fr/checknews/cyclone-chido-a-mayotte-dou-vient-lestimation-retractee-de-60-000-morts-2

    Un reportage de Réunion la 1re a fait état d’une estimation de 60 000 morts qui « circule parmi les secouristes déployés à Mayotte ». Il a été supprimé.

    (...)

    Interrogé sur la crédibilité du chiffre cité à l’antenne, il précise que « ce sont des estimations qui circulent à Mayotte dans le monde des secouristes comme le rappelle Raphaël Khan qui a également rappelé dans son intervention la difficulté de confirmer ou d’infirmer ces chiffres dans le contexte actuel. Ce n’est pas un bilan officiel comme nous l’avons dit précédemment ».

    (...)

    Ce sont des rumeurs, et faut pas diffuser des fakenews, alors, l’estimation a été rétractée, comme on rétracte un article scientifique bidon.

    Comme d’habitude, le factchecking est utilisé à des fins politiques. Ici pour tenter de calmer les esprits face à une vérité un petit peu gênante pour un pouvoir qui prétend tout contrôler tout le temps, à coup de grenades et de gardes à vue.

    • Non, non, c’est pas réglé ! Le pestilent prolonge sa visite et promet que l’on va expulser davantage car ces gens « pèsent sur les services publics ».

      edit "Nous allons rebâtir Mayotte comme nous avons rebâti Notre-Dame de Paris" a-t-il déclaré. L’accent volontarisme frimeur dit aussi « pas de place pour les habitants ».

      Quant à penser que près d’un habitant sur 5 (parmi 320 000personnes (mal) recensées) serait DCD, cela ressemble à un point de vue secouriste militant jouant sans malice aucune et en toute bonne foi les Cassandre en annonçant un chiffre qui pourrait résulter d’une crise sanitaire s’ajoutant au cataclysme météorologique, socio et « racial ».

    • L’autre jour, Rémi Carayol (journaliste Médiapart) et Dominique Voynet étaient sur le plateau de LCP avec la chroniqueuse Myriam Encaoua (sosie de Babeth Lemoine, sans les petits fours). Je coupe souvent le son entre deux coups de zapette pour éviter la pub et sur LCP pour ne pas entendre les inepties de cette chroniqueuse. Et vu la tête de Carayol et Voynet, je sentais bien qu’il y avait comme un malaise sur le plateau. Pour conclure l’émission, Encaoua (ouah, ouah) déclare "La reconstruction est en marche" . D. Voynet avale de travers et répond : « Comment pouvez-vous dire cela, il y a à peine trois jours que le cataclysme à eu lieu et on ne sait même pas le nombre de victimes. »
      https://www.youtube.com/watch?v=8glW847dIkA

    • Je pense que c’est la nouvelle gestion du désastre : blâmer les victimes et ouvrir d’autres indignations artificielles pour pouvoir absolument ne rien faire.

      Il n’y a que @bastamag qui pose le problème en termes crus : à savoir que sur les 100 000 personnes (à la louche) qui vivent dans les bidonvilles de l’île, seul 10% est allé aux abris et que quelques jours plus tôt, la préfecture était surtout occupée à refaire une énième opération Wuambushu.

      https://seenthis.net/messages/1088967

      En gros, il manque 90 000 personnes à l’appel et il y a eu 0 appel à l’aide internationale. Les « responsables » politique n’ont pas lancé d’opération de sauvetage des survivants, ils sont trop occupés à tenter de masquer les chiffres. Les médias se sont jetés sur le faux scoop : Macron est un 💩💩 facho (whouah, la surprise) et au bout de trois jours, les Mahorais ont eu le droit à un couvre-feu, 2 bouteilles d’eau et 2 boites de conserves pour les + chanceux.

    • sur l’estimation de population à Mayotte, l’Insee défend ses calculs (janvier 2023)
      (lecture intéressante avec description du contexte des opérations de recensement)

      À Mayotte, un recensement adapté à une population aux évolutions hors normes
      https://blog.insee.fr/mayotte-recensement-adapte-a-population-hors-norme

      Au 1er janvier 2022, Mayotte compte 300 000 habitants. Ce chiffre est fondé sur le dernier recensement exhaustif mené en 2017, actualisé chaque année à partir des données d’état civil sur les naissances et les décès ainsi que par la prolongation de la tendance en matière de flux migratoires. Depuis 2021, le recensement prend à Mayotte la même forme que sur le reste du territoire français, une enquête annuelle couvrant chaque année une partie différente du territoire, avec quelques adaptations aux spécificités mahoraises. C’est au bout d’un cycle de cinq ans, en 2025, qu’on disposera des résultats complets par commune. Tout est mis en œuvre pour assurer la qualité du recensement. Avant chaque enquête, une cartographie précise permet de repérer l’ensemble des logements concernés, qu’ils soient en dur ou en tôle (bangas). Les agents recenseurs sont recrutés localement par la commune. Ils travaillent à proximité de leur domicile et se rendent dans tous les quartiers. Le respect de la confidentialité permet de recenser tous les résidents, y compris ceux en situation irrégulière. Le recensement est une opération à laquelle les Mahorais sont attachés : en témoigne le taux de réponse, supérieur en 2017 comme en 2022 à celui de la métropole. Des comparaisons avec la consommation de riz ou d’huile confortent l’estimation produite par l’Insee. Néanmoins, certains ont encore le sentiment que la population est plus nombreuse que celle mesurée par l’institut. Ce ressenti tient beaucoup aux caractéristiques du territoire, qui laissent penser qu’il est difficile d’en cerner la démographie, et sans doute à une méconnaissance des méthodes rigoureuses de recensement, destinées à prendre en compte les spécificités de l’« île hippocampe ».

    • On s’y habitue bien, en fait, a en avoir rien à foutre de la destruction de masse d’êtres humains

      Ben, en fait, les médias ont tout fait pour qu’on s’y habitue avec leur « cadrage de l’information » ? Combien de morts déjà (et parmi ces morts, combien d’enfants) à Gaza depuis le 7 octobre 2024 ?

    • Mayotte face au cyclone Chido : quand l’obsession migratoire écrase la justice climatique
      https://www.cadtm.org/Mayotte-face-au-cyclone-Chido-quand-l-obsession-migratoire-ecrase-la-justice
      https://seenthis.net/messages/1089020

      Après le passage, ce samedi 14 décembre, d’un cyclone d’une violence inédite sur l’île de Mayotte, département français d’outre-mer, les conséquences matérielles et humaines sont colossales. Comment expliquer ce désastre climatique en brandissant la carte de la migration clandestine ? #Bruno_Retailleau, (ex)-ministre de l’Intérieur français y parvient très bien en attisant le #délire_fasciste du recours aux boucs émissaires pour tout justifier, de la catastrophe climatique à la pauvreté extrême. Pour lui, ce sont les migrants en situation illégales qui expliquent les dégats causés par le passage de Chido.

      Comores : Moroni indigné après les propos de Bruno Retailleau sur le durcissement de la lutte contre l’immigration à Mayotte
      https://rfi.my/BFfP

      Toujours dans l’optique de contrer l’immigration illégale sur l’île française, le ministre démissionnaire de l’Intérieur a évoqué aussi une autre piste. « Il faudra également envisager de nouveaux moyens de lutte, notamment en utilisant un certain nombre d’outils modernes, de drones, etc. pour prévenir l’arrivée des kwassa kwassa », a-t-il déclaré en faisant allusion aux petites barques à moteur utilisées par les migrants illégaux venus des Comores pour rallier Mayotte.

      L’infâme sinistre qui sera reconduit dans ses fonctions dans le prochain gouvernement français aurait pu utiliser ces outils modernes pour retrouver les victimes. Faut croire que sa priorité est de reconstruire sur un champs de cadavres.

  • https://splann.org/enquete/intoxication-miniere-en-bretagne/indiana-jones-recherche-or-bretagne

    • La start-up Breizh Ressources a déposé trois permis exclusifs de recherche minière pour identifier la présence de certains minerais dans les sous-sols, dans un périmètre qui couvre plus de 850 km² et 42 communes, soit l’équivalent de 17 fois la surface de Rennes.
    • Bien que la société soit basée à Lorient, Breizh Ressources est dirigée par le Britannico-Canadien Keith Barron, connu pour avoir découvert l’une des plus grandes mine d’or au monde.
    • Keith Barron est également à la tête de la société Aurania Resources basée à Toronto et immatriculée aux Bermudes, actionnaire unique de Breizh Ressources.

    #extractivisme #or (fièvre de l’) #Keith_Barron (géologue) #storytelling_entrepreneurial

  • #Jheronimus_Bosch, the Garden of Earthly Delights

    The interactive documentary Jheronimus Bosch, the Garden of Earthly Delights provides an in-depth tour though The Garden of Earthly Delights. In a web interface the visitor will be taken on an audio-visual journey, including sound, music, video and images to enrich the #storytelling.

    https://archief.ntr.nl/tuinderlusten/en.html
    #art #tableau #tableau_interactif #visite_interactive #son
    (même si ce n’est pas une carte, je suis tentée d’utiliser le tag #cartographie_interactive, car ça serait tellement merveilleux de faire cela aussi pour des #cartes...)

    ping @reka @fil

  • Révélations sur les #contaminations de la plus grande mine à ciel ouvert de l’Hexagone

    « La #pollution de l’#eau par la mine ? Il n’y a pas de problème. » Face au discours sur les « #mines_propres », Splann ! révèle les pollutions générées par la mine d’#andalousite de #Glomel, au cœur de la #Bretagne, exploitée par la multinationale #Imerys.

    En Centre Bretagne, la commune de #Glomel, étendue sur près de 80 km2, est un véritable château d’eau. Ses sources, ses ruisseaux et ses marais dominent les bassins versants de l’#Ellé et du #Blavet. On y trouve encore certains habitats naturels emblématiques de la région, landes, tourbières et autres prairies humides. C’est pour protéger cette richesse qu’ont été créés la réserve naturelle régionale des landes et marais de Glomel, ainsi que deux sites Natura 2000 et plusieurs zones naturelles d’intérêt écologique faunistique et floristique.

    Le paradoxe est que Glomel abrite aussi la plus grande mine à ciel ouvert en activité de l’hexagone : sur place, la #multinationale Imerys peut extraire chaque année jusqu’à 1,5 million de tonnes de roches et raffine dans ses deux usines un quart de la production mondiale d’andalousite.

    La « #Damrec » comme on dit ici en référence à l’ancien nom d’Imerys, est longtemps passée inaperçue. Déjà, qui connaît l’andalousite, ce minéral résistant aux très hautes températures ? On le retrouve sous forme d’additif dans les #bétons ou les #peintures, dans les blocs moteurs de camions ou dans les fours de toute l’#industrie, de la #métallurgie au #nucléaire. Mais si l’andalousite est couramment utilisée par la grande industrie pour ses propriétés réfractaires, nous n’avons jamais directement affaire à elle.

    D’immenses cratères au cœur de la Bretagne

    Le site de Glomel est resté d’autant plus discret qu’il n’est, aux yeux de l’administration, qu’une carrière : on imagine un modeste carreau au bord d’une route déserte, quelques camions. Sauf que…

    Sauf qu’il s’agit bel et bien d’une mine avec ses immenses #cratères, ses usines, ses #bassins_de_décantation remplis d’#eau_acide et ses montagnes de #déchets qui avancent dans le paysage, avalant les champs, les fermes et les chemins. Tout ceci inquiète nombre de riverains, qui voient se multiplier les cas de #cancer et se demandent ce qu’il restera des zones humides, des sources et des captages dans cet avenir où rien ne sera plus précieux que l’eau.

    Mais Imerys compte bien aller au bout de ce #gisement. Après une enquête publique houleuse et d’âpres débats, l’État vient de l’autoriser à poursuivre l’#exploitation jusqu’en 2044 en creusant une quatrième #fosse_d’extraction : un #trou grand comme quinze terrains de football et aussi profond que cinq immeubles parisiens empilés.

    Une étude partiale payée par l’industriel

    Sur le site internet d’Imerys Glomel, on lit qu’« une des priorités du site concerne la gestion des rejets aqueux […] dans les rivières, zones humides et nappes souterraines alentour ». L’enjeu est de taille, puisqu’en aval de la mine se trouve la réserve naturelle régionale de #Magoar_Penvern. Puis, à 6 km du site industriel, un premier captage d’#eau_potable dans l’Ellé alimente les 6000 habitants des communes voisines.

    Dans le #Kergroaz, un minuscule ruisseau qui serpente dans le sous-bois, Imerys rejette chaque année environ 1,5 million de mètres cubes d’#eaux_usées. Ces eaux sont traitées, et les exigences de la préfecture ont conduit l’entreprise à investir récemment dans une unité destinée à limiter la quantité de #manganèse et de #fer dans ses rejets. Mais même après traitement, ils contiennent des quantités très importantes de #contaminants : la préfecture des Côtes-d’Armor autorise le site à rejeter chaque jour dans ses eaux usées jusqu’à 9 kg d’#hydrocarbures et, entre autres, jusqu’à 11 kg par jour au total de #cobalt et de #nickel, des #métaux cancérigènes, mutagènes et reprotoxiques.

    Pourtant, Imerys assure n’avoir « aucun impact sur les eaux » et a financé une étude sur cinq ans de l’état écologique du #Crazius, où se jette le Kergroaz. Cette étude payée par l’industriel conclut à un « bon état » du cours d’eau pour certains paramètres, mais ce qui frappe, c’est que les métaux les plus toxiques émis par le site ne semblent pas avoir été recherchés dans le cours d’eau.

    Pourquoi s’intéresser à la présence de fer et d’aluminium, et non à des contaminants bien plus redoutables comme l’#arsenic, le #cadmium, le #cobalt ou le #nickel, qui sont par ailleurs présents dans les déchets de cette mine ? Interrogé, Imerys n’a pas souhaité répondre à nos questions. Pour y voir plus clair, Splann ! a décidé de faire analyser les sédiments du Crazius.

    « Les quantités de #contaminants présentent manifestement un danger »

    En juillet puis en septembre, Splann ! a prélevé plusieurs jeux d’échantillons de sédiments dans le lit du ruisseau d’abord en amont du point de rejet de la mine, pour disposer d’un échantillon « témoin » ; puis dans un deuxième temps au niveau où Imerys rejette ses eaux usées ; et finalement à 2 km de là en aval dans le même cours d’eau, dans la réserve naturelle régionale.

    Ces sédiments ont été analysés par un laboratoire accrédité Cofrac. Les résultats de ces analyses ont été interprétés avec l’aide de Frédéric Gimbert, spécialiste des pollutions minières et chercheur en écotoxicologie au CNRS de Besançon.

    Alors que les sédiments du prélèvement témoin, en amont, ne présentent aucune contamination, au niveau du point de rejet d’Imerys, les concentrations en nickel sont jusqu’à 60 fois supérieures à la valeur guide pour un bon état écologique des sédiments d’eau douce. Les concentrations en cobalt sont jusqu’à 20 fois supérieures à cette valeur. Les analyses révèlent aussi la présence de métaux toxiques qu’Imerys n’est pas censé déverser : les sédiments contiennent quatre fois la valeur guide pour l’arsenic et une teneur anormale en cadmium, tous deux également cancérigènes, mutagènes et reprotoxiques.

    « De telles quantités de contaminants présentent manifestement un danger et un #risque potentiel pour l’environnement, estime Frédéric Gimbert. Il faudrait également rechercher ces mêmes contaminants dans les #sols où se déposent les #poussières issues de l’#activité_minière et conduire plus largement une étude d’évaluation des #risques, pour l’environnement, mais aussi pour la santé publique. »

    Les analyses de Splann ! révèlent également que la contamination s’étend au-delà du périmètre immédiat de la mine. À deux kilomètres en aval du site, au cœur de la réserve naturelle régionale de Magoar Penvern, les concentrations en cobalt et en nickel sont plus de dix fois supérieures aux valeurs guides pour un cours d’eau en bon état écologique.

    Un captage d’eau potable en aval de la mine

    Qu’en est-il à six kilomètres en aval, dans la rivière Ellé où #Eau_du_Morbihan prélève une partie de l’eau qui sera ensuite traitée pour être distribuée aux communes voisines ? Pour le savoir, notre équipe s’est rendue à #Toultreincq [qui signifie trou saumâtre en breton, NDLR], dont l’usine de potabilisation est justement en plein travaux. Une toute nouvelle unité de traitement est en construction pour un coût de six millions d’euros d’argent public.

    « La pollution de l’eau par la mine ? C’est simple : ce n’est pas un sujet. Il n’y a aucun problème », déclare, dès le début de notre visite, Dominique Riguidel, le directeur d’Eau du Morbihan qui s’est déplacé en personne pour nous le dire. L’ouverture de nouveaux captages d’#eau_souterraine permettront de « diversifier les ressources et de limiter les prélèvements dans l’Ellé », explique-t-il. C’est-à-dire précisément à limiter la dépendance au captage de #Pont Saint-Yves, sur l’Ellé, en aval de la mine.

    Mais le directeur d’Eau du Morbihan est formel : tout ceci n’a aucun rapport avec le fait qu’Imerys rejette chaque année 1,5 million de mètres cubes d’eaux usées contenant des #sulfates, des hydrocarbures et des #métaux_lourds en amont de ce captage. « La nouvelle unité permettra de mieux traiter les #pesticides et les #médicaments », justifie-t-il.

    Un ingénieur chimiste, expert en contaminations pour des organismes de #santé_publique, s’interroge : « J’ai du mal à croire que tous ces travaux n’aient aucun rapport avec l’agrandissement de la mine. Vu l’argent que ça coûte de changer une installation, ça ne se fait pas sans raison objective. Et il n’est pas courant d’avoir de tels traitements de l’eau en tête de bassin versant, où elle est normalement moins polluée. »

    Pour connaître la qualité de l’eau sur l’Ellé, en aval de la mine, le plus simple est de s’adresser à l’agence régionale de santé (ARS), qui surveille les captages. Nous lui avons demandé de nous communiquer les analyses de l’eau captée en aval de Glomel.

    « Il n’existe pas de contrôle sanitaire sur la ressource ‘Pont Saint-Yves’ exclusivement », a répondu l’ARS. Le captage d’eau le plus exposé aux pollutions de la mine ne serait donc pas surveillé : l’agence publique ne contrôle la qualité des eaux brutes qu’après qu’elles aient été mélangées à la station de traitement. Une fois dilués dans les eaux prélevées ailleurs, les contaminants d’Imerys passent inaperçus. Ce qui pousse certains riverains désabusés à résumer ainsi la situation : « La mine de Glomel utilise la réserve naturelle régionale comme station d’épuration » pour traiter ses effluents chargés en métaux toxiques. « Mais si la contamination continue d’augmenter, explique l’ingénieur chimiste, l’eau de ce captage risque de ne plus être utilisable pour produire de l’eau potable. »

    Un lac rempli de métaux lourds

    « Quand j’étais ado, par une chaude journée d’été, je m’amusais à repérer les plans d’eau des environs sur les photos satellites. J’ai découvert un lagon bleu à Glomel. J’ai demandé à ma mère : ‘pourquoi on n’est jamais allées s’y baigner ?’ ». Voilà comment Camille a découvert la mine de Glomel : un espoir de baignade. Espoir déçu : le lac de douze hectares dont elle parle, une ancienne fosse d’extraction, recueille en continu des eaux acides et les boues de traitement des usines du site.

    Une autre riveraine se rappelle : « Pendant une réunion en 2022, j’ai demandé ce que contenait cette fosse qu’on appelle ‘la #fosse_2’. Imerys m’a répondu ‘Du #mica et des #oxydes_de_fer’. » Pas de quoi s’inquiéter, donc, Camille aurait pu s’y baigner. Mais dans un tableau perdu dans les 3000 pages du dossier d’enquête publique, on apprend que ces #boues contiennent de fortes concentrations de cadmium, de #chrome, de cobalt, de nickel et de #plomb : des métaux dits « lourds », cancérigènes, neurotoxiques et reprotoxiques.

    Les boues de cette #fosse contiennent aussi les produits chimiques utilisés dans l’usine. Lors d’une réunion publique, les porte-parole de l’entreprise ont assuré que « le procédé d’extraction ne fait pas intervenir de composés chimiques ». Pourtant, les documents de l’enquête publique indiquent que les usines de Glomel utilisent 75 tonnes par an de substances nocives pour l’#environnement et la santé.

    Par exemple, le #méthyl-isobutyl carbinol, un #solvant dangereux pour les #nappes_souterraines, l’#acrylamide, cancérigène, mutagène et reprotoxique, le #sulfonate_de_sodium et l’#amylxanthate, toxiques pour la #vie_aquatique.

    Les #déchets_miniers ont contaminé les #eaux_souterraines

    Chaque année, une trentaine de tonnes de ces produits sont déversées dans le « joli lac ». Imerys affirme que la fosse est « étanche », mais aucune membrane n’empêche ces boues acides de s’infiltrer dans les eaux souterraines. Et il en va de même dans tous les autres espaces du site où sont entreposées ces boues : la « fosse n°1 » (2 millions de m³) et « l’ancienne digue » (900 000 m³).

    Les contaminants de ces déchets toxiques ont commencé à migrer vers les eaux souterraines : c’est ce qu’indiquent certains éléments qu’Imerys a communiqués à l’administration. L’un des appareils de mesure de l’industriel relève que les taux de contaminants ont explosé entre 2012 et 2021.

    Par exemple, les déchets de la mine contiennent des concentrations importantes de nickel, un métal qui provoque des #cancers du poumon et des sinus et des #maladies_cardiovasculaires. Or, sous le site minier, les eaux souterraines contiennent 40 fois la teneur en nickel maximale autorisée pour les eaux brutes destinées à la consommation. Les autres contaminants (cobalt, cadmium, arsenic, produits chimiques…) susceptibles d’avoir migré vers la nappe ne semblent pas surveillés.

    En juin 2024, en prolongeant l’exploitation de vingt ans, les services de l’État ont autorisé l’entreprise à générer au total environ 12 millions de m3 de déchets supplémentaires, autant de déchets qui seront entreposés sur place et qui sont censés ne pas entrer en contact avec les eaux souterraines pour les décennies et les siècles à venir. Alors que jusqu’ici, Imerys n’a pas réussi à empêcher la contamination des eaux souterraines.

    Qui traitera les eaux acides ?

    En 2044, en théorie, l’extraction d’andalousite sera terminée et viendra le temps de la « #remise_en_état », comme on dit. Mais la roche exploitée à Glomel a une particularité : elle contient de la #pyrite, c’est-à-dire du #soufre. Quand la roche mise à nu par l’extraction ou les déchets miniers du site rencontrent de l’eau (la pluie par exemple), cette eau se transforme naturellement en #acide_sulfurique et entraîne vers l’aval les contaminants présents dans la roche. C’est ce qu’on appelle le #drainage_minier_acide, l’une des pollutions les plus redoutables liées à l’activité minière.

    Actuellement, toutes les eaux qui ruissellent sur le site sont collectées et traitées par lmerys pour perdre leur acidité. Mais qui va traiter ces eaux de ruissellement dans un siècle pour empêcher cette marée acide de contaminer le bassin de l’Ellé ? Dans les documents de l’enquête publique, Imerys assure qu’après la remise en état, « les #eaux_pluviales ne seront plus susceptibles de s’acidifier ». Les montagnes de déchets seront « étanchéifiées » avec une couche de résidus miniers très fins puis quelques centimètres de terre. L’entreprise assurera un suivi du site pendant dix ans après la fin de l’activité.

    On sait pourtant que le #drainage_minier_acide est sans limite de temps, comme le rappelle l’association de géologues miniers SystExt. À #Chessy-les-Mines, dans le Rhône, un gisement riche en pyrite a été exploité depuis le Moyen Âge. La mine a fermé après un effondrement dans la galerie principale, survenu en 1877. Un rapport confidentiel du Bureau des recherches géologiques et minières (BRGM) publié en 2019, que Splann ! s’est procuré, décrit le traitement des eaux acides mis en place à #Chessy.

    L’État a constaté que ces eaux minières, quoique traitées « depuis 130 ans », étaient trop polluantes, si bien qu’il a dû y construire une toute nouvelle station de traitement en 2005. Le drainage minier acide de Chessy dure donc depuis 150 ans sans que, d’après le rapport, l’acidité ou les concentrations de métaux dans les eaux n’aient baissé au cours du temps.

    À Chessy, le problème se pose sur 20 hectares ; à Glomel, il se poserait sur 265 hectares. La création d’une nouvelle fosse et de nouveaux #stockages de déchets augmentent d’autant la quantité d’eaux acides dont auront à s’occuper les six ou sept générations à venir.

    Une extension contestée en #justice

    « Les pollutions minières du passé posent des problèmes insurmontables, et l’État, qui doit les gérer tant bien que mal, le sait très bien, estime Dominique Williams, membre d’Eau et rivières de Bretagne. Pourtant, il reproduit les mêmes erreurs à une échelle dix fois supérieure. Les services de la préfecture ont délivré cette autorisation sans prendre la mesure de l’ampleur de cette pollution. »

    La préfecture des Côtes-d’Armor et la direction régionale de l’environnement ont été alertées de la contamination aux métaux lourds que révèle l’enquête de Splann !, et des problèmes soulevés par l’étendue considérable du drainage minier acide après la fermeture du site. La Région Bretagne a elle aussi « soumis ces informations à l’État afin qu’il puisse répondre aux inquiétudes exprimées » tout en indiquant à Splann ! qu’elle prenait « au sérieux l’alerte émise » sur la pollution de la réserve naturelle régionale.

    Or, malgré nos sollicitations, l’État ne s’est pas exprimé. Quant au groupe Imerys, notre rédaction lui a donné la possibilité de revenir sur ses déclarations concernant l’absence de métaux lourds et d’impact sur les eaux : il n’a pas souhaité nous répondre. Mais l’extension de la mine est d’ores et déjà contestée devant la justice. Fin octobre, l’association Eau et rivières de Bretagne a déposé un recours contre l’ouverture de la nouvelle fosse au tribunal administratif de Rennes.

    https://basta.media/Revelations-contaminations-plus-grande-mine-ciel-ouvert-Glomel-Bretagne-Ime
    #France #extractivisme #mines

  • Remote monitoring of real-time temperature recorder for storage

    Many commodities, especially food, medicine, chemicals, etc., are extremely sensitive to temperature. Real-time monitoring is required during the storage process to ensure that these products are stored within the appropriate temperature range. Real-time temperature recorder can realize remote real-time temperature viewing and analysis, optimize inventory management, adjust storage conditions, and improve overall operational efficiency.

    The real-time temperature recorder for storage launched by Freshliance has the characteristics of a small footprint, wide collection range, and high accuracy, and can be deployed in warehouses of different sizes. This Bluetooth temperature data logger can be connected to the gateway, and real-time data can be directly read and analyzed on the APP, and the maximum value, minimum value, average value and MKT value and other results can be automatically counted, which is very effective for storage management. Users can choose external probes according to their needs. For some spaces with high sealing requirements, flexible ultra-fine cable external probes can be selected to avoid fluctuations in ambient temperature.

    Real-time temperature monitoring in storage is not only an important means to ensure product quality but also a key factor in improving enterprise operational efficiency and customer satisfaction. The real-time temperature recorder provided by Freshliance can meet the real-time monitoring of temperature/humidity in different environments and places, improve the efficiency of temperature management, and reduce costs. We will also provide every customer with
    #realtime #temperaturerecorder #storage

    https://www.realtimelogger.com/products/bluetag-th10-bluetooth-temperature-and-humidity-data-logger.html

  • Immigration : le durcissement allemand provoque des débats tendus en Europe
    https://www.lemonde.fr/international/article/2024/09/13/immigration-le-durcissement-allemand-provoque-des-debats-en-europe_6315484_3

    Immigration : le durcissement allemand provoque des débats tendus en Europe
    Par Elsa Conesa (Berlin, correspondante) et Philippe Jacqué
    Rétablissement des contrôles aux frontières intérieures de l’Allemagne, expulsions de réfugiés afghans vers Kaboul, menaces du premier ministre hongrois, Viktor Orban, d’envoyer des migrants par bus de Budapest à Bruxelles… L’Europe a ouvert, en cette rentrée, une nouvelle séquence politique tendue sur le thème inflammable de l’immigration. Le sujet s’invitera au sommet des chefs d’Etat européens de la rentrée, mi-octobre, assurent plusieurs diplomates à Bruxelles.
    Depuis le début de l’année, le nombre d’entrées irrégulières enregistrées dans l’Union européenne par Frontex a pourtant chuté de 36 % (113 400 entrées à la fin de juillet). Les Vingt-Sept ont bouclé le « pacte sur la migration et l’asile » en juin, pour gérer ensemble ces arrivées, tout en multipliant les accords migratoires avec la Tunisie, l’Egypte ou le Liban. Mais cela n’a pas eu les effets politiques escomptés pour les partis au pouvoir. Au contraire.
    En juin, la poussée des partis d’extrême droite aux élections européennes, mais également aux législatives en France et, plus récemment, lors des régionales de deux Länder de l’est de l’Allemagne, le triomphe de l’Alternative für Deutschland et d’un parti de gauche hostile à l’immigration, l’Alliance Sahra Wagenknecht, ont remis la question migratoire au premier plan.
    Lire aussi | Article réservé à nos abonnés Elections régionales en Allemagne : les performances de l’extrême droite en Thuringe et en Saxe fragilisent un peu plus la coalition d’Olaf Scholz
    L’émotion suscitée par la succession d’attaques meurtrières en Allemagne par des personnes réfugiées radicalisées, fin mai, à Mannheim et, fin août, à Solingen, a conduit la coalition au pouvoir à prendre des mesures dans l’urgence, dès la fin de l’été : expulsion de vingt-huit Afghans, rétablissement des contrôles sur la totalité des frontières du pays à partir du 16 septembre, réduction des prestations sociales pour certains réfugiés. Un virage à 180 degrés pour l’un des pays qui se pensait jusqu’ici comme l’un des plus ouverts d’Europe.
    Désormais, la tendance politique est à un nouveau raidissement de la politique migratoire, partagée entre Bruxelles et les capitales des Vingt-Sept, alors qu’Ursula von der Leyen, la présidente de la Commission européenne, doit détailler dans les semaines à venir la feuille de route de la future commissaire aux affaires intérieures. Le poste, qu’aucun pays n’a réclamé tant il y a de coups à prendre, pourrait revenir à la libérale belge Hadja Lahbib.
    Depuis 2015, les pays de l’espace Schengen, au sein duquel prévaut la liberté de circulation, rétablissent régulièrement les contrôles intérieurs aux frontières pour des raisons sécuritaires. La France ne s’en prive pas. En annonçant simultanément le rétablissement des contrôles aux frontières avec ses neuf pays voisins, l’Allemagne envoie un message fort, qui lui a valu quelques réactions hostiles de partenaires européens.
    « Ce genre d’action est inacceptable », a déclaré, mardi 10 septembre, le premier ministre polonais, Donald Tusk. « Il ne serait pas juste de s’orienter vers une logique d’exemptions ad hoc de Schengen, avec des contrôles aux frontières qui pourraient finalement ne pas permettre la libre circulation des citoyens et nuire aux acquis fondamentaux de l’Union européenne », a, pour sa part, déclaré Kyriakos Mitsotakis, son homologue grec, en voyage à Vienne. Au contraire, M. Orban, en croisade depuis de nombreuses années contre toute politique migratoire commune et qui entend envoyer des migrants à Bruxelles par bus, a salué le geste d’un message goguenard sur X : « L’Allemagne a décidé d’imposer des contrôles stricts aux frontières pour stopper la migration illégale. Chancelier Scholz, bienvenue au club ! #stopmigration. »
    L’Allemagne reproche, de son côté, aux pays voisins, en particulier ceux du sud de l’Europe, de ne pas contrôler suffisamment leurs frontières, et de laisser circuler les réfugiés sans avoir traité en amont leurs demandes d’asile, comme le prévoit le système dit « de Dublin ». « Le problème est que l’Allemagne accueille beaucoup plus de réfugiés que les autres pays, souligne le député Nils Schmid (Parti social-démocrate, SPD), porte-parole du groupe au Bundestag pour la politique étrangère, et proche d’Olaf Scholz. Le système européen du droit d’asile a été réformé, mais il faut que les demandes des réfugiés soient traitées dans les pays d’accueil. Il faut plus de solidarité. »
    L’Allemagne a reçu, cette année, environ un quart du total des demandes d’asile faites en Europe, selon Eurostat. « Il faut tenir compte de la charge globale qui pèse sur l’Allemagne, fait valoir le ministère de l’intérieur allemand. Notamment les capacités limitées des communes en matière d’hébergement, d’éducation et de formation, en raison de l’accueil de 1,2 million de réfugiés en provenance d’Ukraine et de l’immigration d’asile de ces dernières années. » Celle-ci est estimée à quelque 2 millions de personnes supplémentaires depuis 2015. D’après le ministère de l’intérieur, un tiers des 74 622 demandes allemandes de renvoi de migrants vers d’autres Etats européens a échoué en 2023, parce que les pays concernés, comme l’Italie ou la Grèce, ont refusé de les accueillir.
    « Aucun Etat au monde ne peut accueillir des réfugiés de manière illimitée », a averti la ministre de l’intérieur allemande, Nancy Faeser, dans un document transmis à la Commission européenne et cité par le quotidien Süddeutsche Zeitung, qui décrit la situation en Allemagne en termes dramatiques, pour la sécurité du pays. Le gouvernement défend la création de centres d’accueil et de détention aux frontières allemandes, pour examiner les demandes des réfugiés grâce à une procédure accélérée qui ne durerait que cinq semaines, contre plusieurs mois aujourd’hui. Insuffisant pour les chrétiens-démocrates de la droite conservatrice, dont M. Schoz espérait le soutien, mais qui ont claqué la porte des négociations en début de semaine.« C’est un vieux débat autour d’un système qui ne satisfait personne, relativise Sophie Meiners, chercheuse et spécialiste de l’immigration à l’Institut allemand des relations internationales. Les pays du Sud qui accueillent les réfugiés trouvent le système européen injuste parce qu’il repose intégralement sur eux, et les pays comme l’Allemagne, où vont les demandeurs d’asile, leur reprochent de se décharger en les laissant passer. »
    La chercheuse voit néanmoins dans les mesures de la coalition allemande un virage politique évident, en partie lié à la pression exercée par la droite et les partis extrêmes, même si la régulation de l’immigration illégale fait partie des sujets mentionnés dans le contrat de la coalition depuis 2021. « Beaucoup de sociaux-démocrates étaient hostiles à des mesures comme les contrôles aux frontières par le passé », résume-t-elle.
    Cette approche présente toutefois des risques. « Quand on décide de rétablir ses frontières pour des raisons sécuritaires, on cherche à marquer l’opinion publique, décrypte une source diplomatique. Mais c’est un piège, car on ne peut plus revenir en arrière. Comment expliquer que les menaces n’existeront plus dans six mois, un an ou deux ans ? C’est impossible. » Le 29 août, Mme Faeser a rendu visite à Gérald Darmanin, son homologue français démissionnaire, pour évoquer la coopération sécuritaire entre les deux pays. Selon une source de la Place Beauvau, elle n’a abordé que le sujet migratoire. « Sous pression, le SPD est devenu de plus en plus restrictif dans son approche, constate Florian Trauner, spécialiste des migrations à la Vrije Universiteit Brussel, l’université néerlandophone de Bruxelles. Ils restent néanmoins légalistes, tout doit être conforme aux droits européen et international. »
    Tirée vers la gauche par les Verts, l’Allemagne a été éloignée du barycentre politique européen sur la question migratoire ces dernières années. « Lors de la négociation du pacte sur la migration et l’asile, elle était très souvent décalée par rapport au consensus des Etats membres, avec la défense de principes d’ouverture et d’humanisme, au demeurant très nobles, mais qui étaient loin des préoccupations des autres Etats, relève une source diplomatique européenne. Elle revient sur des positions bien plus fermes en matière migratoire, comme souvent, de manière assez soudaine et brutale. »
    A Paris aussi, le risque est grand de basculer vers un nouveau durcissement sur la question migratoire, moins d’un an après la loi sur l’immigration votée et soutenue par le Rassemblement national. Après la prise de fonctions du nouveau premier ministre, Michel Barnier, l’idée d’un ministère de l’immigration a refait surface, démenti, lundi 9 septembre, par Matignon. Dès lors, à Bruxelles, monte une réelle inquiétude. Depuis le printemps, une quinzaine d’Etats membres, menés par l’Autriche et le Danemark, l’Italie ou la République tchèque, réclament à l’exécutif européen « d’identifier, d’élaborer et de proposer de nouveaux moyens et de nouvelles solutions pour prévenir l’immigration irrégulière en Europe ».
    Ces pays ont notamment en ligne de mire la mise en place d’une politique d’externalisation de l’accueil et du traitement des demandeurs d’asile hors du Vieux Continent sur le « modèle Rwanda », développé par la précédente majorité conservatrice du Royaume-Uni. Selon une source, certains pays se prépareraient déjà à la mise en œuvre d’une possible politique d’externalisation, tandis que l’Italie poursuit ses préparatifs en Albanie d’un projet d’externalisation similaire.
    Ces quinze Etats signataires – dont ne font partie ni la France ni l’Allemagne – demandent également à la Commission de travailler sur les retours des demandeurs d’asile déboutés. En juillet, au Parlement européen, lors de son discours de confirmation à la présidence de la Commission, Ursula von der Leyen a promis « une approche commune sur la question des retours, afin de les rendre plus efficaces et plus dignes ». « Après cet engagement, les représentants des quinze pays jubilaient », confie un diplomate européen. Ces Etats souhaiteraient pouvoir renvoyer les migrants dans des pays tiers sûrs, voire dans leurs pays d’origine, y compris en Syrie ou en Afghanistan. L’Allemagne a déjà brisé ce tabou fin août, en renvoyant vingt-huit réfugiés afghans à Kaboul, avec l’aide du Qatar. Et d’autres Etats, dont l’Autriche ou Chypre, veulent faciliter ces solutions inimaginables il y a encore dix ans. « Les idées des pays signataires de la lettre sont en train d’infuser le débat entre les Vingt-Sept, et le ton évolue et se durcit, juge une source, les digues ne tiendront plus longtemps. » De son côté, la Suède a annoncé, jeudi 12 septembre, vouloir porter à 30 000 euros par personne l’aide au retour proposée aux migrants, bien davantage que le montant actuel qui s’élève à 3 512 euros pour une famille.

    #Covid-19#migrant#migration#UE#allemagne#asile#retour#expulsion#payssur#immigartionirreguliere#politiquemigratoire#sante

  • Nation Station – attivismo in #libano e lotta alla propaganda e agli attacchi israeliani
    https://radioblackout.org/2024/10/nation-station-attivismo-in-libano-e-lotta-alla-propaganda-e-agli-att

    Nation Station si trova ad Achrafieh, vicino al centro storico di Beirut ed è un’associazione comunitaria creatasi in maniera spontanea e dal basso dopo l’esplosione al porto di Beirut nell’agosto 2020. Diverse persone si sono messe insieme e hanno occupato una vecchia stazione di benzina abbandonata; tramite un crowdfunding hanno creato una cucina comunitaria, una […]

    #L'informazione_di_Blackout ##nation_station ##stopbombing
    https://cdn.radioblackout.org/wp-content/uploads/2024/10/NATION-STATION.mp3