Stock market trend #prediction using deep neural network via chart analysis: a practical method or a myth?
▻https://www.nature.com/articles/s41599-025-04761-8
— Permalink
#stockmarket #machinelearning #endogenous #chaos #secondorder #stockexchange
Stock market trend #prediction using deep neural network via chart analysis: a practical method or a myth?
▻https://www.nature.com/articles/s41599-025-04761-8
— Permalink
#stockmarket #machinelearning #endogenous #chaos #secondorder #stockexchange
J’ai testé #/e/OS alias #Murena sur le #Fairphone 4
(billet de blog publié en 2022, ici pour archivage, car je me tâte à passer à Fairphone + /e/OS...)
Contexte : il y a quelques mois, j’ai proposé sous forme de candidature spontanée mes services aux équipes de la e.fondation qui développe /e/OS, un système d’exploitation mobile. Je trouvais le projet vraiment inspirant, important. Indispensable même, pour offrir une troisième voie plus vertueuse1 dans le duopole d’Apple (iOS) et Google (Android). L’équipe m’a gentiment répondu qu’il n’y avait pas de possibilité de missions ou d’ouverture de poste. Par contre, elle m’a proposé de tester /e/OS sur un Fairphone 4.
J’ai immédiatement accepté, tout content de pouvoir tester à la fois le Fairphone 4 qui m’intriguait depuis sa sortie, en même temps que /e/OS, ce système d’exploitation mobile respectueux des données, sobre, open source, porté par une structure à but non lucratif. J’en ai profité pour réinterroger mon propre rapport au smartphone, à l’écosystème Apple, à la technologie en général.
Bonne lecture !
Avant-propos : d’où je parle et d’où je viens
Pour comprendre en quoi ce test a été important pour moi, il faut que je vous dise en deux mots d’où je parle et d’où je viens technologiquement.
J’ai toujours été un peu geek, profil bidouilleur mais pas programmeur, avec de réelles affinités pour la technologie. Mais pas toutes les technologies, et ce dès le départ. Par exemple, je n’ai jamais été intéressé par les consoles de jeu, ou par la télévision. Aucune idée claire du pourquoi. En revanche, j’ai été fasciné par les ordinateurs, et j’ai eu mon premier PC portable en 3ème. C’était tôt à l’époque. En 2006, j’ai eu mon second PC, un macbook d’Apple, la première génération sous Intel. Là encore, à l’époque c’était audacieux de passer sur Apple, ils ne pesaient pas bien lourd sur le marché, j’étais tout stressé et d’ailleurs j’ai longtemps conservé une partition Windows (cracké) pour me rassurer (et pour jouer aussi).
Mon histoire avec Apple a donc commencé en 2006. En 2007, l’iPhone est sorti, et un ou deux ans plus tard, j’étais équipé. L’accoutumance à un écosystème qui se structurait pouvait commencer. À mon état le plus avancé (sic), c’est-à-dire en 2019, je possédais un iMac, un Macbook, un iPad, un iPhone pro et une Apple Watch2. Outch. Pour ma défense, cet équipement constituait à la fois mon équipement personnel et surtout professionnel (je suis indépendant depuis avril 2018). Mais quand même, j’étais encore récemment un très gros utilisateur de produits et services Apple.
2019 a été l’année de la bascule, celle où j’ai commencé à donner des cours de culture numérique, celle où j’ai commencé à murir une réflexion technocritique. J’ai commencé à prendre du recul sur mes propres usages et pratiques technologiques. J’ai réalisé ma dépendance à des plateformes qui me posaient des problèmes de modèle économique, d’éthique, d’enfermement, etc. Et j’ai donc commencé à m’en émanciper.
Des 5 GAFAM, j’ai pu m’extraire de Facebook, de Google, d’Amazon, de Microsoft3, mais il me reste Apple. Il faut comprendre que m’affranchir de cet écosystème n’est pas anodin pour moi. C’est un acte de « renoncement » à 15 ans d’habitudes, d’accoutumance, de confort, d’une certaine forme de fétichisation d’objets technologiques. J’y reviendrai peut-être dans un autre article.
Voilà d’où je parle et d’où je viens. Maintenant que vaut ce combo Fairphone + /e/OS ?
Mon test du combo Fairphone + /e/OS
Comme je l’ai évoqué lors de mon échange avec Gaël Duval, le fondateur du projet /e/OS, ma première impression a été l’incroyable fiabilité de /e/OS. Pour être honnête, je m’attendais à un système capricieux, buggé, complexe. En gros, je m’attendais à galérer. Je me trompais : /e/OS est stable, très stable. Lorsqu’on reçoit un appareil avec /e/OS déjà installé, comme ça a été mon cas, tout est totalement fonctionnel dès le premier allumage. Le système est très ergonomique, quelque soit son niveau de pratiques numériques.
Pour celles et ceux qui ne connaîtraient pas encore du tout /e/OS, quelques mots rapides. Quand on choisit un smartphone aujourd’hui, on a le choix entre deux acteurs hégémoniques : iOS d’Apple (16% des parts de marché) et Android de Google (84% des parts de marché)4. Or Android by Google, c’est un OS qui est basé sur les données personnelles, comme le reste de l’écosystème de Google. Il y a donc des projets, plus ou moins aboutis, qui repartent de la brique open source d’Android pour le faire fonctionner sans les services supplémentaires de Google. Le plus connu est LineageOS. /e/OS est quant à lui basé sur LineageOS. Inutile de dire que même les deux combinés ne représentent pas encore grand-chose sur le marché des OS mobile. Mais ça peut changer !
À quoi ressemble /e/OS et que vaut-il ?
On sent que /e/OS est inspiré d’iOS plus que d’Android. Et de fait, le « launcher » par défaut reproduit trait pour trait l’apparence d’iOS. C’est un choix qui sera certainement discuté, mais la beauté d’Android, c’est aussi de pouvoir changer ce launcher et donc j’imagine que chacun y trouvera son compte. Pour ma part, venant de l’écosystème Apple et amateur de minimalisme, il me convient tout à fait, d’autant que Gaël Duval a annoncé une réécriture complète du launcher pour 2022.
Un système ultra stable
Comme je l’ai déjà écrit plusieurs fois, /e/OS est totalement stable. Je n’ai jamais eu de bug, d’écran figé, de redémarrage, rien du tout. Alors bien sûr, quand on passe d’un iPhone haut de gamme à un Fairphone sous /e/OS, l’effet se fait sentir. Les transitions sont moins fluides, les délais d’ouverture sont plus longs. Mais vous savez quoi ? On s’y habitue. Et il n’y a pas si longtemps, on s’en sortait très bien avec des ordinateurs super lents et l’ADSL. L’effet rebond technologique, encore et toujours.
C’est pareil pour l’appareil photo du Fairphone 4. Forcément, quand on est habitué aux smartphones haut de gamme, boostés aux IA propriétaires qui rendent le meilleur des photos, le combo Fairphone + /e/OS pique. Mais là encore, c’est utilisable, et ça réinterroge les attentes qu’on a vis à vis d’un ordinateur de poche vs un appareil photo (pourquoi on prend autant de photos déjà ?). Que ce soit dans un usage professionnel et personnel, il est tout à fait possible d’utiliser /e/OS comme seul OS mobile. C’est impressionnant, et porteur d’espoir.
Un marketing perfectible
Là où j’aurais un petit reproche à faire à /e/OS, c’est sur son marketing. Franchement, entre eelo, /e/OS qui s’écrit avec des « / », un petit e, OS en majuscule, Murena, le e.shop, la e.foundation, on est perdu, vraiment. Et d’ailleurs, dès qu’on cherche le projet sur un moteur de recherche ou sur un réseau social, on doit s’y reprendre à 2 ou 3 fois avant de trouver. Problématique pour un OS qui se veut grand public, il va falloir travailler cet aspect. Je sais qu’il y a un travail en cours pour renommer la marque grand public Murena (d’où la photo à la une), on verra comment se matérialisera la simplification.
Comment ai-je installé des applications sur /e/OS ? Et lesquelles ?
Quand on choisit de quitter l’écosystème « mainstream » et douillet d’Android et Apple, il y a quelques petits contrecoups, qui s’ils ne sont pas insurmontables, sont à prendre en compte.
/e/OS exclut tous les systèmes Google, et donc en premier lieu le Play Store, le magasin d’applications par défaut de l’écosystème Android. En alternative, j’ai utilisé trois App Store sur /e/OS. Le premier, c’est celui proposé par défaut sur /e/OS. On y trouve presque tout, c’est bien intégré, il y a les notes de confidentialité, c’est cool. Mais il n’y a pas tout, et notamment, il n’y a pas la plupart des banques !
▻https://louisderrac.com/test-e-os-alias-murena-sur-le-fairphone-4
#alternative #système_d'exploitation #smartphones #téléphones_portables
/e/OS
/e/OS est un écosystème mobile, complet et entièrement « déGooglisé »
/e/OS est un #système_d'exploitation_mobile à code source ouvert associé à des #applications soigneusement sélectionnées. Elles forment un système interne de #protection_de_la_vie_privée pour votre téléphone mobile. Et il ne s’agit pas seulement de revendications : code source ouvert signifie que le respect de la vie privée peut être évalué. /e/OS a reçu une reconnaissance académique de la part de chercheurs de l’université d’Édimbourg et du Trinity College de Dublin.
Nous aurions pu nous concentrer uniquement sur le système d’exploitation, mais les applications et les services en ligne sont également des éléments essentiels de notre vie quotidienne.
Ces services en ligne, y compris notre #moteur_de_recherche, notre plateforme de #courrier_électronique, les outils et le #stockage_en_ligne, créent un environnement unique qui contribue à la protection de la vie privée.
▻https://e.foundation/fr/e-os
#dégooglisation #android #compatibilité
J’en suis de mon côté à la dernière ligne droite, c’est à dire l’extinction de mon serveur de messagerie d’entreprise Microsoft Exchange. Dès que ce sera fait, je pourrais éteindre mon S10e historique acheté en 2020, et allumer pour de bon le S10e acheté neuf en début d’année (il est à priori sorti d’usine en 2023). Je reste sur ce modèle sorti en 2019 parce qu’il n’existe pas d’ordiphone de cette qualité d’aussi petite taille (et quand je compare à ce que j’avais avant, ça reste grand).
Ceci dit, sur l’e/os/, on retrouve tout le nécessaire, c’est un android récent, avec toutes les options de personnalisation habituelles, et avec un magasin d’app’ bien suffisant (je n’ai pas de gros besoins). Mon application bancaire pour le 2FA (et uniquement pour ça), fonctionne, la messagerie avec Thunderbird, mastodon avec Tusky, Signal, Zulip, Firefox, évidemment, FreeOTP+, VLC.....
En pleine élection agricole, le Sénat vote le retour des #insecticides tueurs d’abeilles
Lundi 27 janvier, le Sénat a voté le retour des #néonicotinoïdes et des facilitations accordées à la construction des #mégabassines. Une proposition de #loi venue du sénateur et ancien élu de la #FNSEA Laurent Duplomb, qui devra passer en deuxième lecture à l’Assemblée nationale.
Au Sénat, lundi 27 janvier, deux positions se sont opposées. Les tenant·es du « pragmatisme » et de la « compétitivité » l’ont emporté face à des élu·es qui craignent un « grand recul » et défendent des « alternatives ». En définitive la réintroduction des néonicotinoïdes a été votée, pour « sauver » les filières des #betteraves_à_sucre et de la #noisette. Ces insecticides tueurs d’abeilles étaient interdits en France depuis 2018. Le débat a été tout aussi enflammé concernant le #stockage_d’eau pour des fins agricoles et la redéfinition des #zones_humides, et là aussi ce sont les défenseurs de l’agriculture productiviste qui l’ont emporté.
À l’origine de cet affrontement : la #proposition_de_loi (#PPL) visant à « lever les contraintes à l’exercice du métier d’agriculteur » à l’initiative du sénateur Les Républicains (LR) #Laurent_Duplomb, finalement adoptée à 233 voix contre 109. Cet agriculteur, ancien élu de la FNSEA-JA (Jeunes Agriculteurs) et ancien président de la chambre d’agriculture de Haute-Loire, et dont le fils est lui-même, depuis l’an dernier, président des #Jeunes_Agriculteurs du département, a réussi à mettre son texte à l’agenda du Sénat en pleine élection agricole, après avoir déjà présenté la semaine dernière un amendement au budget pour supprimer l’Agence Bio.
La PPL a ainsi court-circuité la poursuite du travail parlementaire sur la #loi_d’orientation_agricole – dont l’examen par la chambre haute est suspendu depuis la dissolution de juin 2024 et doit commencer le 4 février –, parfois en le doublonnant, mais surtout en allant encore plus loin dans la remise en cause de mesures environnementales.
« La plume officielle de la FNSEA »
La réintroduction des néonicotinoïdes, emblématique de ce texte, concerne l’#acétamipride, une molécule qui, après son interdiction, avait bénéficié d’une dérogation jusqu’en 2020. Elle est destinée à lutter contre les insectes suceurs dans les cultures de végétaux feuillus et de fruits à coque. Même si l’amendement de compromis présenté par la ministre de l’agriculture, Annie Genevard, a nuancé le texte initial porté par Laurent Duplomb, le faisant évoluer d’une réautorisation stricto sensu de la substance à une nouvelle #dérogation, la gauche et les écologistes étaient unanimes contre tout aménagement ouvrant la voie à un retour de ce produit toxique dans les champs.
L’opposition a tenté, en vain, de « débunker » les assertions des défenseurs du texte – les deux rapporteurs, le président de la commission des affaires économiques, la ministre de l’agriculture et, plus largement, les élu·es des partis gouvernementaux. Ainsi, pour Daniel Salmon, du groupe Écologiste Solidarité et territoires, élu en Ille-et-Vilaine : « Ce genre de procédure [la dérogation – ndlr] nous amène à traîner sans chercher les alternatives. Or les alternatives existent déjà. Certes, sans néonicotinoïdes, les rendements baissent. Mais regardons les betteraves à sucre : on produit 70 % de sucre en plus de ce qu’on consomme. Produire plus, pourquoi pas, mais ça se fait au détriment de la santé et de la biodiversité. »
Le socialiste Jean-Claude Tissot, lui-même agriculteur et membre de la Confédération paysanne, a dénoncé avec cette PPL « un contresens historique » et « un populisme rétrograde en rupture totale avec la transition écologique », et rappelle qu’en avril 2023, le directeur scientifique de l’Inrae avait été auditionné dans l’enceinte du Sénat. « Il nous avait expliqué que l’acétamipride est pire que l’imidaclopride [autre néonicotinoïde interdit – ndlr], et que c’était le #chlordécone de l’Hexagone, relate le sénateur de la Loire. Ce que vous faites s’appelle de l’#obscurantisme. Vous niez la #science car vous mettez le rendement économique devant tous les paramètres. Qu’allez-vous dire à nos petits-enfants qui vont subir des #dérèglements_hormonaux ? » L’opposition a, à plusieurs reprises, dénoncé une remise en cause du principe de non-régression du droit de l’environnement.
À des années-lumière de ces interrogations, Laurent Duplomb n’a cessé d’assurer, lui, que cette PPL ne constituait en aucun cas « une #régression ». Tout au contraire, l’éleveur de Haute-Loire s’est vanté de « mettre fin à dix années d’interdiction » pour reconquérir des parts de marché perdues face à d’autres pays européens où l’acétamipride est autorisé, comme la Pologne, sur un ton qui frisait bon le paternalisme face à une opposition interloquée. « L’enfant, quand il fait une erreur, on le lui dit et on l’éduque. Eh bien, pour une fois, on va éduquer en corrigeant les erreurs que nous avons faites dans le passé. »
« Ayons le courage de sortir de l’#obscurantisme_vert », « Continuez, madame, de mettre les agriculteurs dans le corner », a également lancé le sénateur FNSEA, incriminant au passage « le lobby de la Confédération paysanne ».
Mais c’est surtout un discours collant aux éléments de langage de la FNSEA-JA et de la #Coordination_rurale qui a dominé l’hémicycle lundi soir, alors qu’agricultrices et agriculteurs sont appelés ces jours-ci, jusqu’à vendredi, à élire leurs représentantes et représentants syndicaux : il fallait « sauver la ferme France », et le corapporteur du texte Franck Menonville (Union centriste) fustigeait « une surtransposition mortifère » et « une avalanche de normes toujours plus contraignantes »...
Nicole Bonnefoy, pour les socialistes, a ainsi dénoncé « la plume officielle de la FNSEA au Sénat, qui en cette période électorale veut montrer son influence au Parlement ». « Jamais les mots #santé et #biodiversité ne sont utilisés, alors que ce sont des choses essentielles. On ne parle ici que d’#économie », a déploré la sénatrice.
#Pulvérisation de #pesticides par #drone
Dans son introduction générale, le président de la commission des affaires économiques, Pierre Cuypers, avait souligné que le texte était « né du constat que le projet de loi agricole évitait soigneusement les sujets qui fâchent, comme l’utilisation des #produits_phytosanitaires. […] Le texte se veut court, pour s’attaquer à quelques irritants majeurs, comme la séparation du conseil et de la vente des produits phytosanitaires ». Force est de constater que la discussion au Sénat n’a en rien levé les profonds désaccords sur ces sujets.
Le gouvernement a toutefois apporté quelques nuances : la séparation de la vente et du conseil vaudra pour les distributeurs de produits phytosanitaires, pas pour les fabricants comme le voulait le texte initial. L’exécutif a également bloqué sur la volonté des rapporteurs du texte de lever l’interdiction du rabais sur les pesticides : c’était là une « ligne rouge », a expliqué Annie Genevard, qui a fait retirer ce point.
Pour le reste, la ministre de l’agriculture a suivi les orientations de la PPL, proposant des modifications à la marge pour « sécuriser le texte » d’un point de vue juridique, et elle a remis à la Conférence de l’eau promise par le premier ministre lors de sa déclaration de politique générale la discussion sur une nouvelle « hiérarchie des usages de l’#eau ».
Pulvérisation de pesticides par drone, possibilité pour le ministère de demander à l’Anses l’examen prioritaire d’un produit en vue de son autorisation de mise sur le marché, facilitation des projets de bâtiments d’élevage et de stockage d’eau ouvrant la voie à de nouvelles #retenues_collinaires et mégabassines pour « #intérêt_général_majeur », assouplissement de la définition des zones humides : les principales mesures contenues dans cette PPL ont donc été adoptées et constituent autant de périls pour la préservation des écosystèmes et la santé des populations. L’opposition a pointé en outre, sur plusieurs dispositions, le risque de se mettre en porte-à-faux vis-à-vis du droit européen.
L’avenir du texte, cependant, n’est pas acquis. La deuxième lecture, à l’Assemblée nationale, pourrait faire apparaître beaucoup plus de réserves parmi les député·es MoDem et Renaissance, où l’on défendait, pendant les débats sur la loi d’orientation agricole au printemps dernier, une approche plus modérée face à la levée des garde-fous environnementaux.
▻https://www.mediapart.fr/journal/politique/280125/en-pleine-election-agricole-le-senat-vote-le-retour-des-insecticides-tueur
L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie
Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.
Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.
Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.
Le #gaz comme source d’énergie future aux États-Unis
Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».
Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.
Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique
De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.
Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.
Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.
Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).
« L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.
La #France s’appuie sur son #nucléaire, mais des tensions sont présentes
Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».
Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.
Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.
▻https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie
Pourquoi l’IA générative consomme-t-elle tant d’énergie ?
#DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.
Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.
Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
Pourquoi un tel coût ?
Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».
Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.
Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.
Des données émerge la « connaissance »
Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.
Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.
Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.
Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
Obsolescence et frugalité
Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.
Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.
Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.
Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.
Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.
À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).
Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
Les recherches en IA frugale
La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.
La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.
Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.
Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.
Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.
Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.
Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.
Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
L’IA que nous développons est-elle vraiment utile ?
La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.
Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.
Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.
▻https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406
IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2
Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.
Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.
109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.
Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.
Requêtes énergivores
Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».
Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».
La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.
Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.
Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.
Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.
« Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »
C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).
En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.
En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.
#Bilan_carbone désastreux
Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.
En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.
Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.
« L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »
À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?
Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.
Ouvrir le capot des IA ?
Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.
En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.
Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».
En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.
▻https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2
#Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »
Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.
À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.
(#paywall)
▻https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives
L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)
Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.
La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.
Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.
« Plus grand est le modèle, mieux c’est »
L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.
Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.
Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.
Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.
Combien consomme une requête ChatGPT ?
On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.
Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.
Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).
Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.
En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.
En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.
De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.
Une explosion de la consommation d’électricité
Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.
Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.
Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).
« Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.
Des investissements massifs aux dépens des populations
Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.
Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.
Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
Des engagements « durables » non contraignants
Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.
Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.
Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.
►https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l
Comment l’intelligence artificielle et ses data centers s’accaparent l’eau
La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.
Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).
Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
Des centres de données géants dans des régions en proie à la sécheresse
Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.
Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.
Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.
En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
« 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »
Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).
« La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.
Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.
Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».
▻https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau
Big tech’s water-guzzling data centers are draining some of the world’s driest regions
#Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.
In short:
- The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
- Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
– Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.
Key quote:
“Neither people nor data can live without water. But human life is essential and data isn’t.”
— Aurora Gómez, Tu Nube Seca Mi Río
Why this matters:
Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.
▻https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
#Espagne
Big tech’s new datacentres will take water from the world’s driest areas
Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
Wed 9 Apr 2025 13.30 CEST
Last modified on Wed 9 Apr 2025 17.40 CEST
Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.
With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.
“The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”
Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.
In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.
Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.
▻https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water
Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.
It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.
In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.
Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.
“It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
‘Your cloud is drying my river’
Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.
In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.
Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.
Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.
“They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.
Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.
Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.
“These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”
With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.
Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
Water offsetting
Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.
Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.
“I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”
Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.
Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.
“Carbon is a global problem – water is more localised,” he said.
Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.
In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.
But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.
Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.
“We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
‘Extreme drought’
Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.
In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.
“We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.
The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.
Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.
“Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”
Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.
“Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
Stargate
In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.
Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.
The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.
More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.
“I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”
And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.
“Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”
Révélations sur les #contaminations de la plus grande mine à ciel ouvert de l’Hexagone
« La #pollution de l’#eau par la mine ? Il n’y a pas de problème. » Face au discours sur les « #mines_propres », Splann ! révèle les pollutions générées par la mine d’#andalousite de #Glomel, au cœur de la #Bretagne, exploitée par la multinationale #Imerys.
En Centre Bretagne, la commune de #Glomel, étendue sur près de 80 km2, est un véritable château d’eau. Ses sources, ses ruisseaux et ses marais dominent les bassins versants de l’#Ellé et du #Blavet. On y trouve encore certains habitats naturels emblématiques de la région, landes, tourbières et autres prairies humides. C’est pour protéger cette richesse qu’ont été créés la réserve naturelle régionale des landes et marais de Glomel, ainsi que deux sites Natura 2000 et plusieurs zones naturelles d’intérêt écologique faunistique et floristique.
Le paradoxe est que Glomel abrite aussi la plus grande mine à ciel ouvert en activité de l’hexagone : sur place, la #multinationale Imerys peut extraire chaque année jusqu’à 1,5 million de tonnes de roches et raffine dans ses deux usines un quart de la production mondiale d’andalousite.
La « #Damrec » comme on dit ici en référence à l’ancien nom d’Imerys, est longtemps passée inaperçue. Déjà, qui connaît l’andalousite, ce minéral résistant aux très hautes températures ? On le retrouve sous forme d’additif dans les #bétons ou les #peintures, dans les blocs moteurs de camions ou dans les fours de toute l’#industrie, de la #métallurgie au #nucléaire. Mais si l’andalousite est couramment utilisée par la grande industrie pour ses propriétés réfractaires, nous n’avons jamais directement affaire à elle.
D’immenses cratères au cœur de la Bretagne
Le site de Glomel est resté d’autant plus discret qu’il n’est, aux yeux de l’administration, qu’une carrière : on imagine un modeste carreau au bord d’une route déserte, quelques camions. Sauf que…
Sauf qu’il s’agit bel et bien d’une mine avec ses immenses #cratères, ses usines, ses #bassins_de_décantation remplis d’#eau_acide et ses montagnes de #déchets qui avancent dans le paysage, avalant les champs, les fermes et les chemins. Tout ceci inquiète nombre de riverains, qui voient se multiplier les cas de #cancer et se demandent ce qu’il restera des zones humides, des sources et des captages dans cet avenir où rien ne sera plus précieux que l’eau.
Mais Imerys compte bien aller au bout de ce #gisement. Après une enquête publique houleuse et d’âpres débats, l’État vient de l’autoriser à poursuivre l’#exploitation jusqu’en 2044 en creusant une quatrième #fosse_d’extraction : un #trou grand comme quinze terrains de football et aussi profond que cinq immeubles parisiens empilés.
Une étude partiale payée par l’industriel
Sur le site internet d’Imerys Glomel, on lit qu’« une des priorités du site concerne la gestion des rejets aqueux […] dans les rivières, zones humides et nappes souterraines alentour ». L’enjeu est de taille, puisqu’en aval de la mine se trouve la réserve naturelle régionale de #Magoar_Penvern. Puis, à 6 km du site industriel, un premier captage d’#eau_potable dans l’Ellé alimente les 6000 habitants des communes voisines.
Dans le #Kergroaz, un minuscule ruisseau qui serpente dans le sous-bois, Imerys rejette chaque année environ 1,5 million de mètres cubes d’#eaux_usées. Ces eaux sont traitées, et les exigences de la préfecture ont conduit l’entreprise à investir récemment dans une unité destinée à limiter la quantité de #manganèse et de #fer dans ses rejets. Mais même après traitement, ils contiennent des quantités très importantes de #contaminants : la préfecture des Côtes-d’Armor autorise le site à rejeter chaque jour dans ses eaux usées jusqu’à 9 kg d’#hydrocarbures et, entre autres, jusqu’à 11 kg par jour au total de #cobalt et de #nickel, des #métaux cancérigènes, mutagènes et reprotoxiques.
Pourtant, Imerys assure n’avoir « aucun impact sur les eaux » et a financé une étude sur cinq ans de l’état écologique du #Crazius, où se jette le Kergroaz. Cette étude payée par l’industriel conclut à un « bon état » du cours d’eau pour certains paramètres, mais ce qui frappe, c’est que les métaux les plus toxiques émis par le site ne semblent pas avoir été recherchés dans le cours d’eau.
Pourquoi s’intéresser à la présence de fer et d’aluminium, et non à des contaminants bien plus redoutables comme l’#arsenic, le #cadmium, le #cobalt ou le #nickel, qui sont par ailleurs présents dans les déchets de cette mine ? Interrogé, Imerys n’a pas souhaité répondre à nos questions. Pour y voir plus clair, Splann ! a décidé de faire analyser les sédiments du Crazius.
« Les quantités de #contaminants présentent manifestement un danger »
En juillet puis en septembre, Splann ! a prélevé plusieurs jeux d’échantillons de sédiments dans le lit du ruisseau d’abord en amont du point de rejet de la mine, pour disposer d’un échantillon « témoin » ; puis dans un deuxième temps au niveau où Imerys rejette ses eaux usées ; et finalement à 2 km de là en aval dans le même cours d’eau, dans la réserve naturelle régionale.
Ces sédiments ont été analysés par un laboratoire accrédité Cofrac. Les résultats de ces analyses ont été interprétés avec l’aide de Frédéric Gimbert, spécialiste des pollutions minières et chercheur en écotoxicologie au CNRS de Besançon.
Alors que les sédiments du prélèvement témoin, en amont, ne présentent aucune contamination, au niveau du point de rejet d’Imerys, les concentrations en nickel sont jusqu’à 60 fois supérieures à la valeur guide pour un bon état écologique des sédiments d’eau douce. Les concentrations en cobalt sont jusqu’à 20 fois supérieures à cette valeur. Les analyses révèlent aussi la présence de métaux toxiques qu’Imerys n’est pas censé déverser : les sédiments contiennent quatre fois la valeur guide pour l’arsenic et une teneur anormale en cadmium, tous deux également cancérigènes, mutagènes et reprotoxiques.
« De telles quantités de contaminants présentent manifestement un danger et un #risque potentiel pour l’environnement, estime Frédéric Gimbert. Il faudrait également rechercher ces mêmes contaminants dans les #sols où se déposent les #poussières issues de l’#activité_minière et conduire plus largement une étude d’évaluation des #risques, pour l’environnement, mais aussi pour la santé publique. »
Les analyses de Splann ! révèlent également que la contamination s’étend au-delà du périmètre immédiat de la mine. À deux kilomètres en aval du site, au cœur de la réserve naturelle régionale de Magoar Penvern, les concentrations en cobalt et en nickel sont plus de dix fois supérieures aux valeurs guides pour un cours d’eau en bon état écologique.
Un captage d’eau potable en aval de la mine
Qu’en est-il à six kilomètres en aval, dans la rivière Ellé où #Eau_du_Morbihan prélève une partie de l’eau qui sera ensuite traitée pour être distribuée aux communes voisines ? Pour le savoir, notre équipe s’est rendue à #Toultreincq [qui signifie trou saumâtre en breton, NDLR], dont l’usine de potabilisation est justement en plein travaux. Une toute nouvelle unité de traitement est en construction pour un coût de six millions d’euros d’argent public.
« La pollution de l’eau par la mine ? C’est simple : ce n’est pas un sujet. Il n’y a aucun problème », déclare, dès le début de notre visite, Dominique Riguidel, le directeur d’Eau du Morbihan qui s’est déplacé en personne pour nous le dire. L’ouverture de nouveaux captages d’#eau_souterraine permettront de « diversifier les ressources et de limiter les prélèvements dans l’Ellé », explique-t-il. C’est-à-dire précisément à limiter la dépendance au captage de #Pont Saint-Yves, sur l’Ellé, en aval de la mine.
Mais le directeur d’Eau du Morbihan est formel : tout ceci n’a aucun rapport avec le fait qu’Imerys rejette chaque année 1,5 million de mètres cubes d’eaux usées contenant des #sulfates, des hydrocarbures et des #métaux_lourds en amont de ce captage. « La nouvelle unité permettra de mieux traiter les #pesticides et les #médicaments », justifie-t-il.
Un ingénieur chimiste, expert en contaminations pour des organismes de #santé_publique, s’interroge : « J’ai du mal à croire que tous ces travaux n’aient aucun rapport avec l’agrandissement de la mine. Vu l’argent que ça coûte de changer une installation, ça ne se fait pas sans raison objective. Et il n’est pas courant d’avoir de tels traitements de l’eau en tête de bassin versant, où elle est normalement moins polluée. »
Pour connaître la qualité de l’eau sur l’Ellé, en aval de la mine, le plus simple est de s’adresser à l’agence régionale de santé (ARS), qui surveille les captages. Nous lui avons demandé de nous communiquer les analyses de l’eau captée en aval de Glomel.
« Il n’existe pas de contrôle sanitaire sur la ressource ‘Pont Saint-Yves’ exclusivement », a répondu l’ARS. Le captage d’eau le plus exposé aux pollutions de la mine ne serait donc pas surveillé : l’agence publique ne contrôle la qualité des eaux brutes qu’après qu’elles aient été mélangées à la station de traitement. Une fois dilués dans les eaux prélevées ailleurs, les contaminants d’Imerys passent inaperçus. Ce qui pousse certains riverains désabusés à résumer ainsi la situation : « La mine de Glomel utilise la réserve naturelle régionale comme station d’épuration » pour traiter ses effluents chargés en métaux toxiques. « Mais si la contamination continue d’augmenter, explique l’ingénieur chimiste, l’eau de ce captage risque de ne plus être utilisable pour produire de l’eau potable. »
Un lac rempli de métaux lourds
« Quand j’étais ado, par une chaude journée d’été, je m’amusais à repérer les plans d’eau des environs sur les photos satellites. J’ai découvert un lagon bleu à Glomel. J’ai demandé à ma mère : ‘pourquoi on n’est jamais allées s’y baigner ?’ ». Voilà comment Camille a découvert la mine de Glomel : un espoir de baignade. Espoir déçu : le lac de douze hectares dont elle parle, une ancienne fosse d’extraction, recueille en continu des eaux acides et les boues de traitement des usines du site.
Une autre riveraine se rappelle : « Pendant une réunion en 2022, j’ai demandé ce que contenait cette fosse qu’on appelle ‘la #fosse_2’. Imerys m’a répondu ‘Du #mica et des #oxydes_de_fer’. » Pas de quoi s’inquiéter, donc, Camille aurait pu s’y baigner. Mais dans un tableau perdu dans les 3000 pages du dossier d’enquête publique, on apprend que ces #boues contiennent de fortes concentrations de cadmium, de #chrome, de cobalt, de nickel et de #plomb : des métaux dits « lourds », cancérigènes, neurotoxiques et reprotoxiques.
Les boues de cette #fosse contiennent aussi les produits chimiques utilisés dans l’usine. Lors d’une réunion publique, les porte-parole de l’entreprise ont assuré que « le procédé d’extraction ne fait pas intervenir de composés chimiques ». Pourtant, les documents de l’enquête publique indiquent que les usines de Glomel utilisent 75 tonnes par an de substances nocives pour l’#environnement et la santé.
Par exemple, le #méthyl-isobutyl carbinol, un #solvant dangereux pour les #nappes_souterraines, l’#acrylamide, cancérigène, mutagène et reprotoxique, le #sulfonate_de_sodium et l’#amylxanthate, toxiques pour la #vie_aquatique.
Les #déchets_miniers ont contaminé les #eaux_souterraines
Chaque année, une trentaine de tonnes de ces produits sont déversées dans le « joli lac ». Imerys affirme que la fosse est « étanche », mais aucune membrane n’empêche ces boues acides de s’infiltrer dans les eaux souterraines. Et il en va de même dans tous les autres espaces du site où sont entreposées ces boues : la « fosse n°1 » (2 millions de m³) et « l’ancienne digue » (900 000 m³).
Les contaminants de ces déchets toxiques ont commencé à migrer vers les eaux souterraines : c’est ce qu’indiquent certains éléments qu’Imerys a communiqués à l’administration. L’un des appareils de mesure de l’industriel relève que les taux de contaminants ont explosé entre 2012 et 2021.
Par exemple, les déchets de la mine contiennent des concentrations importantes de nickel, un métal qui provoque des #cancers du poumon et des sinus et des #maladies_cardiovasculaires. Or, sous le site minier, les eaux souterraines contiennent 40 fois la teneur en nickel maximale autorisée pour les eaux brutes destinées à la consommation. Les autres contaminants (cobalt, cadmium, arsenic, produits chimiques…) susceptibles d’avoir migré vers la nappe ne semblent pas surveillés.
En juin 2024, en prolongeant l’exploitation de vingt ans, les services de l’État ont autorisé l’entreprise à générer au total environ 12 millions de m3 de déchets supplémentaires, autant de déchets qui seront entreposés sur place et qui sont censés ne pas entrer en contact avec les eaux souterraines pour les décennies et les siècles à venir. Alors que jusqu’ici, Imerys n’a pas réussi à empêcher la contamination des eaux souterraines.
Qui traitera les eaux acides ?
En 2044, en théorie, l’extraction d’andalousite sera terminée et viendra le temps de la « #remise_en_état », comme on dit. Mais la roche exploitée à Glomel a une particularité : elle contient de la #pyrite, c’est-à-dire du #soufre. Quand la roche mise à nu par l’extraction ou les déchets miniers du site rencontrent de l’eau (la pluie par exemple), cette eau se transforme naturellement en #acide_sulfurique et entraîne vers l’aval les contaminants présents dans la roche. C’est ce qu’on appelle le #drainage_minier_acide, l’une des pollutions les plus redoutables liées à l’activité minière.
Actuellement, toutes les eaux qui ruissellent sur le site sont collectées et traitées par lmerys pour perdre leur acidité. Mais qui va traiter ces eaux de ruissellement dans un siècle pour empêcher cette marée acide de contaminer le bassin de l’Ellé ? Dans les documents de l’enquête publique, Imerys assure qu’après la remise en état, « les #eaux_pluviales ne seront plus susceptibles de s’acidifier ». Les montagnes de déchets seront « étanchéifiées » avec une couche de résidus miniers très fins puis quelques centimètres de terre. L’entreprise assurera un suivi du site pendant dix ans après la fin de l’activité.
On sait pourtant que le #drainage_minier_acide est sans limite de temps, comme le rappelle l’association de géologues miniers SystExt. À #Chessy-les-Mines, dans le Rhône, un gisement riche en pyrite a été exploité depuis le Moyen Âge. La mine a fermé après un effondrement dans la galerie principale, survenu en 1877. Un rapport confidentiel du Bureau des recherches géologiques et minières (BRGM) publié en 2019, que Splann ! s’est procuré, décrit le traitement des eaux acides mis en place à #Chessy.
L’État a constaté que ces eaux minières, quoique traitées « depuis 130 ans », étaient trop polluantes, si bien qu’il a dû y construire une toute nouvelle station de traitement en 2005. Le drainage minier acide de Chessy dure donc depuis 150 ans sans que, d’après le rapport, l’acidité ou les concentrations de métaux dans les eaux n’aient baissé au cours du temps.
À Chessy, le problème se pose sur 20 hectares ; à Glomel, il se poserait sur 265 hectares. La création d’une nouvelle fosse et de nouveaux #stockages de déchets augmentent d’autant la quantité d’eaux acides dont auront à s’occuper les six ou sept générations à venir.
Une extension contestée en #justice
« Les pollutions minières du passé posent des problèmes insurmontables, et l’État, qui doit les gérer tant bien que mal, le sait très bien, estime Dominique Williams, membre d’Eau et rivières de Bretagne. Pourtant, il reproduit les mêmes erreurs à une échelle dix fois supérieure. Les services de la préfecture ont délivré cette autorisation sans prendre la mesure de l’ampleur de cette pollution. »
La préfecture des Côtes-d’Armor et la direction régionale de l’environnement ont été alertées de la contamination aux métaux lourds que révèle l’enquête de Splann !, et des problèmes soulevés par l’étendue considérable du drainage minier acide après la fermeture du site. La Région Bretagne a elle aussi « soumis ces informations à l’État afin qu’il puisse répondre aux inquiétudes exprimées » tout en indiquant à Splann ! qu’elle prenait « au sérieux l’alerte émise » sur la pollution de la réserve naturelle régionale.
Or, malgré nos sollicitations, l’État ne s’est pas exprimé. Quant au groupe Imerys, notre rédaction lui a donné la possibilité de revenir sur ses déclarations concernant l’absence de métaux lourds et d’impact sur les eaux : il n’a pas souhaité nous répondre. Mais l’extension de la mine est d’ores et déjà contestée devant la justice. Fin octobre, l’association Eau et rivières de Bretagne a déposé un recours contre l’ouverture de la nouvelle fosse au tribunal administratif de Rennes.
▻https://basta.media/Revelations-contaminations-plus-grande-mine-ciel-ouvert-Glomel-Bretagne-Ime
#France #extractivisme #mines
Les clairières libertaires, une #vie_communautaire d’anarchiste en 1900
Fonder une communauté de vie et de travail hors du salariat pour montrer qu’une autre vie est possible : sans domination, reposant sur l’entraide et les rapports harmonieux entre femmes et hommes.
Dans les années 1890, la voie avait été ouverte, entre autres, par le milieu libre de Stockel en Belgique ou la colonie Cecilia au Brésil. Au XXe siècle naissant, l’expérience est poursuivie en France. L’histoire discrète de ces essais libertaires serait sans doute restée muette si quelques historiens de l’anarchisme et du mouvement ouvrier n’avaient buté dessus et redonné un nom aux visages glanés sur les rares photos qui nous sont parvenues : Fortuné Henry, Sophia Zaïkowska, Georges Butaud…
L’anarchisme individualiste émerge à la fin du XIXe siècle, mais il devient un courant visible dans les premières années du XXe siècle. Le principe de l’anarchisme individualiste, c’est que la révolution doit commencer déjà par soi-même, c’est-à-dire que l’on ne doit pas attendre d’un grand soir hypothétique que tout change, si les individus n’ont pas déjà changé eux-mêmes. Anne Steiner
Ces vies particulières à la belle époque seront voilées par la Première Guerre mondiale et par la révolution russe de 1917, qui, par ricochet, rebattra souvent les cartes de ces milieux anarchistes.
« lls ont comme credo que tout est politique, que le plus minuscule de nos gestes est politique. » Anne Steiner
Leurs traces nous conduisent à Vaux dans la nature champêtre et à Aiglemont dans la forêt des Ardennes, où deux colonies voient parallèlement le jour en 1903.
▻https://www.radiofrance.fr/franceculture/podcasts/lsd-la-serie-documentaire/les-clairieres-libertaires-une-vie-communautaire-d-anarchiste-en-1900-82
#anarchisme #histoire #communauté_de_vie #communauté_de_travail #travail #salariat #domination #rapports_de_genre #égalité_hommes_femmes #Stockel #Belgique #colonie_Cecilia #Brésil #libertaires #communautés_libertaires #anarchisme_individualiste #politique #tout_est_politique #Vaux #Aiglemont #France
#audio #podcast
via @reka
Et en #Suisse, au même temps, le #Monte_Verità :
Il suffit d’arriver au Monte Verità pour être envoutés par sa force. On peut la percevoir dans le chant des oiseaux cachés dans le feuillage des arbres, ou dans le léger parfum dans l’air, même dans le craquement du gravier sous les pieds. Il est évident pour tous ceux qui s’aventurent ici à la recherche de la paix et de la conscience que la colline au-dessus d’#Ascona - autrefois appelée #Monte_Monescia - cache des secrets. La force qui émane de ce lieu, sous lequel se trouve la ligne insubrienne, conduit à la contemplation silencieuse, à la recherche des traces de ceux qui y ont vécu et qui en ont d’abord saisi la valeur.
▻https://www.ascona-locarno.com/fr/actualites/histoires/monte-verita
Un film sur cette expérience :
Suisse : Le canton de Vaud exige des communes la conservation d’archives papier RTS

Les communes vaudoises entassent des tonnes de papier. C’est une conséquence directe de la loi cantonale sur l’archivage, qui les contraint à conserver certaines traces de leurs activités en format papier. Les documents doivent être imprimés et conservés en suivant des règles strictes, une pratique qui peut sembler désuète à l’heure du tout numérique.
La conservation indéfinie d’une série de documents spécifiques sur un support durable et résistant, à savoir du papier de haute qualité, est imposée aux communes vaudoises. Ces documents témoignent des décisions prises par les autorités locales, comme les municipalités et les conseils communaux ou conseils généraux, et incluent des éléments tels que les procès-verbaux. Certaines communes possèdent même aujourd’hui des documents archivés il y a plus de 600 ans.
Lundi dans La Matinale de la RTS, Fabrice de Icco, le préfet du district du Jura-Nord vaudois, souligne que le format de conservation des archives est toujours le même, à savoir du papier relié. Ceci est dû à la législation vaudoise qui garantit la pérennité des archives.
« C’est parfois même plusieurs siècles de procès-verbaux, cela peut donc prendre de la place », souligne-t-il. Mais selon lui, les communes, habituées à cette responsabilité, sont généralement bien équipées avec des locaux adaptés.
Papier ou numérique, les enjeux de la conservation
En parallèle, le stockage informatique est possible, mais il est complexe, selon la directrice des Archives cantonales vaudoises Delphine Friedmann. « Des infrastructures spécifiques sont nécessaires pour garantir une consultation aussi souvent que souhaitée. Pour faciliter sa recherche ultérieure, chaque information doit être correctement identifiée et référencée », explique-t-elle.
Elle souligne également qu’en fin de compte la conservation à long terme de l’information numérique engendre des coûts et une complexité qui dépassent ceux du stockage sur papier.
A souligner que, dans les cantons du Valais et de Fribourg, il n’existe pas d’obligation légale de conserver les archives en version papier.
#Archive #Archives #Histoire #papier #pérennité #stockage #recherche #coûts et #complexité du #numérique
Source : ▻https://www.rts.ch/info/regions/vaud/2024/article/le-canton-de-vaud-exige-des-communes-la-conservation-d-archives-papier-28485912.
Stocker l’#eau en #sous-sol, mieux que les #mégabassines
Les #eaux_souterraines s’épuisent partout dans le monde. Une catastrophe qui ne cesse de s’accélérer d’après une étude publiée dans la revue Nature, qui déconseille la création de #réserves_d’eau en surface telles que les mégabassines. Des chercheurs de l’université de Santa Barbara (Californie) y présentent la plus grande évaluation de niveaux des eaux souterraines dans le monde, s’étendant sur près de 1 700 #aquifères, ces sols ou roches #réservoirs contenant des #nappes_d’eau_souterraine.
L’étude tire la sonnette d’alarme quant à l’épuisement des ressources en eau : le niveau diminue dans 71 % des réserves mesurées. Surtout, le #déclin perçu dans les années 1980 puis 1990 s’est largement accéléré depuis les années 2000. Scott Jasechko, co-auteur de l’étude et professeur agrégé à la Bren School of Environmental Science & Management, présente toutefois des motifs d’espoir par l’action humaine. Le chercheur prend l’exemple de la ville de #Tucson, en Arizona, où l’eau provenant du fleuve Colorado est utilisée pour reconstituer l’aquifère dans la vallée voisine d’#Avra.
« Moins cher, moins perturbateur et moins dangereux »
D’après lui, les #stockages_souterrains réalisés dans ces réserves déjà existantes sont bien plus efficaces et moins onéreux que les stockages d’eau en surface. « Le remplissage intentionnel des aquifères nous permet de stocker ces réserves jusqu’au moment où nous en avons besoin, indique Scott Jasechko. On peut dépenser beaucoup d’argent pour construire des infrastructures pour retenir l’eau à la surface. Mais si on a la bonne géologie, stocker de grandes quantités d’eau sous terre est moins cher, moins perturbateur et moins dangereux. »
Ce type d’intervention a toutefois participé à diminuer le débit du #Colorado. Épuisé par les activités humaines, le fleuve n’a la plupart du temps plus assez d’eau pour atteindre son embouchure dans le golfe de Californie. D’après l’étude, la seule autre solution pour contenir l’épuisement des réserves d’eau souterraines est une réglementation institutionnelle (délivrance de permis, frais d’utilisation) pour en restreindre l’accès.
▻https://reporterre.net/Stocker-l-eau-en-sous-sol-mieux-que-les-megabassines
Rapid groundwater decline and some cases of recovery in aquifers globally
Groundwater resources are vital to ecosystems and livelihoods. Excessive groundwater withdrawals can cause groundwater levels to decline1,2,3,4,5,6,7,8,9,10, resulting in seawater intrusion11, land subsidence12,13, streamflow depletion14,15,16 and wells running dry17. However, the global pace and prevalence of local groundwater declines are poorly constrained, because in situ groundwater levels have not been synthesized at the global scale. Here we analyse in situ groundwater-level trends for 170,000 monitoring wells and 1,693 aquifer systems in countries that encompass approximately 75% of global groundwater withdrawals18. We show that rapid groundwater-level declines (>0.5 m year−1) are widespread in the twenty-first century, especially in dry regions with extensive croplands. Critically, we also show that groundwater-level declines have accelerated over the past four decades in 30% of the world’s regional aquifers. This widespread acceleration in groundwater-level deepening highlights an urgent need for more effective measures to address groundwater depletion. Our analysis also reveals specific cases in which depletion trends have reversed following policy changes, managed aquifer recharge and surface-water diversions, demonstrating the potential for depleted aquifer systems to recover.
▻https://www.nature.com/articles/s41586-023-06879-8
via @freakonometrics
Dans les #lagons polynésiens, les #déchets invisibles du temps du nucléaire
En trente ans de présence sur le territoire polynésien puis à la suite de son démantèlement, le #Centre_d’expérimentation_du_Pacifique a produit de très nombreux déchets. Si certains ont été enterrés, d’autres ont été jetés dans le lagon. Les #risques que représentent ces déchets contaminés restent difficile à établir.
Combien de tonnes de déchets gisent au fond des lagons polynésiens ? Difficile à dire. Il existe bien des #chiffres de l’Agence nationale pour la gestion des déchets radioactifs (Andra) : « 3 200 tonnes de déchets radioactifs ont ainsi été immergées dans les eaux territoriales françaises en Polynésie. » Mais prennent-ils réellement en compte l’ensemble des déchets jetés dans l’océan à l’époque des #essais_nucléaires ? Rien n’est moins sûr. Une partie de ces déchets n’ont sans doute pas été comptabilisés car ils n’ont simplement pas été inventoriés.
Entre 1966 et 1996, 193 essais nucléaires ont été menés en #Polynésie, sur les #atolls de #Moruroa et #Fangataufa, dans l’#archipel_des_Tuamotu. Ces tirs aériens dans un premier temps, puis souterrains à partir de 1975, ont généré une très grande quantité de déchets plus ou moins radioactifs, c’est-à-dire qui ont la particularité d’émettre des rayonnements pouvant présenter un risque pour l’homme et l’environnement. Ces déchets sont très hétérogènes, ce sont à la fois les avions qui récupéraient les #poussières_radioactives dans les nuages, des moteurs d’engins, des matières plastiques, des tenues et des chaussures, des déchets inertes (gravats, terre…).
Jeter dans le #lagon : une solution rapide et peu coûteuse
L’immersion des déchets, soit le dépôt sur les #fonds_marins, est, à l’époque, une pratique commune. On parle « d’#océanisation » des déchets. En Polynésie, ces derniers sont ainsi stockés sur plusieurs sites entre les atolls d’#Hao et Moruroa, à partir de 1967. Une fosse de 2 500 mètres de profondeur est d’abord creusée à 8 km de Hao. Selon les chiffres de l’Andra, 310 tonnes de déchets radioactifs conditionnés en fûts de béton et 222 tonnes de #déchets_radioactifs en vrac ont été immergées sur le site nommé #Hôtel. Deux sites (#November et #Oscar) sont utilisés à Moruroa, pour procéder à des immersions de plusieurs tonnes déchets à partir d’hélicoptères et de bateaux.
Mais pourquoi avoir pollué les eaux polynésiennes ? Selon l’Andra, « l’#évacuation en mer a été un moyen de gestion de tout type de déchets. Les déchets radioactifs n’ont pas fait exception à cette règle. Cette solution était considérée à l’époque comme sûre par la communauté scientifique car la dilution et la durée présumée d’isolement apportées par le milieu marin étaient suffisantes ».
En l’absence de filière de gestion, l’océanisation apparaît comme la seule solution. L’éloignement des sites explique aussi ce choix, selon Jean-Marie Collin, directeur de la Campagne ICAN en France (Campagne Internationale pour Abolir les Armes Nucléaires) : « Ramener les déchets jusque dans l’Hexagone était une solution plus coûteuse et plus complexe. Creuser un trou dans le désert en Algérie ou jeter par-dessus bord en Polynésie étaient une alternative bien plus simple », regrette-t-il.
Dans le livre Des bombes en Polynésie, l’historien Renaud Meltz détaille la pratique : « Les militaires tiennent l’inventaire à la Prévert, mois après mois, des quelques tonnes de petits matériels (900 paires de gants, 272 kg ; 883 combinaisons, 618 kg, 200 paires de pataugas 200 kg, etc.) et des milliers de tonnes de gros matériel sont livrés à l’océan. »
En 1972, la Convention de Londres sur la prévention de la pollution des mers interdit l’immersion de déchets fortement radioactifs. Elle entre en vigueur en août 1975. Mais les Français font fie des réglementations internationales. Alors que l’immersion au large des côtes métropolitaines s’arrête en 1969, elle continue en Polynésie jusqu’en 1986.
Des conditionnements sommaires
Mais si ces déchets posent problème c’est aussi parce que leur #conditionnement a souvent été négligé. Pourtant, une procédure impose que « tous les déchets radioactifs doivent être déposés dans des sacs en vinyles soudés ou fermés hermétiquement par bandes adhésives. Ces sacs sont ensuite placés dans des fûts ou autres récipients lestés (ciment ferrailles). »
En théorie, les déchets doivent donc être conditionnés selon leur #radioactivité. Dans les faits, tous ne le sont pas. « Seuls ceux dont la taille permet d’être entreposé dans des fûts profitent d’un conditionnement, les autres restent en vrac. Aussi, une partie des résidus, produits au fond des puits ou les bombes détonnaient n’ont jamais été remontés », écrit le chercheur spécialiste du nucléaire Teva Meyer dans l’ouvrage Des bombes en Polynésie.
En 1970, huit fûts provenant des laboratoires de Mahina sont immergés sans conditionnement, après avoir été percés pour éviter l’éclatement. À partir de mars 1975, cinq avions Vautour utilisées pour traverser les nuages des explosions pour récupérer les poussières radioactives, sont coulés.
En 1982, le rapport de la #mission_Haroun_Tazieff pointe les problèmes liés aux déchets dans le lagon, entraînés par la tempête en mars 1981. En 1988, la #mission_Calypso, dirigé par le commandant Cousteau, indique que Moruroa n’est pas un bon site de #stockage de déchets radioactifs. Ils considèrent qu’« il n’y a aucune raison de croire que si certains critères de confinement semblent nécessaires au stockage des déchets des centrales nucléaires civiles, ils ne soient plus nécessaires pour stocker les déchets des essais nucléaires militaires. » Trop tard, les immersions ont été faites, trop souvent sans protection.
Quels #risques pour la population ?
Aujourd’hui, les déchets datant de l’époque du nucléaire n’ont pas disparu des eaux polynésiennes. Représentent-ils un risque pour les populations ? Selon l’Andra, ces 3 200 tonnes de déchets radioactifs immergés représentent une activité totale inférieure à 0,1 TBq (térabecquerel).
Le département de suivi des centres d’expérimentations nucléaires (DSCEN) en lien avec le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) effectue une surveillance radiologique de Moruroa et Fangataufa depuis 1998. « Les #radionucléides d’origine artificielle mesurés dans les échantillons sont présents à des niveaux très faibles et souvent inférieurs ou voisins de la limite de détection des appareils de mesure de la radioactivité. Les concentrations mesurées dans le milieu terrestre et les sédiments marins gardent la trace des essais atmosphériques effectués sur les atolls de Moruroa et Fangataufa. Les niveaux d’activité dans ces compartiments restent stables, voire en légère diminution », note le rapport de 2021 du Ministère des Armées.
« Mais qu’est-ce qu’un faible taux ? », s’interroge Patrice Bouveret, directeur de l’Observatoire des armements. « Un taux est acceptable lorsqu’il est socialement accepté par la population ? Toute radioactivité a un impact sanitaire sur l’humain, le végétal, l’animal, sur la vie en général ».
Selon Patrick Bouisset, directeur du laboratoire d’étude et de suivi de l’environnement à l’IRSN (Institut de radioprotection de sûreté nucléaire), les déchets immergés ne représentent pas de risque particulier puisque la radioactivité s’est « diluée dans l’océan ». Quant aux déchets contenus dans des fûts, même « s’ils vont fuir avec le temps car rien n’est hermétique à l’échelle de quelques siècles », ces pollutions ne seront « pas visibles » considère ce physicien, chargé d’évaluer l’exposition radiologique en Polynésie hors des sites de Moruroa et Fangataufa.
L’#imperméabilité des conditionnements inquiète aussi Bruno Chareyron, ingénieur et directeur du laboratoire de la CRIIRAD (Commission de recherche et d’information indépendantes sur la radioactivité) : « Il est difficile d’anticiper les conséquences de l’immersion des déchets. Ce qui est certain, c’est qu’on aurait dû les conditionner sur des sites capables de garantir le confinement pendant des dizaines et des milliers d’années. Balancer des déchets en mer, sans emballage particulier, comme pour les avions Vautour, ou même en considérant une enveloppe en vinyle, c’est dérisoire pour des éléments à très longue période physique. »
Une étude indépendante pour confirmer l’absence de danger
« Le problème c’est qu’on ne connaît pas la quantité exacte de déchets immergés », pointe Jean-Marie Collin qui regrette que les études concernant la radioactivité soient menées par « des instituts qui appartiennent à l’État ». « D’après les études réalisées, il semblerait qu’il n’y a pas de danger concernant ces déchets immergés. Je suppose donc qu’il n’y a pas de danger. Mais il serait intéressant que des études indépendantes soient menées pour corroborer les études existantes et ainsi assurer la sécurité et rétablir la confiance des Polynésiens ».
Les impacts sanitaires et environnementaux découlant des déchets immergés sont ainsi difficiles à établir. Reste que, Moruroa et Fangataufa demeurent des atolls contaminés, où le plutonium subsiste dans les sols comme en surface. Hao, longtemps considéré comme« la poubelle du CEP » subit aussi d’importantes pollutions aux hydrocarbures.
Durant plus de trente ans, si une partie des déchets ont été océaniser, les autres ont été enterrés ou abandonnés. Radioactifs ou pas, ces déchets portent « la charge symbolique des essais », estime Teva Meyer. « Ils demeurent souillés, voire ‘nucléaires’ pour certains, qui demandent qu’ils soient traités comme tels ».
▻https://outremers360.com/bassin-pacifique-appli/dossier-dans-les-lagons-polynesiens-les-dechets-invisibles-du-temps-du
#pollution #santé #contamination #France
Une #université a tué une #librairie
Une université vient de tuer une librairie. Le #libéralisme a fourni l’arme. Les codes des marchés ont fourni la balle. Et l’université, après avoir baissé les yeux, a appuyé sur la détente.
Cette université c’est “mon” université, Nantes Université. Cette librairie c’est la librairie Vent d’Ouest, une librairie “historique”, présente dans le centre de Nantes depuis près de 47 années et travaillant avec l’université depuis presqu’autant de temps.
Une université vient de tuer une librairie. Nantes Université travaillait, pour ses #commandes d’ouvrages (et une université en commande beaucoup …) avec principalement deux #librairies nantaises, Durance et Vent d’Ouest. Pour Vent d’Ouest, cela représentait une trésorerie d’environ 300 000 euros par an, 15% de son chiffre d’affaire. Une ligne de vie pour les 7 salariés de la libraire. Et puis Vent d’Ouest perd ce marché. Du jour au lendemain. Sans même un appel, une alerte ou une explication en amont de la décision de la part de Nantes Université.
À qui est allé ce marché ? Au groupe #Nosoli, basé à Lyon, qui s’auto-présente comme le “premier libraire français indépendant multi-enseignes” (sic) et qui donc concrètement a racheté les marques et magasins #Decitre et #Furet_du_Nord (et récemment Chapitre.com) et dont le coeur de métier est bien davantage celui de la #logistique (#supply_chain) que celui de la librairie.
Pourquoi Nosoli a-t-il remporté ce #marché ? Et pourquoi Nantes Université va devoir commander à des librairies Lyonnaises des ouvrages pour … Nantes ? Parce que le code des #marchés_publics. Parce que l’obligation de passer par des #appels_d’offre. Parce le code des marchés publics et des appels d’offre est ainsi fait que désormais (et depuis quelques temps déjà) seuls les plus gros sont en capacité d’entrer dans les critères définis. Parce que les critères définis (par #Nantes_Université notamment) visent bien sûr à faire des #économies_d’échelle. À payer toujours moins. Parce que bien sûr, sur ce poste de dépenses budgétaires comme sur d’autres il faut sans cesse économiser, rogner, négocier, batailler, parce que les universités sont exangues de l’argent que l’état ne leur donne plus et qu’il a converti en médaille en chocolat de “l’autonomie”. Parce qu’à ce jeu les plus gros gagnent toujours les appels d’offre et les marchés publics. C’est même pour cela qu’ils sont gros. Et qu’ils enflent encore. [mise à jour] Mais ici pour ce marché concernant des #livres, ce n’est pas le critère du #prix qui a joué (merci Jack Lang et la prix unique) mais pour être parfaitement précis, c’est le critère du #stock qui, en l’espèce et malgré le recours en justice de la librairie Vent d’Ouest, et bien qu’il soit reconnu comme discriminatoire par le ministère de la culture (en page 62 du Vade Mecum édité par le ministère sur le sujet de l’achat de livres en commande publique), a été décisif pour permettre à Nosoli de remporter le marché. [/mise à jour]
Alors Nosoli le groupe lyonnais a gagné le marché de Nantes Université. Et les librairies nantaises Durance et Vent d’Ouest ont perdu. Et quelques mois après la perte de ce marché, la librairie Vent d’Ouest va fermer.
On pourrait s’en réjouir finalement, ou même s’en foutre totalement. Après tout, Nantes Université va faire des #économies. Après tout une librairie qui ferme à Nantes et 7 salariés qui se trouvent sur le carreau c’est (peut-être) 7 personnes du service logistique du groupe Nosoli qui gardent leur emploi. Et puis quoi, une librairie qui ferme à Nantes mais il y en a 6 qui ont ouvert sur les deux dernières années à Nantes. Alors quoi ?
Alors une université vient de tuer une librairie. Et quand on discute avec les gens qui, à Nantes Université, connaissent autrement que comptablement la réalité de ce qu’était le #marché_public passé avec Durance et Vent d’Ouest, et quand on échange avec celles et ceux qui ont l’habitude, à l’université ou ailleurs, de travailler avec le groupe Nosoli, on entend toujours la même chose : rien jamais ne remplacera la #proximité. Parce qu’avec Durance et Vent d’Ouest les échanges étaient souples, réactifs, pas (trop) systématiquement réglementaires, parce que les gens qui dans les bibliothèques de l’université commandaient les ouvrages connaissaient les gens qui dans les librairies les leur fournissaient, et qu’en cas de souci ils pouvaient même s’y rendre et les croiser, ces gens. Et on entend, en plus de l’aberration écologique, logistique, et sociétale, que les commandes avec le groupe Nosoli sont usuellement et comme avec tout grand groupe logistique … complexes, lentes, difficilement négociables et rattrapables, sans aucune souplesse, sans aucune écoute ou connaissance des besoins fins de l’université “cliente”. Voilà ce que l’on entend, entre autres choses plus âpres et plus en colère.
Une université vient de tuer une librairie. Et ça fait tellement chier. C’est tellement anormal. Tellement schizophrène. Le même jour que celui où j’ai appris l’annonce de la fermeture définitive de la libraire Vent d’Ouest, j’ai aussi reçu un message de Nantes Université m’informant que, champagne, l’université venait – comme 14 autres universités – de remporter un appel à projet de plus de 23 millions d’euros. La cagnotte lancée par la libraire Vent d’Ouest après la perte du marché de Nantes Université lui avait rapporté quelques milliers d’euros qui lui avaient permis de retarder sa fermeture de cinq mois.
Vivre à l’université, travailler à Nantes Université, c’est être tous les jours, à chaque instant et sur chaque sujet, confronté au même type de #schizophrénie. D’un côté on collecte des dizaines de millions d’euros dans de toujours plus nébuleux appels à projets, et de l’autre on gère la misère et la détresse. Et on ferme sa gueule. Parce que ne pas se réjouir de l’obtention de ces 23 millions d’euros c’est être un pisse-froid et c’est aussi mépriser le travail (et l’épuisement) des équipes qui pilotent (et parfois remportent) ces appels à projets. Oui mais voilà. À Nantes Université on organise des grandes fêtes de rentrée et on donnez rendez-vous à la prochaine #distribution_alimentaire, la #fête mais la #précarité. Et l’on fait ça tous les jours. Toutes les universités françaises organisent ou ont organisé des #distributions_alimentaires, et toutes les universités françaises remportent ou ont remporté des appels à projet de dizaines de millions d’euros. Mais les financements qui permettraient de recruter des collègues enseignants chercheurs ou des personnels techniques et administratifs en nombre suffisant, et de les recruter comme titulaires, pour garantir un fonctionnement minimal normal, ces financements on ne les trouve jamais. Mais les financements qui permettraient d’éviter de fermer une librairie avec qui l’université travaille depuis des dizaines d’années et d’éviter de mettre 7 personnes au chômage, on ne les trouve jamais. Mais les financements qui permettraient à tous les étudiant.e.s de manger tous les jours à leur faim, on ne les trouve jamais. Mais les financements qui permettraient à l’UFR Staps de Nantes Université de faire sa rentrée on ne les trouve jamais. Mais les financements qui permettraient aux collègues de la fac de droit de Nantes Université de ne pas sombrer dans l’#épuisement_au_prix et au risque de choix mortifières pour eux comme pour les étudiant.e.s on ne les trouve jamais. Mais les financements qui permettraient aux collègues de l’IAE de Nantes Université de ne pas s’enfoncer dans le #burn-out, ces financements on ne les trouve jamais. Il n’y a pas d’appel à projet à la solidarité partenariale. Il n’y a pas d’appel à projet à la lutte contre la #misère_étudiante. Il n’y a pas d’appel à projet pour permettre à des milliers de post-doctorants d’espérer un jour pouvoir venir enseigner et faire de la recherche à l’université. Il n’y pas d’appel à projet pour sauver l’université publique. Il n’y en a pas.
Il n’y a pas d’appel à projet pour la normalité des choses. Alors Nantes Université, comme tant d’autres, est uniquement traversée par des #régimes_d’exceptionnalité. #Exceptionnalité des financements obtenus dans quelques appels à projets qui font oublier tous les autres appels à projet où l’université se fait retoquer. Exceptionnalité des #crises que traversent les étudiant.e.s, les formations et les #personnels de l’université. Exceptionnalité des mesures parfois prises pour tenter d’en limiter les effets. Dans nos quotidiens à l’université, tout est inscrit dans ces #logiques_d’exceptionnalité, tout n’est lisible qu’au travers de ces #matrices_d’exceptionnalité. Exceptionnalité des financements. Exceptionnalité des crises. Exceptionnalité des remédiations.
Une université vient de tuer une librairie. Cela n’est pas exceptionnel. C’est devenu banal. Voilà l’autre danger de ces régimes d’exceptionnalité permanents : ils inversent nos #représentations_morales. Ce qui devrait être exceptionnel devient #banal. Et ce qui devrait être banal (par exemple qu’une université publique reçoive des dotations suffisantes de l’état pour lui permettre d’exercer sa mission d’enseignement et de recherche), est devenu exceptionnel.
Une université vient de tuer une librairie. Dans le monde qui est le nôtre et celui que nous laissons, il n’est que des #dérèglements. Et si celui du climat dicte déjà tous les autres #effondrements à venir, nous semblons incapables de penser nos relations et nos institutions comme autant d’écosystèmes dans lesquels chaque biotope est essentiel aux autres. Nantes Université a tué la libraire Vent d’Ouest. Le mobile ? L’habitude. L’habitude de ne pas mener les combats avant que les drames ne se produisent. L’habitude de se résigner à appliquer des règles que tout le monde sait pourtant ineptes. L’habitude du renoncement à l’attention à l’autre, au plus proche, au plus fragile, dès lors que l’on peut se réjouir de l’attention que nous portent tant d’autres. L’#habitude d’aller chercher si loin ce que l’on a pourtant si près.
Une université vient de tuer une librairie. Le libéralisme a fourni l’arme. Les codes des marchés ont fourni la balle. L’habitude a fourni le mobile. Et l’université, après avoir baissé les yeux, a froidement appuyé sur la détente.
▻https://affordance.framasoft.org/2023/09/une-universite-a-tue-une-librairie
Donc là j’apprends par l’ADL que le prestataire externe à l’origine de Notilus est payé pour CHAQUE mission effectuée.
Déjà 50 000 missions enregistrées, dont des doublons.
Je. Non, rien.
▻https://social.sciences.re/@ffigon/111109300253465473
–—
Finalement, heureusement que ça ne marche pas Notilus, parce que chacune de nos missions doit rapporter 2,50€ pour « frais de licence » à la boîte qui a pondu ça.
Boîte fondée par #Jean-Michel_Aulas en 1983…
–—
Jean-Michel Aulas
Jean-Michel Aulas, né le 22 mars 1949 à L’Arbresle (Rhône), est un homme d’affaires et dirigeant sportif français.
Il a fondé et préside la société Cegid, il a aussi été président de l’Olympique lyonnais (du 15 juin 1987 au 5 mai 2023) et président-directeur général de l’OL Groupe (du 1er février 1999 au 5 mai 2023, puis Président d’honneur depuis cette date)2.
En 2021, il est classé par le magazine France Football meilleur président de l’histoire du football français3,4.
Sa fortune personnelle était estimée à 450 millions d’euros en 20235.
Truman City
▻http://carfree.fr/index.php/2023/08/31/truman-city
Friedrich Engels écrivait en 1845 qu’une #ville comme #londres est une chose étrange. La centralisation colossale, « cet entassement de deux millions et demi d’êtres humains en un seul point », a Lire la suite...
#Destruction_de_la_planète #Etalement_urbain #Fin_de_l'automobile #capitalisme #critique #densité #histoire #nature #politique #stockholm #urbanisme #ville_compacte
Sur la #végétalisation des #villes et les #limites/#difficultés
On parle beaucoup végétalisation, et notamment plantation d’#arbres 🌳pour augmenter la #résilience des villes au #changement_climatique. À raison, bien sûr, mais on omet souvent un point : cette végétalisation est de plus en difficile.
On sait que les arbres en ville se comportent différemment d’à la campagne. Dans cette étude à Boston, on a constaté qu’ils poussent plus vite, et meurent plus tôt. Ils y meurent à tous les âges, avec in fine, une perte nette de stockage carbone !▻https://www.researchgate.net/publication/332952719_Live_fast_die_young_Accelerated_growth_mortality_and_turnove
La vie en ville comporte plus de contraintes : effet « d’ilôt de chaleur », espace trop petit pour les #racines, #sécheresse ou mauvais #drainage, #pollution, #piétinement et #tassement du sol...et mauvais traitements
Avec le changement climatique, les arbres récemment plantés sont particulièrement sensibles : périodes de sécheresse prolongées, #température intense et augmentation de l’évaporation...les #taux_de_mortalité peuvent vite grimper, jusqu’à 60-70 % dans certaines villes
Cela pose 3 gros #problèmes :
1) une perte d’#argent (souvent public)
2) une perte de #bénéfices_écosystémiques à long terme (un arbre planté, c’est de l’ombrage dans 20-30 ans)
3) une perte de #stockage_carbone, surtout si cet arbre vient en remplacement d’un arbre ancien
Il existe bien des solutions pour tenter de réduire cette mortalité :
– un meilleur choix d’espèces 🌳
– de bonnes pratiques de plantation (fosses à cavité par ex)
– un meilleur suivi : arrosage (outils connectés, sacs à réserve d’eau)
– une implication des citoyens...
Partout, les villes multiplient les annonces : « nous allons planter xx arbres ! ». Moi je préférerais qu’un élu me dise : « sur les 5 dernières années, nous avons réussi à faire survivre xx arbres »... les chiffres seraient peut-être moins impressionnants
De gros changements sont nécessaires dans les #pratiques des communes : amélioration de la place de l’arbre dans les décisions urbanistiques (peut-on réaliser des fosses plus grandes ?), choix des espèces plus adapté, formation des employés ou sous-traitants...
Mais cela amène surtout à se poser la question : ne doit-on pas tout faire pour préserver les arbres anciens, au rôle crucial dans la lutte contre le changement climatique ? 🌳 Évaluer TOUS les projets pour tendre vers un évitement des #abattages (hors raisons de sécurité)
Cela paraît d’autant plus important quand on connaît leur rôle dans le stockage carbone, en dehors de tous les services qu’ils procurent en ville (ombrage, refroidissement, biodiversité, santé...)
▻https://besjournals.onlinelibrary.wiley.com/doi/10.1002/2688-8319.12197Je finirai par un point souvent ignoré à mon sens, car l’arbre est vu comme une fin en soi : le pied d’arbre est tout aussi important et, si la végétalisation n’est pas possible partout, elle devrait être bien envisagée partout où c’est possible👇
▻https://twitter.com/morethanweeds/status/1234451720417271813
A mettre en lien notamment avec cet article :
Planter des arbres en ville fait revenir les insectes
▻https://reporterre.net/Planter-des-arbres-en-ville-fait-revenir-les-insectes
Se fixer sur la #végétalisation_urbaine uniquement des arbres en ville permet aussi de zapper les toitures végétalisées qui devraient juste être obligatoires.
Les #sedums qui y poussent facilement résistent à la sécheresse, absorbent les pluies, forment une isolation thermique et en plus c’est beau. A Toulouse c’est toujours plus d’autorisation de bétonner avec à la clef trois misérables arbres de 2mètres plantés en guise d’"#espace_vert" et des #arbres qu’il y avait auparavant.
#adaptation_climatique
Oh que je suis d’accord, @touti !
Dans ce sens, j’ai notamment demandé à ajouter à l’ordre du jour de l’AG de mon immeuble, si il était possible d’avoir un devis pour végétaliser l’horrible toit de l’énorme espace de parking dans la cour de mon immeuble (construit en 1955) :
Réponse du syndic : « Vous savez, les propriétaires des parkings n’habitent pas toustes dans l’immeuble (donc ne peuvent pas bénéficier directement de plus de fraîcheur induite par la végétalisation), du coup, je peux demander un devis, mais je vous dis déjà que ça ne passera pas ».
@cdb_77 Je l’entends comme un déficit du politique (du « que faisons nous ensemble ? ») qui est désormais une machine de pouvoir à communiquer à la « population ».
A Toulouse, j’étais allée me renseigner à l’urbanisme (qui délivre les permis de construire donc) sur les toitures végétalisées , j’ai dû répéter 2 fois le mot, puis la sentence est tombée : « Désolée, on ne connait pas, rien n’est prévu dans ce sens ».
C’est pourtant une excellente idée @cdb_77 . Cette absence de « motivation » du syndic (qui pourrait pétitionner, écrire des lettres, faire pression, s’acharner) montre qu’ils ne comprennent pas les enjeux. Peut etre si une taxe sur les « îlots de chaleur urbains » était votée (national, ou municipal), les propriétaires se sentiraient bien plus motivés...
C’est quantifiable, il est facile de trouver des photos infra rouge de votre quartier.
Pendant longtemps, on a optimisé, le bâtit pour ses usages internes (et encore pas toujours très bien). A présent, on le pense aussi pour ses effets externes, car un bâtiment est nuisible, il faut prendre des précautions. Il est plus que temps que les vieux bâtiments entrent dans ces nouvelles considérations.
Une toiture végétalisée ne fait pas tout. C’est un plus, mais ca manque d’inertie thermique et de transpiration. C’est sûrement mieux qu’une tôle ou un danpalon. Mais rien ne remplace une foret.
Je souhaiterai expliquer en quelques mots les bases du #suivi et de la #gestion des #stocks et des #approvisionnements. En tant qu’expert sur les solutions de gestion, je me plonge presque quotidiennement dans l’univers complexe de la gestion des stocks. Le but ultime est la recherche de l’équilibre parfait entre #disponibilité et #coût.
▻https://michelcampillo.com/blog/9837.html
Les SSD du futur seront radicalement différents - YouTube
▻https://www.youtube.com/watch?v=KMg2tQ511d4
Pas mal de petites infos intéressantes sur le stockage de données dont le volume et l’énergie nécessaire commence à poser problème ; et sur la recherche de stockage de donnée par ADN… Il existe maintenant des mini séquenceurs (décodage) d’ADN à 1000€… pour la synthèse (encodage) c’est encore des machines chères par contre !
Que vont devenir les encombrantes Autolib’ entassées dans le « cimetière » de Romorantin ?
►https://www.francetvinfo.fr/economie/transports/autolib/reportage-que-vont-devenir-les-encombrantes-autolib-entassees-dans-le-c
▻https://www.francetvinfo.fr/pictures/4Hn2loIXPrrvlSprW2Z5-7jXDzE/1500x843/2021/03/31/phpJqP0W6.jpg
« Changeons le système, pas le climat ». Cette formule bien connue des écologistes est inscrite sur le capot délavé d’une Autolib’ hors d’usage, plantée comme des centaines d’autres au fond d’une zone industrielle de Romorantin-Lanthenay (Loir-et-Cher). Le pare-brise griffé reflète un soleil timide, en ce mois de mars. A bonne distance, des merles sautillent entre les longues files de véhicules endormis. Pare-chocs contre pare-chocs, ces voitures, qui incarnaient le renouveau de la mobilité urbaine, attendent de trouver preneur. Ou d’être désossées.
Pour les riverains de cette zone d’activité, les rangées d’Autolib’ à la retraite font désormais partie du paysage. « On les a vues arriver progressivement, par remorques entières », se souvient Chantal, qui promène fréquemment son chien devant cette friche industrielle. « Parfois, quelques-unes sont déplacées, mais ça reste très calme, ça ressemble à un cimetière », relate un autre voisin. « Avant, il y avait un petit bois ici, mais tout a été rasé pour stocker les voitures, alors qu’il y a un vrai parking juste à côté, derrière la déchetterie. »
#Autolib = #Bolloré (filiale Blue Solutions du groupe Bolloré)
En 2012, il y avait environ 250 véhicules en service
▻https://seenthis.net/messages/48901
En 2015, @colporteur nous éclairait sur le sujet :
▻https://seenthis.net/messages/441836#message441858
En 2018, le contrat est stoppé net
Pour comprendre comment ces citadines se sont retrouvées à Romorantin, il faut remonter au mois de juin 2018, lorsque le contrat liant le groupe Bolloré (le constructeur des Autolib’) au syndicat Autolib’ Vélib’ métropole (SAVM, l’exploitant des Autolib’) a brutalement pris fin. En cause : un déficit annuel estimé à 50 millions d’euros pour ce service de voitures électriques partagées.
Malgré les protestations du groupe Bolloré, la multinationale a dû évacuer les 4 000 Autolib’ indésirables de la région parisienne et les stocker en urgence. Elles ont ensuite été revendues en plusieurs lots et deux entreprises détiennent aujourd’hui la majeure partie de la flotte restante : la société bretonne Autopuzz, ancien sous-traitant de Bolloré, qui revend ces véhicules à travers la France, et la société Atis Production, dont le gérant, Paul Aouizerate, ne souhaite pas dévoiler ses projets pour les Autolib’ parquées dans le Loir-et-Cher.
En 2021 (date de l’article FTV-Info)
recyclage des véhicules mis en pièces ou accidentés : "Il faut d’abord extraire la batterie, que le groupe Bolloré propose de rapatrier gratuitement pour traitement. Ensuite, tout l’enjeu est de valoriser la matière [...] La carrosserie en alliage d’aluminium finira fondue en lingots, les câbles et autres éléments du moteur seront triés et broyés pour récolter le cuivre qu’ils contiennent. Les moteurs de véhicule électrique peuvent également contenir des métaux issus de terres rares et des aimants, qui sont récupérables. « De nombreuses solutions existent, il faut simplement développer les bonnes filières »
Openly Licensed Images, Audio and More | Openverse
▻https://openverse.org
Projet »sponso« par WP.
Openverse is a tool that allows openly licensed and #public_domain works to be discovered and used by everyone.
Openverse searches across more than 300 million #images from open #APIs and the Common Crawl dataset. It goes beyond simple search to aggregate results across multiple public repositories into a single catalog, and facilitates reuse through features like machine-generated tags and one-click attribution.
For many years, #Creative_Commons has offered its users a dedicated search portal for searching platforms that have #CC licensing filters built in. In fact, this is still maintained at oldsearch.creativecommons.org.
For users of the legacy CC Meta Search site, the “External Sources” feature on Openverse will look familiar. The goal was to ensure that the functionality is not lost, but is updated and embedded within our new search engine for openly licensed content. In addition, the “External Sources” feature builds on this functionality, allowing us to quickly add new external sources as we discover them, and support new content types in the future, as we expand.
Pendant ce temps-là, l’#Otan demande aux membres de l’Alliance de passer en « économie de guerre » (Les Échos)
Réunis mardi et mercredi à Bruxelles sous prétexte d’aider le gouvernement Ukrainien, les ministres de la Défense de l’Otan explorent les moyens de relancer les lignes de #production_de_munitions.
Même aux Etats-Unis, les #stocks s’effondrent. Les #industriels ont ainsi déclaré qu’il leur faudrait 6 ans pour compenser les dons d’obus de 155 mm qui alimentent les Himars, et qu’il leur faudrait au moins 6 ans et demi pour remplacer le stock de Javelin donnés à l’#Ukraine ou de 4 à 7 ans pour reconstituer le stock d’obus à guidage de précision Excalibur…
[…]
Les pays de l’Otan pourraient convenir dès cet été d’y consacrer au moins 2 % de leur PIB, le seuil de 2 % devant devenir un plancher et non pas un objectif comme il avait été convenu il y a dix ans. Ce sera l’un des enjeux du sommet de Vilnius l’été prochain
Les #industriels_de_l’armement se frottent déjà les mains. Une aubaine que cette #guerre et la #Troisième_guerre_mondiale qui s’y prépare !
Lecture de : La guerre des métaux rares. La face cachée de la transition énergétique et numérique, de Guillaume Pitron
Une perspective nationaliste navrante, mais une somme d’informations capitales.
Extraits :
« Le monde a de plus en plus besoin de terres rares, de « #métaux rares », pour son #développement_numérique, et donc pour ttes les #technologies_de_l’information_et_de_la_communication. Les #voitures_électriques et #voitures_hybrides en nécessitent deux fois plus que les voitures à essence, etc. »
« Nos aïeux du XIXe siècle connaissaient l’importance du #charbon, & l’honnête homme du XXe siècle n’ignorait rien de la nécessité du pétrole. Au XXIe siècle, nous ne savons même pas qu’un monde + durable dépend en très grande partie de substances rocheuses nommées métaux rares. »
« #Terres_rares, #graphite, #vanadium, #germanium, #platinoïdes, #tungstène, #antimoine, #béryllium, #fluorine, #rhénium, #prométhium… un sous-ensemble cohérent d’une trentaine de #matières_premières dont le point commun est d’être souvent associées ds la nature aux métaux les + abondants »
« C’est là la clé du « #capitalisme_vert » : [remplacer] des #ressources qui rejettent des millions de milliards de tonnes de #gaz_carbonique par d’autres qui ne brûlent pas – et ne génèrent donc pas le moindre gramme de CO2. »
« Avec des réserves d’or noir en déclin, les stratèges doivent anticiper la guerre sans #pétrole. […] ne plus dépendre des énergies fossiles d’ici à 2040. […] En recourant notamment aux #énergies_renouvelables & en levant des légions de robots alimentés à l’électricité. »
« La Grande-Bretagne a dominé le XIXe s. grâce à son hégémonie sur la production mondiale de charbon ; une grande partie des événements du XXe s. peuvent se lire à travers le prisme de l’ascendant pris par les Etats-Unis et l’Arabie saoudite sur la production et la sécurisation des routes du pétrole ; .. au XXIe siècle, un État est en train d’asseoir sa domina routes du pétrole ; au XXIe siècle, un État est en train d’asseoir sa domination sur l’exportation et la consommation des métaux rares. Cet État, c’est la Chine. »
La Chine « détient le #monopole d’une kyrielle de métaux rares indispensables aux énergies bas carbone & numérique, ces 2 piliers de la transition énergétique. Il est le fournisseur unique du + stratégique : terres rares — sans substitut connu & dont personne ne peut se passer. »
« Notre quête d’un modèle de #croissance + écologique a plutôt conduit à l’exploitation intensifiée de l’écorce terrestre pr en extraire le principe actif, à savoir les métaux rares, avec des #impacts_environnementaux encore + importants que cx générés par l’#extraction_pétrolière »
« Soutenir le changement de notre #modèle_énergétique exige déjà un doublement de la production de métaux rares tous les 15 ans environ, et nécessitera au cours des trente prochaines années d’extraire davantage de minerais que ce que l’humanité a prélevé depuis 70 000 ans. » (25)
« En voulant nous émanciper des #énergies_fossiles, en basculant d’un ordre ancien vers un monde nouveau, nous sombrons en réalité dans une nouvelle dépendance, plus forte encore. #Robotique, #intelligence_artificielle, #hôpital_numérique, #cybersécurité, #biotechnologies_médicale, objets connectés, nanoélectronique, voitures sans chauffeur… Tous les pans les + stratégiques des économies du futur, toutes les technologies qui décupleront nos capacités de calcul et moderniseront notre façon de consommer de l’énergie, le moindre de nos gestes quotidien… et même nos grands choix collectifs vont se révéler totalement tributaires des métaux rares. Ces ressources vont devenir le socle élémentaire, tangible, palpable, du XXIe siècle. » (26)
#Metaux_Rares Derrière l’#extraction et le « #raffinage », une immense #catastrophe_écologique : « D’un bout à l’autre de la chaîne de production de métaux rares, quasiment rien en #Chine n’a été fait selon les standards écologiques & sanitaires les plus élémentaires. En même temps qu’ils devenaient omniprésents ds les technologies vertes & numériques les + enthousiasmantes qui soient, les métaux rares ont imprégné de leurs scories hautement toxiques l’eau, la terre, l’atmosphère & jusqu’aux flammes des hauts-fourneaux – les 4 éléments nécessaires à la vie »
« C’est ici que bat le cœur de la transition énergétique & numérique. Sidérés, ns restons une bonne h à observer immensités lunaires & paysages désagrégés. Mais il vaut mieux déguerpir avant que la maréchaussée alertée par les caméras ne débarque »
« Nous avons effectué des tests, et notre village a été surnommé “le village du cancer”. Nous savons que nous respirons un air toxique et que nous n’en avons plus pour longtemps à vivre. »
« La seule production d’un #panneau_solaire, compte tenu en particulier du silicium qu’il contient, génère, avance-t-il, plus de 70 kilos de CO2. Or, avec un nombre de panneaux photovoltaïques qui va augmenter de 23 % par an dans les années à venir, cela signifie que les installations solaires produiront chaque année dix gigawatts d’électricité supplémentaires. Cela représente 2,7 milliards de tonnes de carbone rejetées dans l’atmosphère, soit l’équivalent de la #pollution générée pendant un an par l’activité de près de 600 000 automobiles.
« Ces mêmes énergies – [dites] « renouvelables » – se fondent sur l’exploitation de matières premières qui, elles, ne sont pas renouvelables. »
« Ces énergies – [dites] « vertes » ou « décarbonées » – reposent en réalité sur des activités génératrices de #gaz_à_effet_de_serre . »
« N’y a-t-il pas une ironie tragique à ce que la pollution qui n’est plus émise dans les agglomérations grâce aux voitures électriques soit simplement déplacée dans les zones minières où l’on extrait les ressources indispensables à la fabrication de ces dernières ?
.. En ce sens, la transition énergétique et numérique est une transition pour les classes les plus aisées : elle dépollue les centres-villes, plus huppés, pour mieux lester de ses impacts réels les zones plus miséreuses et éloignées des regards. »
« Certaines technologies vertes sur lesquelles se fonde notre idéal de sobriété énergétique nécessitent en réalité, pour leur fabrication, davantage de matières premières que des technologies plus anciennes. »
.. « Un futur fondé sur les technologies vertes suppose la consommation de beaucoup de matières, et, faute d’une gestion adéquate, celui-ci pourrait ruiner […] les objectifs de développement durable. » (The World Bank Group, juin 2017.)
« Le #recyclage dont dépend notre monde + vert n’est pas aussi écologique qu’on le dit. Son bilan environnemental risque même de s’alourdir à mesure que nos sociétés produiront des alliages + variés, composés d’un nombre + élevé de matières, ds des proportions tjrs + importantes »
« Dans le monde des matières premières, ces observations relèvent le + souvent de l’évidence ; pr l’immense majorité d’entre nous, en revanche, elles sont tellement contre-intuitives qu’il va certainement nous falloir de longues années avant de bien les appréhender & faire admettre. Peut-être [dans 30 ans] nous dirons-nous aussi que les énergies nucléaires sont finalement moins néfastes que les technologies que nous avons voulu leur substituer et qu’il est difficile d’en faire l’économie dans nos mix énergétiques. »
« Devenue productrice prépondérante de certains métaux rares, la Chine [a] désormais l’opportunité inédite d’en refuser l’exportation vers les États qui en [ont] le plus besoin. […] Pékin produit 44 % de l’#indium consommé dans le monde, 55 % du vanadium, près de 65 % du #spath_fluor et du #graphite naturel, 71 % du germanium et 77 % de l’antimoine. La Commission européenne tient sa propre liste et abonde dans le même sens : la Chine produit 61 % du silicium et 67 % du germanium. Les taux atteignent 84 % pour le tungstène et 95 % pour les terres rares. Sobre conclusion de Bruxelles : « La Chine est le pays le plus influent en ce qui concerne l’approvisionnement mondial en maintes matières premières critiques ». »
« La République démocratique du Congo produit ainsi 64 % du #cobalt, l’Afrique du Sud fournit 83 % du platine, de l’iridium et du #ruthénium, et le Brésil exploite 90 % du #niobium. L’Europe est également dépendante des États-Unis, qui produisent plus de 90 % du #béryllium . »
« Les 14 pays membres de l’OPEP, capables depuis des décennies d’influencer fortement les cours du baril, ne totalisent « que » 41 % de la prod. mondiale d’or noir… La Chine, elle, s’arroge jusqu’à 99 % de la prod. mondiale de terres rares, le + convoité des métaux rares ! »
Aimants — « Alors qu’à la fin de la décennie 1990 le Japon, les États-Unis et l’Europe concentraient 90 % du marché des aimants, la Chine contrôle désormais les 3/4 de la production mondiale ! Bref, par le jeu du chantage « technologies contre ressources », le monopole chinois de la production des minerais s’est transposé à l’échelon de leur transformation. La Chine n’a pas trusté une, mais deux étapes de la chaîne industrielle. C’est ce que confirme la Chinoise Vivian Wu : « Je pense même que, dans un avenir proche, la Chine se sera dotée d’une industrie de terres rares totalement intégrée d’un bout à l’autre de la chaîne de valeur. » Vœu déjà en partie réalisé. Il a surtout pris racine dans la ville de #Baotou, en #Mongolie-Intérieure . »
« Baotou produit chaque année 30 000 tonnes d’aimants de terres rares, soit le tiers de la production mondiale. »
« Nos besoins en métaux rares se diversifient et s’accroissent de façon exponentielle. […] D’ici à 2040, nous devrons extraire trois fois plus de terres rares, cinq fois plus de tellure, douze fois plus de cobalt et seize fois plus de #lithium qu’aujourd’hui. […] la croissance de ce marché va exiger, d’ici à 2050, « 3 200 millions de tonnes d’acier, 310 millions de tonnes d’aluminium et 40 millions de tonnes de #cuivre 5 », car les éoliennes engloutissent davantage de matières premières que les technologies antérieures.
.. « À capacité [de production électrique] équivalente, les infrastructures […] éoliennes nécessitent jusqu’à quinze fois davantage de #béton, quatre-vingt-dix fois plus d’aluminium et cinquante fois plus de fer, de cuivre et de verre » que les installations utilisant des #combustibles traditionnels, indique M. Vidal. Selon la Banque mondiale, qui a conduit sa propre étude en 2017, cela vaut également pour le solaire et pour l’hydrogène. […] La conclusion d’ensemble est aberrante : puisque la consommation mondiale de métaux croît à un rythme de 3 à 5 % par an, « pour satisfaire les besoins mondiaux d’ici à 2050, nous devrons extraire du sous-sol plus de métaux que l’humanité n’en a extrait depuis son origine ».
.. Que le lecteur nous pardonne d’insister : nous allons consommer davantage de #minerais durant la prochaine génération qu’au cours des 70 000 dernières années, c’est-à-dire des cinq cents générations qui nous ont précédés. Nos 7,5 milliards de contemporains vont absorber plus de #ressources_minérales que les 108 milliards d’humains que la Terre a portés jusqu’à ce jour. » (211-214)
Sans parler des « immenses quantités d’eau consommées par l’industrie minière, [des] rejets de gaz carbonique causés par le transport, [du] #stockage et [de] l’utilisation de l’énergie, [de] l’impact, encore mal connu, du recyclage des technologies vertes [de] toutes les autres formes de pollution des #écosystèmes générées par l’ensemble de ces activités [et] des multiples incidences sur la biodiversité. » (215)
« D’un côté, les avocats de la transition énergétique nous ont promis que nous pourrions puiser à l’infini aux intarissables sources d’énergie que constituent les marées, les vents et les rayons solaires pour faire fonctionner nos technologies vertes. Mais, de l’autre, les chasseurs de métaux rares nous préviennent que nous allons bientôt manquer d’un nombre considérable de matières premières. Nous avions déjà des listes d’espèces animales et végétales menacées ; nous établirons bientôt des listes rouges de métaux en voie de disparition. » (216)
« Au rythme actuel de production, les #réserves rentables d’une quinzaine de métaux de base et de métaux rares seront épuisées en moins de cinquante ans ; pour cinq métaux supplémentaires (y compris le fer, pourtant très abondant), ce sera avant la fin de ce siècle. Nous nous dirigeons aussi, à court ou moyen terme, vers une pénurie de vanadium, de #dysprosium, de #terbium, d’#europium & de #néodyme. Le #titane et l’indium sont également en tension, de même que le cobalt. « La prochaine pénurie va concerner ce métal, Personne n’a vu le problème venir. »
« La #révolution_verte, plus lente qu’espéré, sera emmenée par la Chine, l’un des rares pays à s’être dotés d’une stratégie d’approvisionnement adéquate. Et Pékin ne va pas accroître exagérément sa production de métaux rares pour étancher la soif du reste du monde. Non seulement parce que sa politique commerciale lui permet d’asphyxier les États occidentaux, mais parce qu’il craint à son tour que ses ressources ne s’amenuisent trop rapidement. Le marché noir des terres rares, qui représente un tiers de la demande officielle, accélère l’appauvrissement des mines, et, à ce rythme, certaines réserves pourraient être épuisées dès 2027. »
De la question « du #taux_de_retour_énergétique (#TRE), c’est-à-dire le ratio entre l’énergie nécessaire à la production des métaux et celle que leur utilisation va générer. […] C’est une fuite en avant dont nous pressentons l’absurdité. Notre modèle de production sera-t-il encore sensé le jour où un baril permettra tt juste de remplir un autre baril ? […] Les limites de notre système productiviste se dessinent aujourd’hui plus nettement : elles seront atteintes le jour où il nous faudra dépenser davantage d’énergie que nous ne pourrons en produire. »
« Plusieurs vagues de #nationalisme minier ont déjà placé les États importateurs à la merci de pays fournisseurs prtant bien moins puissants qu’eux. En fait de mines, le client ne sera donc plus (toujours) roi. La géopolitique des métaux rares pourrait faire émerger de nouveaux acteurs prépondérants, souvent issus du monde en développement : le #Chili, le #Pérou et la #Bolivie, grâce à leurs fabuleuses réserves de lithium et de cuivre ; l’#Inde, riche de son titane, de son #acier et de son #fer ; la #Guinée et l’#Afrique_australe, dont les sous-sols regorgent de bauxite, de chrome, de manganèse et de platine ; le Brésil, où le bauxite et le fer abondent ; la Nouvelle-Calédonie, grâce à ses prodigieux gisements de #nickel. » (226-227)
« En engageant l’humanité ds la quête de métaux rares, la transition énergétique & numérique va assurément aggraver dissensions & discordes. Loin de mettre un terme à la géopol. de l’énergie, elle va au contraire l’exacerber. Et la Chine entend façonner ce nouveau monde à sa main. »
« Les #ONG écologistes font la preuve d’une certaine incohérence, puisqu’elles dénoncent les effets du nouveau monde plus durable qu’elles ont elles-mêmes appelé de leurs vœux. Elles n’admettent pas que la transition énergétique et numérique est aussi une transition des champs de pétrole vers les gisements de métaux rares, et que la lutte contre le réchauffement climatique appelle une réponse minière qu’il faut bien assumer. » (234-235)
« La bataille des terres rares (et de la transition énergétique et numérique) est bel et bien en train de gagner le fond des mers. Une nouvelle ruée minière se profile. […] La #France est particulièrement bien positionnée dans cette nouvelle course. Paris a en effet mené avec succès, ces dernières années, une politique d’extension de son territoire maritime. […] L’ensemble du #domaine_maritime français [est] le deuxième plus grand au monde après celui des #États-Unis. […] Résumons : alors que, pendant des milliers d’années, 71 % de la surface du globe n’ont appartenu à personne, au cours des six dernières décennies 40 % de la surface des océans ont été rattachés à un pays, et 10 % supplémentaires font l’objet d’une demande d’extension du plateau continental. À terme, les États pourvus d’une côte exerceront leur juridiction sur 57 % des fonds marins. Attirés, en particulier par le pactole des métaux rares, nous avons mené, en un tps record, la + vaste entreprise d’#appropriation_de_territoires de l’histoire. »
« Le projet, entonné en chœur par tous les avocats de la #transition_énergétique et numérique, de réduire l’impact de l’homme sur les écosystèmes a en réalité conduit à accroître notre mainmise sur la #biodiversité. » (248)
« N’est-il pas absurde de conduire une mutation écologique qui pourrait tous nous empoisonner aux métaux lourds avant même que nous l’ayons menée à bien ? Peut-on sérieusement prôner l’harmonie confucéenne par le bien-être matériel si c’est pour engendrer de nouveaux maux sanitaires et un #chaos_écologique – soit son exact contraire ? » (252)
Métaux rares, transition énergétique et capitalisme vert ▻https://mensuel.lutte-ouvriere.org//2023/01/23/metaux-rares-transition-energetique-et-capitalisme-vert_4727 (Lutte de classe, 10 janvier 2023)
L’auteur au micro de #radio_Zinzine (5 février 2023, rediffusion) : « Les pénuries de certains métaux rares nécessaires aux voitures électriques interviendront avant celles des combustibles fossiles. »
Interview de Guillaume Pitron qui présente son livre La Guerre des métaux rares, la face cachée de la transition énergétique et numérique paru aux éd. Les Liens qui Libèrent, 2018. Interview suivie de quelques commentaires critiques sur les perspectives que met en avant G. Pitron, notamment la réouverture des mines de
Lien de l’émission :
A titre indicatif : Philippe Bihouix : contre l’ouverture de mines de terres rares en France
▻https://www.socialter.fr/article/tribune-philippe-bihouix-contre-l-ouverture-de-mines-de-terres-rares-en-fr
La pénurie de médicaments essentiels n’a rien d’accidentel
Alors qu’ils sont produits par des entreprises qui figurent parmi les plus grandes multinationales du monde, certains médicaments se trouvent en pénurie de manière structurelle. Une situation qui n’a finalement rien de paradoxal et qui relève de la manipulation de marché.
« Je ne peux pas supporter l’idée que mon mari soit décédé parce qu’il y avait une rupture d’approvisionnement » [1]. Une veuve n’en démord pas suite à la mort de son époux au CHU de Nantes en 2016. Celui-ci atteint d’un cancer du sang aurait pu survivre grâce à un médicament approprié. Malheureusement, ce dernier n’était momentanément plus accessible. Les médecins ont dû opter pour une solution alternative plus toxique. Le patient n’y a pas résisté.
Ainsi, la privation de soins élémentaires qui touchait déjà une partie des pays du tiers-monde, ce qui était déjà en soi inacceptable, s’étend maintenant à toute la planète, y compris aux États capitalistes avancés. Dans cette question, c’est toute la population mondiale qui se trouve à la merci des firmes de santé et à leur logique implacable de rentabilité.
La grande enquête d’UFC-Que Choisir en France
#UFC-Que Choisir est une des plus importantes organisations françaises de consommateurs. En novembre 2020, elle publie une vaste étude sur la situation de #pénuries des #médicaments en #France [3]. Son rapport est accablant.
Dans un premier temps, l’association rappelle les notions de base légales pour caractériser les ruptures de stock et d’approvisionnement dans les #produits_pharmaceutiques, car la problématique est nouvelle et s’aggrave. Ainsi, le décret du 20 juillet 2016 définit la rupture de #stock comme « l’impossibilité pour un laboratoire de fabriquer ou d’exploiter un médicament ou un #vaccin ». En revanche, la rupture d’approvisionnement est « l’incapacité pour une pharmacie d’officine ou une #pharmacie à usage intérieur (…) de dispenser un médicament à un patient dans un délai de 72 heures ». On distingue également la tension d’approvisionnement, lorsqu’un fabricant dispose d’une quantité insuffisante de solutions pour fournir le marché [4]. Ces situations doivent être signalées aux autorités sanitaires. Ces dispositions, ou des règles similaires, se sont imposées dans la plupart des États capitalistes avancés.
Dans ses rapports, l’Agence nationale de sécurité du médicament et des produits de santé ( #ANSM ), l’institution publique chargée d’évaluer les risques sanitaires des médicaments en France, publie des statistiques sur les signalements officiels de problèmes dans la livraison de produits depuis 2008. Le nombre de ces avertissements explose littéralement : il décuple de 2008 à 2014, atteignant 438 notifications cette dernière année. Mais cela continue par la suite : elles sont 538 en 2017, 868 en 2018, 1.504 en 2019, puis 2.446 en 2020 [5].
Cela signifie que, depuis 2008, ces signalements se sont multipliés par près de 56. Certes, on peut supposer qu’au début, le procédé d’avertissement, nouveau, n’a pas été utilisé massivement, d’autant que l’obligation de prévenir l’ANSM ne date que du décret du 28 septembre 2012 [6]. Mais, depuis 2016, les notifications ont sextuplé. De ce fait, « l’Académie nationale de pharmacie considère aujourd’hui les problèmes d’indisponibilité des médicaments comme chroniques » [7].
En analysant en détail les données en date de juillet 2020, l’association des consommateurs constate que les médicaments en pénurie sont généralement anciens, considérés comme indispensables pour les autorités sanitaires et bon marché. Par exemple, 29% concernent des #génériques. Seuls 25% des produits manquants avaient une autorisation de mise sur le marché postérieure à 2000. 75% sont vendus à moins de 25 euros et 61% sont remboursés totalement ou partiellement par la sécurité sociale. Les secteurs les plus touchés se trouvent dans les domaines des anti-infectieux (antibiotiques), des anticancéreux et des solutions pour le système nerveux central (antiparkinsoniens, antiépileptiques) [8].
UFC–Que Choisir observe également la durée parfois inquiétante de certaines pénuries, certaines se prolongeant parfois trois ou quatre ans.
Les entreprises n’indiquent la cause de la rupture que dans 36% des cas. Dans 37% des situations, elles annoncent suppléer la carence par une importation d’un pays étranger. Dans 30%, elles promeuvent une thérapie alternative, sans vérifier si celle-ci est réellement équivalente pour le patient. Sinon, elles proposent de diminuer les doses ou de sélectionner les malades en fonction de la gravité de la pathologie. Pour 18% des carences, aucune solution n’est avancée [9].
L’association des consommateurs pointe la responsabilité des firmes du secteur. Si le médicament ne rapporte pas assez, la compagnie ne produit plus ou désigne un seul site pour l’approvisionnement, qui peut tout à coup être victime d’une panne technique ou autre. Ou alors elle recourt à la #sous-traitance, mais la plupart du temps, vis-à-vis d’un ou deux fournisseurs, de préférence dans un pays à bas coût salarial. Et là aussi, on peut avoir soudainement des ruptures.
UFC–Que Choisir remarque que les obligations de service public des entreprises ne sont pas toujours respectées, mais elles sont rarement sanctionnées.
Face à cette dénonciation, la fédération patronale du secteur en France, le LEEM (Les entreprises du médicament), ne nie pas le problème. Elle s’avoue même préoccupée par son aggravation : « Chaque patient qui se rend en pharmacie doit pouvoir avoir accès aux médicaments dont il a besoin sans délais. La priorité absolue des entreprises du médicament consiste à mettre à la disposition des patients leur traitement en toute sécurité dans les meilleurs délais. Quel que soit le point de vue porté sur ces tensions ou ruptures, l’objectif est le même : les éviter autant que possible. »
Mais, immédiatement, elle enchaîne : « Les tensions et ruptures d’approvisionnement ont pris plus d’ampleur ces dernières années en raison de la complexification de la chaîne de production, des technologies, des contrôles et des obligations réglementaires. Mais aussi de facteurs externes, notamment des capacités de production insuffisantes face à l’augmentation de la demande mondiale, des problèmes d’approvisionnement de principes actifs… Ainsi, la fabrication de certains médicaments anciens (notamment injectables) peut être complexe à réaliser et susceptible de générer des non-conformités en production ou en contrôle, sources de ruptures parfois récurrentes. » [10] Le LEEM estime que l’explosion des signalements constatée par l’association des consommateurs provient, en bonne partie, des exigences des pouvoirs publics à avertir de façon plus précoce les problèmes de fourniture et que, de ce fait, les firmes anticipent davantage les possibilités de blocage et les déclarent aux autorités sanitaires [11]. Pourtant, UFC–Que Choisir pointait justement le manque de transparence des compagnies à propos des pénuries.
Dans un autre document, le LEEM écrit : « Les ruptures sont en grande majorité la conséquence de facteurs mondiaux, conduisant soit à une rupture de disponibilité des médicaments chez le fabriquant – on parle alors de rupture de stock – soit à une rupture dans la chaîne d’approvisionnement rendant momentanément impossible la délivrance du médicament au patient par son pharmacien – il s’agit alors d’une rupture d’approvisionnement. » [12]
Il est clair que la fédération patronale tente de noyer la responsabilité manifeste des entreprises, dénoncée par l’organisation de la société civile, dans une série de causes annexes, comme des complexifications de production, des réglementations plus pointilleuses ou des carences de livraison à l’étranger. Comme si les géants du secteur n’avaient aucun pouvoir sur ces phénomènes et que ceux-ci leur étaient malencontreusement imposés !
La montée inquiétante des pénuries en Europe
Le constat est identique au niveau européen. La Commission de l’environnement, de la santé publique et de la sécurité alimentaire du Parlement européen écrit à ce sujet : « Ces pénuries (de médicaments) ont été multipliées par 20 entre 2000 et 2018 et par 12 depuis 2008, faisant courir des risques considérables aux patients et fragilisant les systèmes de #santé des États membres. » [13]
En 2018, l’Association européenne des pharmaciens hospitaliers (EAHP selon le sigle en anglais [14]) a mené une vaste enquête auprès de ses membres pour connaître la situation dans leurs établissements. Ils ont reçu 1.666 réponses. Pour 90% de ces professionnels de la santé, la rupture d’approvisionnement est un problème récurrent dans leur clinique [15]. Ces difficultés sont quotidiennes dans 36% des cas, hebdomadaires dans 39% et mensuelles dans 16% [16].
Les effets sont catastrophiques. Dans 59% des situations signalées, la pénurie a entraîné le report des soins. Pour 31%, ceux-ci ont été purement et simplement annulés. Pour un quart, cela a provoqué des erreurs de médication et, pour un autre 25%, les médecins ont dû trouver une solution alternative moins appropriée. Enfin, 12 décès ont été occasionnés selon le rapport [17]. 63% des réponses ont noté l’obligation de payer un prix plus élevé pour le traitement, 46% la plupart du temps, 17% en permanence [18].
Les États-Unis ont connu une tendance similaire, lorsque les médicaments manquants sont passés de 58 en 2004 à 267 en 2011. Par la suite, ce nombre a diminué : en 2013, il n’y avait plus que 140 traitements en carence. Mais, en 2017 et 2018, deux grandes usines de fabrication ayant un impact sur la production de nombreux médicaments ont fermé pour assainissement [19]. Les pénuries ont de nouveau augmenté à 186 en 2018. Puis, elles ont à nouveau baissé : 114 en 2021 [20].
Au centre de cette stabilisation se trouve la réglementation américaine quant à la constitution de stocks minimaux pour les remèdes essentiels. Aussi les autorités communautaires incitent les États membres à se lancer dans une politique similaire.
La Belgique n’est pas épargnée par ces ruptures. En juin 2020, il y avait, selon l’Agence Fédérale des Médicaments et des Produits de Santé (AFMPS), 514 médicaments temporairement indisponibles [21]. C’est le cas notamment de l’Oncotice, une solution contre le cancer de la vessie. Or, son substitut éventuel, le BCG-Medac vient, lui aussi, à manquer.
En novembre 2020, une étude réalisée par Test Achat Santé sur 2.000 personnes a remarqué que 28,5% des Belges interrogés avaient déjà été confrontés à l’indisponibilité du traitement approprié et que 16% l’ont été à plusieurs reprises [22]. La situation s’aggrave comme le soulignent de nombreux professionnels de la santé. Ainsi, Alain Chaspierre, président de l’Association pharmaceutique belge (APB), s’alarme : « Nous sommes confrontés à la pénurie pour toutes sortes de médicaments : des antibiotiques, de l’insuline, des traitements contre l’hypertension, le diabète, les glaucomes, l’asthme, des médicaments anticancéreux… » Yannis Natsis, responsable pour l’accessibilité des médicaments au sein de l’Alliance européenne de santé publique [23], une plateforme d’ONG actives dans le domaine sanitaire sur le vieux continent, renchérit : « Le phénomène n’est pas nouveau, mais son ampleur l’est. Cela fait longtemps que la pénurie de médicaments frappe les pays de l’Europe de l’Est et centrale. Mais depuis quelques années, des pays d’Europe occidentale comme la France, la Belgique et les Pays-Bas sont aussi touchés. » [24]
Comment la pénurie est-elle organisée ou apparaît-elle en Europe ? Pour l’illustrer, nous reprenons deux exemples symptomatiques d’interruption d’approvisionnement, celui du #BCG produit par #Sanofi et celui de l’Alkeran fourni par la société sud-africaine Aspen Pharmacare.
Le bacille introuvable de Sanofi
Le vaccin bilié [25] de Calmette et Guérin, appelé communément BCG, est à l’origine un traitement contre la #tuberculose, découvert au début des années 1920 à l’Institut Pasteur en France à l’initiative des professeurs Albert Calmette (bactériologiste) et Camille Guérin (vétérinaire et biologiste). Cette maladie est une des plus mortelles au monde. Ainsi, l’OMS a placé ce remède parmi les médicaments les plus essentiels.
Progressivement, les spécialistes se rendent compte que le BCG est un stimulateur de l’immunité et peut donc être utilisé contre certaines formes de cancer. C’est le cas de celui de la vessie, après l’opération chirurgicale qui soigne la pathologie ou lorsque la tumeur se situe sur la paroi de l’organe urinaire. À partir de 1976, la solution dérivée du BCG est employée à cet effet et, dans 50 à 70% des cas, la tumeur ne revient pas. En 2012, l’Institut Pasteur effectue des tests cliniques pour montrer l’efficacité de cette thérapie [26]. Dès lors, de nombreux pays s’approvisionnent en BCG.
Mais le principal producteur est la multinationale française Sanofi [27] et elle dédie à ce produit un seul site, celui de #Willowdale, près de #Toronto au Canada. En effet, il s’agit d’une marchandise dont la fabrication est assez peu lucrative et non protégée, donc vendue à un prix relativement bas. Le médicament est commercialisé sous le nom d’ImmuCyst. Or, en 2012, les autorités sanitaires canadiennes trouvent une contamination au champignon dans l’usine. Aussitôt, celle-ci est arrêtée, occasionnant immédiatement une tension dans les hôpitaux qui se fournissaient auprès du groupe. Les autres entreprises ne sont pas capables de suppléer le marché.
La production ne reprend qu’en 2014, mais à un rythme limité. Pour des raisons de sécurité bien compréhensibles, le Canada surveille étroitement la filiale de Sanofi. Le porte-parole de la multinationale explique : « Il est difficile de changer de technique (de production) sans changer le produit. Et si on modifie le produit, il faut refaire des études cliniques » [28]. Et tout cela coûte cher. En novembre 2016, le groupe français annonce la fin de la fabrication pour la mi-2017, échéance reportée finalement à fin juillet 2019. Son porte-parole prétend que la firme a bien tenté de résoudre les problèmes du site canadien, mais que ses efforts « ne peuvent garantir une continuité et un approvisionnement fiable du produit. » [29]
Dès lors, la fourniture du BCG revient au petit laboratoire allemand #Medac. Mais celui-ci n’a pas les capacités pour remplir ce rôle. Avant 2012, il ne livrait pas la France par exemple. Il a dû investir massivement dans un processus manufacturier complexe, qui peut durer neuf mois entre les débuts de confection du médicament et son aboutissement [30]. Les difficultés d’approvisionnement se sont succédé.
C’est pour cela que la Belgique s’est tournée vers l’Oncotice vendu par la compagnie américaine Merck et réalisé aux Pays-Bas. Mais, évidemment, tous les pays adoptent une stratégie similaire. La France doit importer son BCG, notamment du Danemark. Les tensions restent donc vivaces.
Dans ces conditions, les médecins et les hôpitaux sont contraints de jongler avec les doses, les offrant aux patients les plus atteints, les refusant à d’autres ou les réduisant. Dans d’autres cas, il faut passer par l’ablation de la vessie comme seule solution pour éviter la perte du patient. Parfois, cela ne suffit même pas et arrive l’inévitable : le décès.
En Belgique, l’Oncotice est en disponibilité limitée. Selon le site PharmaStatut [31], dépendant de l’AFMPS, le BCG-Medac ne serait plus livré depuis le 1er août 2020, en raison de problèmes prolongés de production entraînant l’interruption de la commercialisation de ce médicament. La situation est considérée comme critique par les autorités sanitaires. Un groupe d’experts s’est constitué pour trouver des solutions alternatives, avec la possibilité d’importer le traitement de Merck, mais avec le risque que celui-ci ne soit plus remboursé par la Sécurité sociale.
La France, quant à elle, a également connu des problèmes d’approvisionnement de BCG-Medac. Elle a introduit un contingentement de ce produit à partir du 1er février 2021, mesure levée le 14 février 2022, vu les promesses du laboratoire allemand de fournir à l’Hexagone les doses souhaitées.
« La pénurie de Bacille de Calmette Guérin (BCG) illustre les conséquences que peuvent avoir les ruptures : l’arrêt de production du BCG ImmuCyst par Sanofi, utilisé dans le traitement du cancer de la vessie, a été associé à une hausse du nombre de récidives de ce cancer, et à un plus grand nombre d’ablation totale de la vessie. » [32]
Les patients sont désespérés. Un pharmacien hospitalier rennais, Benoît Hue, raconte : « Pour les patients, c’est très angoissant. Leur médicament est en rupture de stock et par effet domino, peu de temps après, l’alternative l’est aussi. Un malade a récemment appelé ma collègue pour demander son traitement, il était désespéré. Nous n’en avions pas en stock. Il lui a lâché : “Vous allez me laisser mourir”. » [33] Voilà les conséquences d’une décision de multinationale qui ne manque ni de profit ni de rentabilité [34].
Le chantage à la mode d’Aspen
#Aspen_Pharmacare est une multinationale sud-africaine créée en 1850 par un chimiste irlandais. Cette firme est spécialisée dans la fabrication de médicaments génériques. En 2008, elle acquiert plusieurs médicaments anticancéreux et autres commercialisés par GSK et, depuis longtemps, tombés dans le domaine public : Alkeran (en dehors des États-Unis), Lanvis, Leukeran, Myleran, Purinethol, Kemadrin (maladie de Parkinson), Septrin (infection bactérienne) et Trandate (hypertension artérielle). L’année suivante, la multinationale britannique cède son usine de Bad Oldesloe en Allemagne, à mi-chemin entre Lübeck et Hambourg, qui produit la plupart de ces solutions. En échange, elle prend 19% du capital d’Aspen Pharmacare [35]. Par la suite, d’autres opérations de cession ont lieu entre les deux entreprises, notamment avec la reprise des remèdes liés à la thrombose en 2013 et des anesthésiants en 2016 par Aspen.
En 2012, la compagnie sud-africaine lance une campagne tous azimuts pour augmenter fortement le prix de ses anticancéreux. Elle cible l’Italie, avec des hausses allant de 300%, 400% et jusqu’à 1.500% pour certains traitements. Le pays est coincé, car certains médicaments sont indispensables et, même s’ils ne sont plus protégés par un brevet, ils n’ont quasiment pas de concurrents.
Les autorités italiennes ne s’en laissent pas compter. Certes, elles doivent accepter ce qui apparaît nettement comme un chantage. Mais elles enquêtent officiellement sur ce qui pourrait justifier une telle progression tarifaire. Ce qu’elles découvrent est à la fois sensationnel et révélateur.
Ainsi, elles découvrent un message de la direction sur la manière de négocier avec les différents États : « Les prix doivent être augmentés (…). C’est à prendre ou à laisser. (…) Si les ministères de la Santé, dans chaque pays, n’acceptent pas les nouveaux prix, on retire les médicaments de la liste des produits remboursables ou on arrête d’approvisionner. Aucune négociation possible. » [36]
L’organisme sanitaire italien reçoit un ultimatum dans une lettre venant de la société sud-africaine : « C’est une priorité pour Aspen d’augmenter rapidement les prix de vente (…). Si aucune décision n’est prise dans la limite de temps indiquée (…) nous procéderons rapidement (…) à la suspension de la commercialisation des produits en Italie, à partir de janvier 2014. » Andrea Pezzoli, le directeur de l’agence de santé italienne, explique que juste avant la négociation la firme fournissait moins de remèdes, arguant des problèmes de production [37]. En septembre 2016, l’entreprise est condamnée à une amende de 5 millions d’euros pour chantage.
Suite à cela, en mai 2017, la Commission européenne lance également des investigations, car elle se rend compte que 25 pays du vieux continent sont concernés. Ainsi, les hausses de prix en Belgique exigées par Aspen ont varié de 500 à 1.600%. Le tarif du Leukeran est passé de 10 à 118 euros par boîte [38]. En Angleterre et au Pays de Galles, le Myleran est vendu avec un renchérissement de 1.200%. En Espagne, la multinationale sud-africaine menace de détruire les stocks de ces produits si les autorités sanitaires n’acceptent pas ses nouvelles conditions majorées qui pouvaient atteindre 4.000% [39]. En France, trois personnes sont décédées à la suite de la prise d’Endoxan au lieu de l’Alkeran, dont le prix s’était envolé.
L’enquête a duré quatre ans, se fondant sur ce que les autorités italiennes avaient déjà découvert. Le constat est édifiant : « L’analyse de la Commission a montré que tout au long des exercices 2013 à 2019 (couvrant la période allant du 1er juillet 2012 au 30 juin 2019), Aspen a de manière persistante engrangé des bénéfices très élevés grâce aux produits dans l’Espace économique européen, tant en termes absolus qu’en termes relatifs : les prix d’Aspen étaient en moyenne de près de 300 pour cent supérieurs à ses coûts correspondants (à savoir que les prix appliqués par l’entreprise étaient quasiment quatre fois supérieurs à ses coûts), y compris en tenant compte d’un rendement raisonnable. En outre, les bénéfices moyens d’Aspen dans l’Espace économique européen étaient plus de trois fois supérieurs aux niveaux de rentabilité moyens d’une sélection d’entreprises similaires du secteur pharmaceutique. Les bénéfices moyens d’Aspen étaient également plus élevés que les bénéfices moyens de chacun des comparateurs pris individuellement.
L’enquête n’a révélé aucun motif légitime justifiant les niveaux de prix et de bénéfices d’Aspen. Les produits ne sont plus couverts par un brevet depuis environ 50 ans et Aspen ne leur a pas apporté d’innovation ni ne les a développés de manière significative. Aspen a externalisé la fabrication et la plupart des activités de commercialisation des produits. Du point de vue du client, Aspen n’a apporté aucune amélioration sensible aux produits ni à leur distribution. » [40] Se sentant menacée, la multinationale a proposé de réduire les tarifs de 73% dans toute l’Europe, ce que la Commission européenne a accepté. En outre, la compagnie sud-africaine ne peut élever ses prix pendant une période de dix ans (jusqu’en 2030, avec la possibilité d’une révision des conditions en 2025) et doit garantir l’approvisionnement de ces médicaments sur le continent [41].
On pourrait croire cette affaire totalement exceptionnelle. En fait, elle ne l’est guère. Il y a d’abord le cas de GSK qui est resté actionnaire jusqu’en septembre 2016, soit durant la période du chantage. Grâce à cela, le groupe britannique a bénéficié d’une multiplication du cours d’Aspen par plus de six [42]. Selon le Journal The Guardian, il aurait gagné dans cette opération un milliard et demi de livres, soit environ 1,9 milliard de dollars [43].
Pour sa part, le 30 octobre 2017, #Roche a décidé de retirer du marché grec un nouveau remède oncologique, le Cotellic, parce que le gouvernement avait imposé une taxe de 25% sur le profit obtenu sur les nouvelles molécules brevetées [44]. Il s’agissait d’une mesure prise dans le cadre du remboursement de la dette et de l’austérité imposée par la Commission européenne. La suppression de ce médicament a entraîné un non-remboursement par la Sécurité sociale. La multinationale n’en était pas à son coup d’essai en la matière. Elle a fait partie de la cinquantaine de compagnies pharmaceutiques qui ont coupé l’approvisionnement des hôpitaux hellènes dès que la crise de l’endettement a occasionné les problèmes de solvabilité dans le pays en 2011 [45].
En décembre 2016, #Pfizer a été condamné en Grande-Bretagne pour avoir conspiré avec une société de génériques, Flynn Pharma. Les deux entreprises avaient élevé le prix d’un traitement contre l’épilepsie de 2.600%, étant donné qu’aucun autre établissement ne le fabriquait [46]. On retrouve les trois firmes incriminées en Afrique du Sud en 2017 pour avoir surfacturé leurs solutions contre le cancer. Il s’agissait du Xalkori Crizotinib de Pfizer pour le cancer du poumon, de l’Herceptin et de l’Herclon de Roche pour celui du sein et du Leukeran, de l’Alkeran et du Myleran, déjà mentionné pour Aspen Pharmacare [47].
Le rapport d’une mission d’information du Sénat français rendu en 2018 réitère le constat : des compagnies réduisent volontairement la fourniture en médicaments pour en tirer un bénéfice. Dans ce document, on peut effectivement lire : « Votre mission d’information a pu constater une certaine défiance quant aux pratiques des laboratoires concernant leurs médicaments anciens : ceux-ci sont suspectés de déployer des stratégies de raréfaction de certains de leurs médicaments peu rémunérateurs, ce qui leur permettrait de faire pression pour obtenir une hausse de leur prix. Au terme des travaux conduits par votre mission, de telles situations apparaissent à première vue sinon peu courantes, du moins difficiles à objectiver – bien qu’un des représentants du personnel de l’entreprise Sanofi entendu par votre mission d’information ait indiqué qu’il existerait des « stratégies de rupture visant à maintenir le niveau des prix. » [48]
Il est précisé ensuite : « Le Claps [49] a par ailleurs souligné, dans ses réponses au questionnaire transmis par votre rapporteur, que « sauf exceptions, les médicaments anciens ne disparaissent pas du marché français ». Il arriverait plus fréquemment qu’un médicament ancien disparaisse du marché pour un certain temps, avant d’y être réintroduit sous un autre nom par un autre laboratoire, et à un prix plus élevé. Le Claps relève ainsi que « le plus souvent, ces molécules anciennes sont vendues par les laboratoires historiquement titulaires de l’autorisation de mise sur le marché à un autre laboratoire. Dans tous les cas, les prix pratiqués sur ces molécules anciennes par le nouveau laboratoire titulaire n’ont plus rien à voir avec les précédentes conditions : les prix peuvent être multipliés par deux ou par cinq » » [50].
Des multinationales n’hésitent donc pas à créer elles-mêmes des pénuries, de sorte à créer des conditions favorables pour exiger des hausses tarifaires de leurs produits. Ce n’est sans doute pas la raison principale de ces ruptures d’approvisionnement, mais son utilisation montre quelles limites ces groupes sont prêts à franchir dans leur quête incessante de rentabilité.
Les quatre chevaliers de l’apocalypse sanitaire
Ce dossier des pénuries est donc explosif et n’est contesté par personne, tellement il est évident. Même les fédérations patronales en conviennent. Mais, en affirmant que les compagnies pharmaceutiques en souffrent autant que les patients et les hôpitaux, elles tentent surtout de dédouaner leurs affiliés de la responsabilité de ces ruptures d’approvisionnement.
Elles trouvent auprès des autorités publiques, notamment en Europe, des alliés de circonstance. Au lieu de pointer les torts des groupes de santé, celles-ci soulignent la complexité des situations et la multiplicité des sources des problèmes.
Ainsi, dans sa note sur la stratégie européenne pour le secteur, la Commission explique : « Les pénuries sont de plus en plus fréquentes pour les produits qui sont présents sur le marché depuis de nombreuses années et dont l’usage est répandu. Les raisons sont complexes : il y a entre autres les stratégies de commercialisation, le commerce parallèle, la rareté de certaines substances actives et de matières premières, la faiblesse des obligations de service public, les quotas d’approvisionnement et des questions liées à la tarification et au remboursement. » [51] Bref, une myriade de difficultés qu’on ne peut attribuer aux seules entreprises.
Dans son rapport sur les ruptures d’approvisionnement, la mission d’information du Sénat français va encore plus loin : « Au terme des auditions conduites par votre mission d’information, il apparaît que cette chaîne de production et de distribution de médicaments et de vaccins ne saurait être mise en cause dans son ensemble dans la survenue d’épisodes de pénurie récurrents ». [52] Il poursuit : « Plutôt donc qu’un dysfonctionnement général, ce sont en réalité bien souvent des événements isolés qui sont en cause dans la formation des phénomènes de pénuries, en ce qu’ils tendent à se répercuter sur l’ensemble de la chaîne par le jeu d’un « effet domino » résultant de l’interdépendance de ses maillons. (…) Pour certains produits anciens mais essentiels, les acteurs sanitaires font face à un problème de prix trop bas et non trop élevés, dont il découle toute une série d’effets pervers. » [53]
Pourtant, lorsqu’on rassemble les principaux facteurs entraînant les pénuries, on ne peut qu’observer la part essentielle des stratégies des multinationales pharmaceutiques, même au-delà des cas où les firmes créent elles-mêmes artificiellement des ruptures d’approvisionnement. On dénombre ainsi quatre raisons majeures aux raréfactions dans les stocks de vaccins et de médicaments.
Premièrement, de plus en plus, la production d’une partie importante des solutions médicales se passe dans des pays à bas coût salarial, surtout en Asie. C’est le cas notamment de la confection des principes actifs (API [54]). La fabrication d’un remède homologué se décompose en trois étapes : la réalisation d’un API, la formulation d’un médicament et, enfin, son conditionnement [55]. Cela prend entre quatre et six mois pour qu’un produit pharmaceutique « classique » passe de sa composition initiale au contrôle final de la qualité en vue de la commercialisation. Pour un vaccin, cela va de six mois dans le cas de la grippe à trente-six pour un remède plus complexe [56].
L’ingrédient actif est la substance chimique qui aura un effet thérapeutique ou préventif dans la composition du traitement. C’est la matière première de celui-ci. Le second stade consiste en l’ajout d’excipients pour que la solution ingérée soit aisément administrée et assimilée par l’organisme. Ceux-ci constituent 95% du médicament [57]. Enfin, il y a la dernière phase, qui concerne la forme exacte sous laquelle le produit sera présenté et conservé. Les deux derniers épisodes sont habituellement effectués ensemble.
De plus en plus, tout est sous-traité. Mais ce sont surtout les API qui sont externalisés, même si ce sont les #multinationales qui conservent les #brevets. « Selon l’Agence européenne du médicament, 40% des médicaments finis commercialisés dans l’Union proviennent de pays tiers, et 80% des principes actifs sont fabriqués en Chine et en Inde ; en réalité, le seul moyen de minimiser les coûts consiste à recourir massivement aux sous-traitants en Asie où le coût du travail et les normes environnementales sont moindres » [58]. La région de Hubei, au sein de laquelle se trouve la grande métropole de Wuhan, « est devenue le laboratoire mondial des principes actifs, qui sont les plus simples, les plus faciles à produire », selon l’économiste française Nathalie Coutinet [59].
Mais, il n’y a souvent qu’une, deux ou trois firmes qui fournissent cet ingrédient. Ainsi, pour la mission informative du Sénat français, Catherine Simmonin, secrétaire générale de la Ligue contre le cancer, a décrit la situation dans son secteur : « Les trente-cinq molécules de base en oncologie sont fabriquées en Orient, notamment en Chine, par trois fabricants. Les lignes de fabrication sont contrôlées par la Food and Drug Administration qui arrête la fabrication en cas de problème de sécurité ou d’anomalies. Brusquement, la matière de base disparaît alors du monde entier. Aucun façonnier dans un laboratoire ne peut la fabriquer, alors qu’elle sert au quotidien et ne peut être remplacée par des innovations. » [60]
Il y a une trentaine d’années, tout était encore exécuté en Occident. Depuis, l’essentiel a été délocalisé en Asie. Cela permet une économie de coûts estimée à 15 ou 20% [61]. Quant aux problèmes de pollution, ils ne font pas partie des préoccupations majeures des groupes pharmaceutiques. « La région d’Hyderabad, en Inde, abrite par exemple des dizaines d’usines de production d’antibiotiques pour tous les grands groupes internationaux, dans des conditions de sûreté environnementale minimales. Résultat ? Une grave pollution des eaux aux métaux lourds et aux antibiotiques de toutes sortes, qui font craindre l’émergence accélérée de « super-bactéries » résistantes à tous les traitements. » [62]
Les multinationales peuvent expliquer qu’elles subissent cette situation d’approvisionnement des API en Chine et en Inde comme les autres acteurs de la santé en Occident. Mais il est clair qu‘elles l’ont créée, dans leur recherche insatiable de profit et donc de réduction des coûts. On évalue que cette cause des pénuries représenterait un tiers des cas de rupture d’approvisionnement [63].
Deuxièmement, ces ruptures de livraisons sont également dues à la centralisation de la production des médicaments dans un nombre restreint d’usines. Un rapport de l’institut IMS, l’institution privée américaine qui récolte des données dans le domaine de la santé mondiale [64], établit que plus de la moitié des produits signalés à la FDA comme défaillants dans les stocks en octobre 2011 ne disposaient que de deux pourvoyeurs, voire moins [65].
La plupart du temps, il s’agit d’une décision du groupe lui-même, préférant dédier ses sites à la réalisation des traitements les plus innovants qu’il peut vendre au prix le plus élevé possible. Mathieu Escot, directeur des études à UFC-Que Choisir, relève le manque d’enthousiasme de l’industrie pharmaceutique pour répondre aux ruptures d’approvisionnement : « Quand elle veut éviter les pénuries, quand elle veut une chaîne solide, pour être capable de faire face à une brusque augmentation de la demande mondiale par exemple, l’industrie sait faire. Ça se voit notamment pour tous les médicaments chers, les médicaments récents. » [66]
Dès lors, les firmes ne consacrent qu’une unité de production pour ces remèdes anciens, tombés dans le domaine public et qui donc ne rapportent que peu. S’il n’y a qu’un ou deux fournisseurs, la tension sur le marché est palpable dès qu’un problème survient. Comme le précise encore Mathieu Escot : « Il suffit qu’un maillon de cette chaîne fasse défaut, pour que toute la chaîne soit paralysée. »
À cette raréfaction provoquée par les géants du secteur, s’ajoutent les politiques des autorités publiques. Certains États comme la France ne sélectionnent qu’un seul pourvoyeur pour ces traitements. Il est évident que cela ne favorise pas l’approvisionnement.
Par ailleurs, les acheteurs de produits pharmaceutiques ont tendance à se regrouper et à rassembler leurs demandes, de sorte à obtenir de meilleures conditions d’approvisionnement, notamment en matière de prix. Mais, ce faisant, ils découragent des entreprises plus modestes à se proposer comme candidates, celles-ci n’ayant pas les moyens de livrer de telles quantités. Ils se forment des monopoles par faute de concurrence [67], et cela facilite les ruptures dans les fournitures.
Une troisième difficulté se trouve dans la situation des stocks jugés par tous quasiment comme trop faibles. De nouveau, la cause se situe à la fois au niveau des compagnies et à celui des pouvoirs publics.
L’industrie pharmaceutique a généralisé la production en flux tendu dans ses usines. Comme l’explique très bien Benjamin Coriat, à propos de Toyota où cette organisation du travail a été introduite, il s’agit d’une « méthode de gestion des effectifs par les stocks » [68]. En réalité, pour la direction de la firme, il faut réduire le personnel à son minimum en abaissant continuellement les stocks pour voir là où se situent les problèmes des salariés à suivre la cadence et trouver des solutions à ceux-ci. Dans ces conditions, les stocks doivent être aussi bas que possible et en perpétuelle diminution.
De l’autre côté, une politique similaire est suivie dans les hôpitaux et les officines. D’abord, parce qu’il y a un manque de place évident pour ces établissements. Ensuite, parce que cela fait partie des moyens pour compresser les coûts des institutions sanitaires et ainsi atteindre les objectifs budgétaires de l’État, notamment sur le plan européen. Au départ, cela permet de mieux affecter l’espace, mais, ensuite, cela provoque une insuffisance de médicaments pour des pathologies essentielles.
Si la voiture ou le smartphone n’est pas là à l’instant précis où l’acheteur se présente, celui-ci peut revenir le lendemain ou le jour où la marchandise sera disponible. En revanche, si le traitement n’est pas présent lorsque le patient en a besoin, les conséquences sont rapidement dramatiques. C’est pour cela que toutes les autorités sanitaires des pays occidentaux ont récemment établi des protocoles où un minimum de stocks est requis, en nombre de mois, des obligations de livraison sont demandées aux groupes qui fabriquent ces remèdes et des sanctions, la plupart du temps financières, sont prévues en cas de non-respect de ces engagements.
Quatrièmement, il est indéniable que la stratégie de profit poursuivie avec acharnement par les multinationales pharmaceutiques est un facteur central et spécifique des pénuries. Après les stratégies visant d’une part à se concentrer sur les produits innovants qu’on peut vendre au prix le plus élevé et avec des marges bénéficiaires sans commune mesure avec les autres secteurs, et d’autre part, à délaisser les solutions anciennes qui ne rapportent guère, avec l’exemple d’Aspen Pharma, nous avons montré des politiques volontaires de raréfaction de solutions afin de les fournir aux conditions les plus avantageuses pour le groupe.
Ainsi, les traitements permettant de pallier à la défaillance d’un fournisseur et à l’absence de concurrents peuvent être vendus à des prix exorbitants. Éric Tabouelle, vice-président du Claps, estime, devant la mission informative du Sénat français, qu’il n’est pas rare que les tarifs des nouveaux traitements augmentent de 500 à 2.000% par rapport aux médicaments en rupture [69]. Pour les hôpitaux, il existe une procédure, appelée clause d’achat pour compte, qui permet à ceux-ci de réclamer la différence auprès de la firme titulaire qui a manqué ses obligations. Mais cela se passe en fin de négociation, donc avec retard.
Au final, le délégué syndical de la CFDT de Sanofi en France, Yann Tran, résume assez bien ce qui provoque, selon lui, les pénuries : « En premier lieu, les industriels cherchent à réduire au maximum les coûts de production : ils privilégient la production à flux tendus en raison du caractère coûteux de la constitution et de la gestion de stocks. Une deuxième raison réside dans la nécessité de se fournir en matières premières auprès d’acteurs éloignés de la France − ce constat n’étant pas valable seulement pour Sanofi, mais pour l’ensemble du secteur. De leur côté, les fournisseurs de matières premières ont tendance à se concentrer pour atteindre une taille critique, ce qui contribue à alimenter les difficultés de l’ensemble de la chaîne de fabrication en cas de problème survenant chez l’un de ces fournisseurs. Enfin, une troisième raison résulte des stratégies mises en œuvre par les entreprises pharmaceutiques, qui choisissent de ne pas investir dans la création d’usines doublons qui permettraient de pallier la défaillance d’un site de production. » [70] Il souligne parfaitement la responsabilité écrasante des multinationales dans cette situation.
Cela n’a pas empêché la mission informative du Sénat français de proposer, après avoir pourtant déjà énoncé tous les avantages fiscaux accordés aux groupes pharmaceutiques [71], de nouvelles exonérations d’impôt pour ceux-ci [72]. Il reprend aussi, sans le commenter, l’objectif de la fédération patronale du secteur d’obtenir une « revalorisation raisonnable du prix pour les médicaments dont l’absence de rentabilité ne permet pas de mettre en œuvre les investissements nécessaires à la sécurisation de l’approvisionnement » [73]. Il faut préciser que le président de cet organisme temporaire était le socialiste Yves Daudigny, soutien de Manuel Valls à la primaire de la « gauche » en 2017. Le rapporteur est membre de l’aile la plus conservatrice de l’UMP [74], ancêtre des Républicains, Jean-Pierre Decool.
La responsabilité écrasante des multinationales pharmaceutiques
Le rapport présenté au Sénat n’a pas convaincu, que du contraire. La représentante du groupe communiste et celle des Verts ont dénoncé les conclusions. Pour elles, il est clair que : « Le système actuel est gangréné par la recherche de profits et seule la sortie de la sphère marchande du médicament pourra mettre un terme aux ruptures de stocks. » [75]
Un avis que partage France Assos Santé, qui regroupe 83 associations de patients et d’usagers de la santé, dont UFC-Que Choisir : « Les industriels sont très largement responsables de ces pénuries, principalement dues à des stratégies financières contestables, à un désengagement de certains médicaments et à une concentration des sites de productions. » [76]
Même l’Agence européenne du médicament estime que « les stratégies commerciales de l’industrie pharmaceutique provoquent un problème mondial depuis une dizaine d’années et affectent de plus en plus l’Union européenne, avec un impact significatif sur les soins aux patients » [77]. C’est dire l’énervement des autorités sanitaires, pourtant peu enclines à dénoncer les multinationales de la santé.
La pénurie de médicaments essentiels est le scandale le plus éclatant du secteur sanitaire. Il est la preuve indéniable qu’au-delà de la promotion et de la publicité des groupes pharmaceutiques, ceux-ci ne se préoccupent guère des besoins et des intérêts des patients. C’était déjà évident dans le cas des pays du tiers-monde. Aujourd’hui, les malades des contrées plus riches sont logés à la même enseigne : ils ne sont plus sûrs d’être soignés, parce que le traitement qui les sauverait n’est éventuellement plus disponible. Ces firmes sont centrées sur « une logique de réduction des coûts et de maximisation des profits qui s’oppose frontalement aux intérêts de santé publique des populations » [78]. Elles devraient être privées de leur droit absolu de propriété sur les outils de production, sur les solutions qui permettraient de soigner l’humanité. Ce sera une question fondamentale à l’avenir.
Source : Gresea ▻https://gresea.be/La-penurie-de-medicaments-essentiels
Repris par ▻https://www.investigaction.net/fr/la-penurie-de-medicaments-essentiels-na-rien-daccidentel
Notes :
[1] Le Monde, 9 septembre 2021.
[2] Lotz, J., « Pénuries de médicaments : à quoi jouent les labos ? », Complément d’enquête, France 2, 9 septembre 2021.
[3] UFC-Que Choisir, Pénuries de médicaments. Devant les comportements délétères des laboratoires, les pouvoirs publics doivent sortir de leur complaisance, novembre 2020. UFC désigne l’Union fédérale des consommateurs.
[4] . UFC-Que Choisir, op. cit., p.6.
[5] UFC-Que Choisir, op. cit., p.6, et ANSM, « Médicaments ayant fait l’objet d’un signalement de rupture ou de risque de rupture de stock », 9 septembre 2021.
[6] . UFC-Que Choisir, op. cit., p.7.
[7] UFC-Que Choisir, op. cit., p.9.
[8] UFC-Que Choisir, op. cit., p.10.
[9] UFC-Que Choisir, op. cit., p.12.
[10] LEEM, « Tensions et risque de ruptures des médicaments. L’urgence de la sécurisation des approvisionnements », juillet 2021, p.2.
[11] LEEM, op. cit., p.3.
[12] LEEM, « Pénurie de médicaments : comment les réduire ? », 17 septembre 2021, p.2.
[13] Parlement européen, Commission de l’environnement, de la santé publique et de la sécurité alimentaire, « Rapport sur la pénurie de médicaments – comment faire face à un problème émergent », 22 juillet 2020, p.35.
[14] European Association of Hospital Pharmacists.
[15] EAHP, « Medicines Shortages in European Hospitals, EAHP Survey », novembre 2018, p.10.
[16] EAHP, op. cit., p.11.
[17] EAHP, op. cit., p.30.
[18] EAHP, op. cit., p.29.
[19] FDA, « Drug Shortages for Calendar Year 2020 », Report to Congress, juin 2021, p.2.
[20] American Society of Hospital Pharmacists (ASHP), « National Drug Shortages : New Shortages by Year », January 2001 to December 31, 2021.
[21] Pharma.be, « Pénuries de médicaments : le système belge est plus performant que d’autres », 9 mars 2022.
[22] Test Achat Santé, 19 décembre 2020.
[23] The European Public Health Alliance (EPHA) en anglais.
[24] En Marche, 3 décembre 2019. En Marche est le bimensuel des Mutualités chrétiennes en Belgique.
[25] C’est-à-dire qui contient de la bile, ce liquide sécrété par le foie pour aider à la digestion.
[26] Institut Pasteur, « BCG et cancer de la vessie : vers un nouveau protocole pour les patients ? », Communiqué de presse, 6 juin 2012. L’article scientifique est signé Biot, C., Rentsch, C., Gsponer, J., Birkhäuser, F., Jusforgues-Saklani, H., Lemaître, F., Auriau, C., Bachmann, A., Bousso, P., Demangel, C., Peduto, L., Thalmann, G. & Albert, M., « Preexisting BCG-Specific T Cells Improve Intravesical Immunotherapy for Bladder Cancer », Science Translational Medicine, vol.4 n°137, 6 juin 2012. Le Science Translational Medicine est le journal le plus prestigieux dans le domaine de la médecine appliquée, dite translationnelle.
[27] La firme livrait 60% du marché mondial (Libération, 27 juillet 2012).
[28] Le Quotidien du Médecin, 22 novembre 2016.
[29] Les Echos Investir, 18 novembre 2016. Cela n’empêche nullement la multinationale française de continuer à investir sur le site de Toronto, notamment 335 millions d’euros en 2018 pour la fabrication d’antigènes dans le cadre de la confection de vaccins et 600 millions en 2021 dans une unité de production d’antigrippaux.
[30] France Bleu, 29 janvier 2020.
[31] ▻https://pharmastatut.be.
[32] UFC-Que Choisir, op. cit., p.11.
[33] Rozenn Le Saint, « Pénurie de médicament : un tri est fait pour soigner des cancéreux », Mediapart, 30 janvier 2020.
[34] De nouveaux produits réalisés par d’autres firmes semblent venir en supplément pour faire face à cette carence actuelle.
[35] GSK, « GSK extends strategic collaboration with Aspen », Press Release, 11 mai 2009.
[36] Lotz, J., op. cit.
[37] Lotz, J., op. cit.
[38] Test Achat Santé, 11 février 2021.
[39] The Times, 14 avril 2017.
[40] Commission européenne, Communication de la Commission publiée conformément à l’article 27, paragraphe 4, du règlement (CE) no 1/2003 du Conseil dans l’affaire AT.40394 — Aspen, Journal officiel de l’Union européenne, 15 juillet 2020, p.C 233/8.
[41] Commission européenne, Questions et réponses, 10 février 2021.
[42] GSK, « GlaxoSmithKline announces intention to sell remaining holding in Aspen », Press Release, 28 septembre 2016.
[43] The Guardian, 28 janvier 2017.
[44] EurActiv, 31 octobre 2017.
[45] El País, 27 septembre 2011.
[46] The Guardian, 28 janvier 2017.
[47] La Tribune Afrique, 15 juin 2017.
[48] Sénat français, « Pénuries de médicaments et de vaccins : renforcer l’éthique de santé publique dans la chaîne du médicament », Rapport d’information n°737, 27 septembre 2018, p.89.
[49] Le Club des Acheteurs de Produits de Santé (Claps) réunit les principaux acheteurs hospitaliers, privés et publics.
[50] Sénat français, op. cit., p.90.
[51] Commission européenne, « Stratégie pharmaceutique pour l’Europe », 25 novembre 2020, p.20.
[52] Sénat français, op. cit., p.19.
[53] Sénat français, op. cit., p.20.
[54] Active Pharmaceutical Ingredient (ingrédient pharmaceutique actif).
[55] Abecassis, P. et Coutinet, N., Économie du médicament, éditions La Découverte, Paris, 2018, p.82.
[56] Sénat français, op. cit., p.61.
[57] Abecassis, P. et Coutinet, N., op. cit., p.83.
[58] Parlement européen, Commission de l’environnement, de la santé publique et de la sécurité alimentaire, « Rapport sur la pénurie de médicaments – comment faire face à un problème émergent », 22 juillet 2020, p.35.
[59] Le Point, 11 août 2020.
[60] Sénat français, op. cit., p.64.
[61] Deleu, X. et Le Saint, R., « Médicaments : les profits de la pénurie », Arte, 26 avril 2022.
[62] Petitjean, O., « Quand les labos abandonnent leur mission de santé publique pour ressembler à Nike ou Apple », Pharma Papers, 16 janvier 2019.
[63] Biot, J., Benhabib, A. et Ploquin, X., « Rapport au Premier ministre. Mission stratégique visant à réduire les pénuries de médicaments essentiels », Ministère des Solidarités et de la Santé, 18 juin 2020, p.17.
[64] Après la fusion avec un autre bureau d’études américain Quintiles, IMS est devenu IQVIA.
[65] Sénat français, op. cit., p.64.
[66] France Inter, 9 novembre 2020.
[67] Sénat français, op. cit., p.91.
[68] Coriat, B., Penser à l’envers, éditions Christian Bourgois, Paris, 1991, p.23.
[69] Sénat français, op. cit., p.93
[70] Sénat français, op. cit., p.264.
[71] Sénat français, op. cit., p.75.
[72] Sénat français, op. cit., p.9.
[73] Sénat français, op. cit., p.95.
[74] Au départ, lorsqu’il est fondé en 2002, UMP signifiait Union pour la majorité présidentielle. Il est devenu ensuite Union pour un mouvement populaire. En 2015, l’ancien président Nicolas Sarkozy transforme ce parti en Les Républicains.
[75] Contribution de Cohen, L., sénatrice du Val-de-Marne, et Apourceau-Poly, C. au nom du groupe Communiste républicain citoyen et écologiste (CRCE) in Sénat français, Pénuries de médicaments et de vaccins : renforcer l’éthique de santé publique dans la chaîne du médicament, Rapport d’information n°737, p.292.
[76] Les Echos, 17 janvier 2019.
[77] Le Monde, 9 septembre 2021.
[78] Gonçalves, A., « Pénuries de médicaments essentiels et explosion du prix des thérapies innovantes : pourquoi un pôle public du médicament est nécessaire », Economie & Politique, janvier-février 2021, p.49.
La technologie V2G permettrait « d’éviter la construction de 3 à 4 centrales nucléaires »
▻https://www.actu-environnement.com/ae/news/video-technologie-V2G-recharge-bidirectionnelle-ENR-reseau-41045
La technologie V2G permet aux voitures électriques de devenir un moyen de stockage pour le réseau électrique national. Elle repose sur la mise en œuvre de bornes de recharge bidirectionnelles : soit elles assurent la recharge de la batterie d’un véhicule électrique, soit elles la déchargent pour répondre aux besoins du réseau. Et tout est programmable pour que l’utilisateur du véhicule soit sûr de ne pas manquer d’énergie au moment du démarrage. L’automobiliste devient donc fournisseur d’électricité qu’il vend en échange des services rendus au réseau électrique. Un réseau qui doit faire face à certains moments à une production électrique supérieure à la demande en raison des énergies renouvelables intermittentes. L’idée est donc de stocker les surplus d’électrons issus des ENR en attendant de les utiliser aux moments les plus opportuns et éviter ainsi le recours aux énergies carbonées.
How Stokely Carmichael Helped Inspire the Creation of C-SPAN – Mother Jones
▻https://www.motherjones.com/media/2022/08/stokely-carmichael-kwame-ture-cspan-brian-lamb
In the late 1960s, Brian Lamb, the eventual founder of the cable network C-SPAN, sat at a Black Baptist church watching Stokely Carmichael give a speech. Lamb, fresh off a four-year stint in the U.S Navy, came away impressed. He found the talk by the leader of the Student Non-Violent Coordinating Committee (SNCC) “thoughtful and intelligent and very well stated.” But, later that night, when Lamb watched coverage of the same speech on TV he was taken aback.
The news broadcast only played the two minutes when Carmichael was at his most incendiary. “What made it on was the fire and brimstone,” Lamb would later tell the New York Times of the experience. “It just seemed to me we were being unfairly treated as a society by the television news,” he lamented.
About a decade later Lamb founded the Cable Satellite Public Affairs Network, also known as C-SPAN. While the network is most known now for wall-to-wall congressional coverage, it was Carmichael’s unfair representation by white media that Lamb has said helped inspire the attempt to bring the public news without imposition. He wanted a channel “where everybody gets to see everything from start to finish,” he told the Times.
I was surprised by this connection. I discovered Lamb’s epiphany in the excellent autobiography Ready For Revolution: The Life and Struggles of Stokely Carmichael (Kwame Ture).
In the latter half of his life Carmichael embraced revolutionary Pan-African socialism, founded the All African Peoples Revolutionary Party, and changed his name to Kwame Ture—a combination of Kwame Nkrumah and Ahmed Sékou Touré, two former decolonial leaders of Ghana and Guinea. In 1969, Ture left the United States to make his home in Conakry, Guinea. One of the best explanations of this transformation can be found when Ture sat down for an interview with Lamb in 1998. (It was shortly before Ture’s death, while he was in Harlem for cancer treatments.)
Ture writes this of the conversation:
Mr. Lamb proved an interesting fellow, well-informed and tough-minded. His questions were sharp but fair. Not biased or hostile as is so often the case with the U.S media. … I admire Mr. Lamb’s public spiritedness and resourcefulness and I think his initiative to be especially necessary given the general debasement of political discourse in the American media.
Lamb was at the helm of the network as CEO until 2012, before retiring from media fully in 2019. Some have argued that by giving politicians the ability to speak directly to the viewer without mediation, C-SPAN was a gift to demagogues like former House Speaker Newt Gingrich, and paved the way for the rise of Donald Trump. But this origin story shows another angle.
In an exit interview with The New Republic, Lamb explained why he rarely imposed himself on a subject: “It’s probably a learned respect for the average intelligence of the American public to figure it out for themselves, right or wrong. I’m a pessimistic optimist. It’s just the way I am. Every time I said to myself, ‘I know that person isn’t telling the truth,’ my reaction was: ‘So does the caller at the other end of the line.’”
This “view from nowhere” approach to journalism can normalize injustice. But attacking the faux-neutrality of the status quo isn’t the same as assuming a child-like stupidity from audiences.
While reading Ready For Revolution, including this history of C-SPAN, I delved deeper into more Ture videos on YouTube. Having spent a life taking notes from street corner preachers in Harlem, Black Baptist ministers in the deep South, and revolutionary leaders in West Africa, Ture is a fantastic and nimble orator with an underrated sense of humor. Many of his speeches are readily available now, thanks in part to the network and amateur archivists.
I have one clip that is a personal favorite. In it, Ture explains the importance of good faith inquiry, of listening to what someone actually says instead of what other people say about them. You should just watch it.
#Stockeley_Carmichael #Télévision #Context_collapse #Effondrement_de_contexte
California is getting drenched. So why can’t it save water for the drought? : NPR
▻https://www.npr.org/2023/01/07/1147494521/california-weather-storm-water
On the different challenges with capturing rainwater
Because the water falls at a very fast rate and it creates a hazard, we do tend to treat stormwater as a nuisance and try to get it off the landscape as quickly as possible.
So, when we have the option to hold that water back a little bit and let it percolate into the ground, this is a tremendous opportunity. However, sometimes that water is not suitable for drinking. That’s an additional bottleneck because you can’t treat the water as quickly as it’s falling or as quickly as it’s running off. And, of course, the level of treatment you need might vary from place to place, and it does create quite a logistical challenge in order to deal with that water.
Les eaux de pluies, une fois en contact avec le sol, sont majoritairement polluées par les intrants agricoles... surtout en agriculture chimique (raisonnée, toussa).
Et ça entraine aussi le sol lui même... ce qui est une perte colossale.
Ils doivent bien savoir cela. On essaye en général de protéger les « bassins versants » des intrants (par des lois) pour permettre que la filtration par le sol n’entraine déjà pas trop de chimie vers les nappes.
« Pénurie » d’essence chez TotalEnergies : le gouvernement puise dans ses stocks stratégiques... de quoi s’agit-il ?
▻https://www.ladepeche.fr/2022/10/06/ruee-des-conducteurs-chez-totalenergies-le-gouvernement-puise-dans-ses-sto
Hors de question de parler de « pénurie », estime le porte-parole du gouvernement Olivier Véran. Il préfère parler de « tensions » dans l’approvisionnement en carburant. […] Ainsi, selon Olivier Véran, le gouvernement a « puisé dans les stocks stratégiques (...) ça et là » pour alimenter des stations à sec.
Individualisme pandémique | Mediapart | 07.08.22
▻https://www.mediapart.fr/journal/france/070822/face-une-pandemie-faut-il-se-contenter-d-outils-imparfaits
De nombreux chercheurs et chercheuses l’ont souligné durant cette crise : la France, qui était à l’origine même de la santé publique à la fin du XVIIIe siècle, est maintenant l’un des pays les plus focalisés sur le soin individuel curatif. « En matière de dépenses nationales de santé, chaque fois que nous dépensons 100 euros, 96 euros vont aux soins individuels et 4 euros seulement à la prévention organisée. Le déséquilibre est très fort alors que les pays à forte politique de santé publique sont plutôt sur un ratio de 90/10 », déplore William Dab.
Pour cet ex-directeur général de la santé, « nous avons été remarquables dans le domaine des soins : nous avons été l’un des pays où il y a eu le moins de pertes de chance. En revanche, en ce qui concerne la prévention, il y beaucoup de choses à rebâtir ». À commencer par accepter d’autres approches que la médecine curative individuelle, des approches où le « plus » est souvent mieux que le « parfait », où le mieux est parfois l’ennemi du bien.
#France #santé_publique #dépenses_nationales #budget #santé #prévention #médecine_curative_individuelle #soins_individuels #médecine_individuelle #collectif #coronavirus #covid-19 #pandémie #tests #test_PCR #coût #dépistage #diagnostic #tests_antigéniques #autotests #industrie_pharmaceutique #masques #stocks #moralisme
Cité dans l’article:
To mask or not to mask: Modeling the potential for face mask use by the general public to curtail the COVID-19 pandemic
Face mask use by the general public for limiting the spread of the COVID-19 pandemic is controversial, though increasingly recommended, and the potential of this intervention is not well understood. We develop a compartmental model for assessing the community-wide impact of mask use by the general, asymptomatic public, a portion of which may be asymptomatically infectious. Model simulations, using data relevant to COVID-19 dynamics in the US states of New York and Washington, suggest that broad adoption of even relatively ineffective face masks may meaningfully reduce community transmission of COVID-19 and decrease peak hospitalizations and deaths. Moreover, mask use decreases the effective transmission rate in nearly linear proportion to the product of mask effectiveness (as a fraction of potentially infectious contacts blocked) and coverage rate (as a fraction of the general population), while the impact on epidemiologic outcomes (death, hospitalizations) is highly nonlinear, indicating masks could synergize with other non-pharmaceutical measures. Notably, masks are found to be useful with respect to both preventing illness in healthy persons and preventing asymptomatic transmission. Hypothetical mask adoption scenarios, for Washington and New York state, suggest that immediate near universal (80%) adoption of moderately (50%) effective masks could prevent on the order of 17–45% of projected deaths over two months in New York, while decreasing the peak daily death rate by 34–58%, absent other changes in epidemic dynamics. Even very weak masks (20% effective) can still be useful if the underlying transmission rate is relatively low or decreasing: In Washington, where baseline transmission is much less intense, 80% adoption of such masks could reduce mortality by 24–65% (and peak deaths 15–69%), compared to 2–9% mortality reduction in New York (peak death reduction 9–18%). Our results suggest use of face masks by the general public is potentially of high value in curtailing community transmission and the burden of the pandemic. The community-wide benefits are likely to be greatest when face masks are used in conjunction with other non-pharmaceutical practices (such as social-distancing), and when adoption is nearly universal (nation-wide) and compliance is high.
▻https://www.medrxiv.org/content/10.1101/2020.04.06.20055624v1
Et aussi cité dans l’article, l’enquête de Mediapart sur la pénurie de masques (déjà plusieurs fois cité sur seenthis) :
Masques : les preuves d’un mensonge d’Etat
Pénurie cachée, consignes sanitaires fantaisistes, propositions d’importations négligées, stocks toujours insuffisants, entreprises privilégiées : basée sur de nombreux témoignages et documents confidentiels, une enquête de Mediapart révèle la gestion chaotique au sommet de l’État, entre janvier et aujourd’hui, sur la question cruciale des masques. Et les mensonges qui l’ont accompagnée. Les soignants, eux, sont contaminés par centaines.
►https://www.mediapart.fr/journal/france/020420/masques-les-preuves-d-un-mensonge-d-etat
Le système alimentaire mondial menace de s’effondrer
Aux mains de quelques #multinationales et très liée au secteur financier, l’#industrie_agroalimentaire fonctionne en #flux_tendu. Ce qui rend la #production mondiale très vulnérable aux #chocs politiques et climatiques, met en garde l’éditorialiste britannique George Monbiot.
Depuis quelques années, les scientifiques s’évertuent à alerter les gouvernements, qui font la sourde oreille : le #système_alimentaire_mondial ressemble de plus en plus au système financier mondial à l’approche de 2008.
Si l’#effondrement de la finance aurait été catastrophique pour le bien-être humain, les conséquences d’un effondrement du #système_alimentaire sont inimaginables. Or les signes inquiétants se multiplient rapidement. La flambée actuelle des #prix des #aliments a tout l’air du dernier indice en date de l’#instabilité_systémique.
Une alimentation hors de #prix
Nombreux sont ceux qui supposent que cette crise est la conséquence de la #pandémie, associée à l’#invasion de l’Ukraine. Ces deux facteurs sont cruciaux, mais ils aggravent un problème sous-jacent. Pendant des années, la #faim dans le monde a semblé en voie de disparition. Le nombre de personnes sous-alimentées a chuté de 811 millions en 2005 à 607 millions en 2014. Mais la tendance s’est inversée à partir de 2015, et depuis [selon l’ONU] la faim progresse : elle concernait 650 millions de personnes en 2019 et elle a de nouveau touché 811 millions de personnes en 2020. L’année 2022 s’annonce pire encore.
Préparez-vous maintenant à une nouvelle bien plus terrible : ce phénomène s’inscrit dans une période de grande #abondance. La #production_alimentaire mondiale est en hausse régulière depuis plus de cinquante ans, à un rythme nettement plus soutenu que la #croissance_démographique. En 2021, la #récolte mondiale de #blé a battu des records. Contre toute attente, plus d’humains ont souffert de #sous-alimentation à mesure que les prix alimentaires mondiaux ont commencé à baisser. En 2014, quand le nombre de #mal_nourris était à son niveau le plus bas, l’indice des #prix_alimentaires [de la FAO] était à 115 points ; il est tombé à 93 en 2015 et il est resté en deçà de 100 jusqu’en 2021.
Cet indice n’a connu un pic que ces deux dernières années. La flambée des prix alimentaires est maintenant l’un des principaux facteurs de l’#inflation, qui a atteint 9 % au Royaume-Uni en avril 2022 [5,4 % en France pour l’indice harmonisé]. L’alimentation devient hors de prix pour beaucoup d’habitants dans les pays riches ; l’impact dans les pays pauvres est beaucoup plus grave.
L’#interdépendance rend le système fragile
Alors, que se passe-t-il ? À l’échelle mondiale, l’alimentation, tout comme la finance, est un système complexe qui évolue spontanément en fonction de milliards d’interactions. Les systèmes complexes ont des fonctionnements contre-intuitifs. Ils tiennent bon dans certains contextes grâce à des caractéristiques d’auto-organisation qui les stabilisent. Mais à mesure que les pressions s’accentuent, ces mêmes caractéristiques infligent des chocs qui se propagent dans tout le réseau. Au bout d’un moment, une perturbation même modeste peut faire basculer l’ensemble au-delà du point de non-retour, provoquant un effondrement brutal et irrésistible.
Les scientifiques représentent les #systèmes_complexes sous la forme d’un maillage de noeuds et de liens. Les noeuds ressemblent à ceux des filets de pêche ; les liens sont les fils qui les connectent les uns aux autres. Dans le système alimentaire, les noeuds sont les entreprises qui vendent et achètent des céréales, des semences, des produits chimiques agricoles, mais aussi les grands exportateurs et importateurs, et les ports par lesquels les aliments transitent. Les liens sont leurs relations commerciales et institutionnelles.
Si certains noeuds deviennent prépondérants, fonctionnent tous pareil et sont étroitement liés, alors il est probable que le système soit fragile. À l’approche de la crise de 2008, les grandes banques concevaient les mêmes stratégies et géraient le risque de la même manière, car elles courraient après les mêmes sources de profit. Elles sont devenues extrêmement interdépendantes et les gendarmes financiers comprenaient mal ces liens. Quand [la banque d’affaires] Lehman Brothers a déposé le bilan, elle a failli entraîner tout le monde dans sa chute.
Quatre groupes contrôlent 90 % du commerce céréalier
Voici ce qui donne des sueurs froides aux analystes du système alimentaire mondial. Ces dernières années, tout comme dans la finance au début des années 2000, les principaux noeuds du système alimentaire ont gonflé, leurs liens se sont resserrés, les stratégies commerciales ont convergé et se sont synchronisées, et les facteurs susceptibles d’empêcher un #effondrement_systémique (la #redondance, la #modularité, les #disjoncteurs, les #systèmes_auxiliaires) ont été éliminés, ce qui expose le système à des #chocs pouvant entraîner une contagion mondiale.
Selon une estimation, quatre grands groupes seulement contrôlent 90 % du #commerce_céréalier mondial [#Archer_Daniels_Midland (#ADM), #Bunge, #Cargill et #Louis_Dreyfus]. Ces mêmes entreprises investissent dans les secteurs des #semences, des #produits_chimiques, de la #transformation, du #conditionnement, de la #distribution et de la #vente au détail. Les pays se divisent maintenant en deux catégories : les #super-importateurs et les #super-exportateurs. L’essentiel de ce #commerce_international transite par des goulets d’étranglement vulnérables, comme les détroits turcs (aujourd’hui bloqués par l’invasion russe de l’Ukraine), les canaux de Suez et de Panama, et les détroits d’Ormuz, de Bab El-Mandeb et de Malacca.
L’une des transitions culturelles les plus rapides dans l’histoire de l’humanité est la convergence vers un #régime_alimentaire standard mondial. Au niveau local, notre alimentation s’est diversifiée mais on peut faire un constat inverse au niveau mondial. Quatre plantes seulement - le #blé, le #riz, le #maïs et le #soja - correspondent à près de 60 % des calories cultivées sur les exploitations. La production est aujourd’hui extrêmement concentrée dans quelques pays, notamment la #Russie et l’#Ukraine. Ce #régime_alimentaire_standard_mondial est cultivé par la #ferme_mondiale_standard, avec les mêmes #semences, #engrais et #machines fournis par le même petit groupe d’entreprises, l’ensemble étant vulnérable aux mêmes chocs environnementaux.
Des bouleversements environnementaux et politiques
L’industrie agroalimentaire est étroitement associée au #secteur_financier, ce qui la rend d’autant plus sensible aux échecs en cascade. Partout dans le monde, les #barrières_commerciales ont été levées, les #routes et #ports modernisés, ce qui a optimisé l’ensemble du réseau mondial. On pourrait croire que ce système fluide améliore la #sécurité_alimentaire, mais il a permis aux entreprises d’éliminer des coûts liés aux #entrepôts et #stocks, et de passer à une logique de flux. Dans l’ensemble, cette stratégie du flux tendu fonctionne, mais si les livraisons sont interrompues ou s’il y a un pic soudain de la demande, les rayons peuvent se vider brusquement.
Aujourd’hui, le système alimentaire mondial doit survive non seulement à ses fragilités inhérentes, mais aussi aux bouleversements environnementaux et politiques susceptibles de s’influencer les uns les autres. Prenons un exemple récent. À la mi-avril, le gouvernement indien a laissé entendre que son pays pourrait compenser la baisse des exportations alimentaires mondiales provoquée par l’invasion russe de l’Ukraine. Un mois plus tard, il interdisait les exportations de blé, car les récoltes avaient énormément souffert d’une #canicule dévastatrice.
Nous devons de toute urgence diversifier la production alimentaire mondiale, sur le plan géographique mais aussi en matière de cultures et de #techniques_agricoles. Nous devons briser l’#emprise des #multinationales et des spéculateurs. Nous devons prévoir des plans B et produire notre #nourriture autrement. Nous devons donner de la marge à un système menacé par sa propre #efficacité.
Si tant d’êtres humains ne mangent pas à leur faim dans une période d’abondance inédite, les conséquences de récoltes catastrophiques que pourrait entraîner l’effondrement environnemental dépassent l’entendement. C’est le système qu’il faut changer.
▻https://www.courrierinternational.com/article/crise-le-systeme-alimentaire-mondial-menace-de-s-effondrer
#alimentation #vulnérabilité #fragilité #diversification #globalisation #mondialisation #spéculation