• #Glyphosate et #cancer : un cas d’école de la « fabrique du doute »
    https://www.lemonde.fr/les-decodeurs/article/2025/06/27/glyphosate-et-cancer-un-cas-d-ecole-de-la-fabrique-du-doute_6616084_4355770.

    Glyphosate et cancer : un cas d’école de la « fabrique du doute »
    Une récente étude confirmant le potentiel cancérogène de l’herbicide a fait l’objet de virulentes critiques. Mais elles reposent sur des bases #scientifiques erronées.

    Par #Stéphane_Foucart

    La publication récente d’une étude indiquant une élévation du risque de différentes tumeurs sur des rats de laboratoire exposés à du glyphosate a suscité de nombreux commentaires sur les réseaux sociaux et dans la presse, visant à relativiser ou dénigrer ces travaux. Ces résultats, publiés le 10 juin dans la revue Environmental Health, ne font pourtant que confirmer les conclusions du Centre international de recherche sur le cancer (#CIRC), qui estimait en 2015 que les études disponibles à l’époque offraient des « preuves suffisantes » de #cancérogénicité du glyphosate chez l’animal.

    Les attaques contre cette étude pilotée par l’Institut Ramazzini de Bologne (Italie) offrent un éventail exemplaire des tours de passe-passe de la « fabrique du doute », cette rhétorique visant à miner la confiance dans les résultats scientifiques, souvent utilisée dans le but de retarder ou de combattre des décisions réglementaires.

    « La revue est inconnue, l’étude est donc bancale »
    Eric Billy, un chercheur en immuno-oncologie, a fait partie des critiques les plus virulents contre l’étude de l’Institut Ramazzini, qu’il juge « bancale ». Dans une série de messages publiés le 14 juin sur ses comptes X et Bluesky, qui a bénéficié de nombreux relais, ce salarié de la firme pharmaceutique Novartis a d’abord accusé ses auteurs d’avoir « choisi un journal plus indulgent pour éviter des critiques », expliquant qu’il se serait plutôt attendu à lire cet article dans les revues « Nature, Science ou Cell », gages selon lui de plus grande qualité.

    POURQUOI C’EST PEU PERTINENT
    Environmental Health, publiée par le groupe SpringerNature, compte en réalité au nombre des revues les plus influentes de son domaine. Son taux de citation la situe au 32ᵉ rang des 687 journaux indexés couvrant les champs de la santé publique, la santé environnementale ou la santé au travail, selon le classement 2024 de l’éditeur scientifique Elsevier.

    Les journaux prestigieux comme Nature ou Science ne publient généralement pas de tests comme celui piloté par l’Institut Ramazzini. « Un certain nombre d’études de toxicité fiables et de grande qualité, comme celle que vous nous partagez, sont publiées dans des revues spécialisées, explique Meagan Phelan, porte-parole des publications éditées sous la bannière de la revue Science. Bien qu’il s’agisse d’éléments essentiels de l’évaluation des substances, ces tests ne sont pas considérés comme des avancées conceptuelles et, à ce titre, Science ne les publie généralement pas. »

    « Les animaux exposés vivent aussi longtemps que les autres »
    L’étude du Ramazzini ne met pas en évidence de différence significative de mortalité entre les rats exposés au glyphosate et les rats témoins, non exposés. Cet élément est mis en avant par M. Billy afin de relativiser les conclusions de l’étude. Et il fait mouche : on le retrouve plus tard dans Le Figaro, qui y voit le « premier enseignement » de ces travaux.

    POURQUOI C’EST PLUS COMPLIQUÉ
    Le fait que l’étude ne fasse pas apparaître de différences significatives des taux de survie entre les deux groupes n’est pas présenté par les chercheurs du Ramazzini comme un résultat en soi. Leur protocole est en effet conçu pour détecter le potentiel cancérogène d’un produit, pas son effet sur la survie des animaux : ceux-ci sont tous sacrifiés aux deux tiers de leur vie, à l’âge de 104 semaines. Or, on comprend aisément que si des humains fumeurs étaient comparés à des non-fumeurs, les différences de mortalité seraient minces si tous les individus étaient euthanasiés à l’âge de 50 ans.

    En réalité, l’absence de différence de mortalité entre les groupes d’animaux sur la durée du test est surtout un gage de la qualité de l’étude, pour des raisons statistiques. Un animal mort prématurément aura été exposé moins longtemps à la substance testée, et la probabilité que des tumeurs se développent dans son groupe en sera ainsi diminuée. Son poids statistique dans l’analyse sera ainsi différent. Un taux de survie élevé dans chaque groupe, traité et témoin, est garant du « maintien de la puissance statistique » de l’expérience, selon les guides de bonnes pratiques en toxicologie (conservés par l’OCDE).

    « La souche de rongeurs choisie n’est pas appropriée »
    Plusieurs commentateurs ont par ailleurs critiqué le choix par les chercheurs de l’Institut Ramazzini de la souche de rats dite « Sprague-Dawley ». Eric Billy fait ainsi valoir que le recours à ce type de rats « a déjà été fortement critiqu[é] par la communauté scientifique en raison d’une fréquence anormalement élevée de lésions tumorales spontanées comparé à d’autres souches de rongeurs », en rappelant que cette souche avait été utilisée par Gilles-Eric Séralini dans sa fameuse étude controversée sur les OGM.

    POURQUOI C’EST INEXACT
    En réalité, les taux élevés de tumeurs spontanées observés sur la souche « Sprague-Dawley » ne concernent que certains sites (tumeurs de la glande mammaire, de l’hypophyse, etc., retrouvées à des taux comparables dans les groupes traités et témoin). En outre, les chercheurs ont à leur disposition une abondante littérature pour tenir compte des particularités de cette souche.

    Non seulement la souche « Sprague-Dawley » n’est pas problématique en elle-même, mais elle est la plus utilisée. En 2024, des chercheurs ont montré que plus de 55 % des 263 études de cancérogénicité de principes actifs menés ces dernières années sur des rats ont utilisé cette souche. La cancérogénicité du Ruxolitinib, une substance médicamenteuse commercialisée par Novartis, a par exemple été testée sur cette souche.

    Quant à l’étude de M. Séralini (publiée en 2012, avant d’être rétractée, puis republiée), le choix de la souche ne comptait pas, en soi, parmi les reproches formulés. Comme l’ont résumé en 2015 les experts du CIRC, c’est l’ensemble du protocole mis en œuvre qui était critiqué.

    Un rat de laboratoire de la souche « Sprague-Dawley », développée spécialement pour les études de toxicologie en laboratoire. CC-BY-SA-2.0
    « Les doses testées ne sont pas réalistes »
    Comme plusieurs autres voix critiques, Eric Billy s’étonne des doses élevées de glyphosate auxquelles les rats ont été exposés dans le cadre de d’étude de l’Institut Ramazzini, affirmant que « même la dose la plus faible testée dépasse largement l’exposition [alimentaire] humaine réelle » et que « les deux autres doses sont donc cent et mille fois supérieures à cette exposition humaine ». Même argument et même chiffre dans Le Figaro.

    POURQUOI C’EST PEU PERTINENT
    Cet argument est fréquemment soulevé pour contester la pertinence des résultats des études animales. Or, des millions d’humains exposés pendant des décennies ne peuvent être comparés à une centaine de rats exposés pendant 24 mois. Le but de ces tests est de caractériser le potentiel cancérogène des substances, et non d’évaluer les risques courus par la population aux niveaux réels d’exposition (parfois très supérieurs à l’exposition alimentaire, pour les riverains d’exploitations, les travailleurs agricoles, etc.).

    En fait, le glyphosate est déjà associé chez les agriculteurs à une élévation du risque de certains lymphomes dans quatre méta-analyses et une étude poolée – les plus hauts niveaux de preuve en épidémiologie (ici, ici, ici, là et là). Les études animales permettent d’interpréter ces résultats, en suggérant que ces associations sont indicatrices d’un lien causal.

    Et même en prêtant foi à l’argument de « la dose trop élevée », l’objection ne tient pas la route. L’étude du Ramazzini a en effet étudié l’effet du glyphosate à des doses considérablement plus faibles que toutes les études analogues précédentes. Dans les sept études retenues par les autorités européennes lors de leur dernière évaluation de la molécule herbicide, les plus faibles doses testées étaient 12 à 420 fois plus élevées que dans l’étude du Ramazzini, et les plus fortes expositions 10 à 33 fois supérieures.

    « La voie d’exposition n’est pas adéquate »
    Dans l’étude du Ramazzini, les animaux ont été exposés au glyphosate par le biais de l’eau de boisson, et non la nourriture. M. Billy assure que c’est inadéquat, au motif que les humains sont plutôt exposés par l’alimentation.

    POURQUOI C’EST PEU PERTINENT
    Parmi les études animales sur le glyphosate soumises aux autorités sanitaires ou évaluées par le CIRC, aucune n’a été jugée irrecevable parce qu’elle avait opté pour une exposition analogue. L’eau de boisson est d’ailleurs considérée comme acceptable pour évaluer les « produits chimiques alimentaires ou environnementaux, notamment les pesticides », au même titre que le régime alimentaire, selon le guide de bonnes pratiques nᵒ 451 de l’OCDE.

    Cette fausse controverse est un argument classique. En 1953, les premiers travaux du Sloan Kettering Institute sur le potentiel cancérogène du tabac avaient consisté à observer le développement de tumeurs sur la peau rasée de rongeurs après l’avoir tartinée d’extraits de goudrons tirés de la cigarette. L’American Tobacco Company avait alors critiqué l’utilisation par les scientifiques d’une « forte concentration d’extraits de fumée – entièrement différente de la fumée qu’une personne peut tirer d’une cigarette », tout en affirmant que « tous les scientifiques s’accordent à dire qu’il n’existe aucune relation connue entre cancers de la peau chez les souris et cancers du poumon chez les humains ». Comme les chercheurs du Ramazzini, ceux du Sloan Kettering Institute ne cherchaient pas à mimer exactement l’exposition humaine à l’agent testé (personne ne se tartine de goudrons de cigarette), mais à tester son potentiel cancérogène.

    « Le nombre d’animaux est insuffisant »
    Dans son fil critique, Eric Billy se livre à un calcul estimant que, pour atteindre une plus grande robustesse statistique, les chercheurs du Ramazzini auraient dû utiliser au moins trois fois plus de rats, soit 160 à 220 individus par groupe.

    POURQUOI C’EST INEXACT
    De telles exigences sont fantaisistes. Aucune étude de toxicité chronique ou de cancérogénicité du glyphosate conduite sur des rats n’a jamais enrôlé autant d’individus. Toutes les études analogues à celles du Ramazzini comportent environ 50 rats par groupe. Et pour cause, c’est le seuil recommandé par le document-guide de l’OCDE.

    « Dans le cas présent, il est complètement ridicule d’exiger plus d’animaux par groupe », appuie le biostatisticien américain Christopher Portier, ancien directeur du National Toxicology Program américain, dont les travaux font autorité sur le sujet. Selon ce spécialiste, expert-témoin de plaignants dans plusieurs procès en cours aux Etats-Unis, les chercheurs du Ramazzini « sont parvenus à mettre en évidence une tendance statistiquement significative à l’augmentation de certaines tumeurs chez les animaux traités, quand bien même ils ne sont que 50 par groupe. Pourquoi faudrait-il refaire l’expérience avec plus d’animaux, pour avoir plus de puissance statistique ? »

    En réalité, c’est lorsqu’on ne trouve pas d’#effet_statistiquement_significatif qu’il est possible d’objecter que le nombre d’animaux est trop faible, et qu’il peut être utile d’augmenter la puissance statistique. « Le seul inconvénient d’avoir 50 rats par groupe et non 160 ou 220, c’est de “rater” un effet, certainement pas de voir un effet qui n’existe pas », conclut M. Portier.

    Cet article a bénéficié d’échanges avec les chercheurs de l’Institut Ramazzini et de la relecture critique de trois chercheurs (Inrae et Inserm), associés à des travaux de toxicologie impliquant des études animales.

    –-----------------------

    Qu’est-ce que la « #fabrique_du_doute » ?
    Comme l’ont montré les historiens des sciences Naomi Oreskes (université Harvard) et Erik Conway (NASA) dans un livre de référence (Les Marchands de doute, 2012), la « fabrique du doute » a été mise au point dans les années 1950 par les industriels du tabac, afin de nier ou relativiser les effets de la cigarette.

    Cette rhétorique retourne la science contre elle-même, en dévoyant les instruments intellectuels au coeur de la démarche des scientifiques (doute méthodique, exigence de rigueur, méfiance devant les affirmations perçues comme spectaculaires, etc.). Elle est ainsi très efficace sur les membres des communautés scientifiques et médicales qui ne travaillent pas directement sur les sujets visés, de même que sur les publics attachés à la rationalité et la défense des valeurs de la science, ou encore des journalistes qui reprennent parfois sans recul de tels arguments mis en circulation.

    Technique de propagande très efficace, la « fabrique du doute » nécessite parfois de longs développements pour être démasquée, d’autant qu’elle mêle parfois des critiques légitimes à d’autres, fondées sur des contre-vérités, des contre-sens ou des considérations simplement erronées. Elle constitue une boîte à outils constamment utilisée depuis des décennies par une diversité de secteurs industriels désireux de protéger leurs activités de toute régulation sanitaire ou environnementale.

    • (...)

      🎙️ Enseignant, spécialiste de la #guerre_informationnelle et des enjeux numériques, Fabrice Epelboin décrypte dans cette première partie d’entretien les mutations profondes de nos régimes politiques à l’ère des #réseaux-sociaux.

      Vivons-nous encore en démocratie, ou bien dans une oligarchie ? Les plateformes comme TikTok ou Twitter peuvent-elles être compatibles avec une expression libre et éclairée ? Et comment comprendre les nouvelles droites radicales qui émergent un peu partout dans le monde, des libertariens californiens au trumpisme version Bannon ?

      Un entretien dense, sur l’état des #libertés, la #captologie, la fabrique de l’ #opinion et la fin de la social-démocratie en #Europe.

      ⏱ Chapitres :
      – 00:00:00 – Introduction
      – 00:02:05 – Peter Thiel, JD Vance, le #fascisme de Bannon, #MAGA00:06:59 – Ce que dit la rupture entre #Trump et #Musk
      – 00:11:15 – Pourquoi ce goût pour la censure en France
      – 00:14:50 – Comprendre le bandwagon effect
      – 00:17:54 – Alex Hitchens, AD Laurent… le ridicule de la commission TikTok
      – 00:23:00 – Le divorce entre peuple et élites (immigration, RIC…)
      – 00:29:21 – Algorithmes, captologie, bulles de filtre
      – 00:35:25 – TikTok et la revanche de la #Chine

      🎤 Journaliste : Thomas Arrighi_

    • Maxime Sbaihi est économiste. Nous le recevons à l’occasion de la parution de son deuxième essai “Les balançoires vides, le piège de la dénatalité”

      Il y présente la #dénatalité en long en large et en travers. Pourquoi a t-elle lieu partout sur la planète, quelles sont ses causes potentielles et ses conséquences prévisibles, comment inverser la tendance ?

      Selon lui, il est strictement inconcevable d’envisager des politiques natalistes qui ne respectent pas la liberté de chacun de ne pas faire d’enfants.

      En revanche, il constate que les gens déclarent vouloir faire plus d’ #enfants qu’ils n’en ont et qu’ils s’en sentent empêchés par la #précarité de leurs conditions de vie matérielle.

      Maxime Sbaihi plaide donc pour la mise en place de politiques natalistes qui visent à permettre à ceux qui le souhaitent de faire plus d’enfants

      Nous avons tenté de brosser un panorama complet de son approche sur le sujet.

      00:00 intro
      00:47 La dénatalité est-elle un problème ? Et si oui, qu’est-ce qu’on peut faire pour y remédier ?
      01:54 Tableau global du problème parce qu’il est mondial
      05:12 La dénatalité est sous estimée
      07:10 Qu’est ce qu’un changement de natalité implique sur l’évolution de la population
      12:43 Pourquoi est-ce un problème, concrètement ?
      16:15 Le vieillissement nuit à la prospérité
      20:10 Si on ne prend pas au sérieux le déséquilibre démographique, nos système sociaux n’ont pas d’avenir.
      22:30 Les jeunes s’appauvrissent et les politiques s’en moquent car ils sont trop peu nombreux pour peser démocratiquement
      35:10 la dénatalité, une bonne nouvelle pour la planète ?
      47:00 Le scénario d’une natalité qui baisse jusqu’à 0
      47:54 À quoi ressemblera la démographie mondiale en 2050 si on ne change rien ?
      51:40 Le piège de la basse fécondité : Est-ce qu’on a déjà atteint un point de bascule historique dans le nombre de naissances ?
      55:22 Pourquoi les gens font moins d’enfants ?
      01:19:36 Comment aider les gens qui le souhaitent à avoir des enfants, le natalisme libéral ?
      01:36:00 Et si le natalisme libéral marche pas, on fait quoi ?
      01:43:50 Conclusion

  • La profession d’enseignant-chercheur aux prises avec le #nouveau_management_public

    Ce texte se propose d’analyser différents impacts de la #néolibéralisation de l’enseignement supérieur et de la recherche (ESR) sur le contenu et les #conditions_de_travail des enseignants-chercheurs (EC). L’analyse s’appuie sur les résultats d’une enquête menée entre 2020 et 2022 sur la nature, les causes et les effets des mutations du #travail des EC. Cette recherche visait dans un premier temps à objectiver les évolutions et à saisir les représentations des acteurs à leur sujet. Le second temps entendait analyser les raisons et les vecteurs de ces évolutions. Outre la mobilisation de sources bibliographiques, trois outils ont servi à recueillir des données. Un questionnaire adressé en ligne aux membres des différentes sections du CNU et aux EC en poste dans cinq établissements (aux tailles, localisations et statuts variés), à l’exception de ceux du domaine de la santé [1] a permis de travailler sur 684 réponses complètes reçues. Des entretiens semi-directifs (de 30 à 90 minutes) ont ensuite été menés avec 108 répondants au questionnaire, avec 5 présidents ou vice-présidents d’université (en poste au moment de l’échange) et avec des représentants de 6 syndicats (SNESup, SNESup école émancipée, CFDT, CGT, FO et Sud) [2]. Des résultats provisoires ont enfin été discutés au cours de 7 séminaires réunissant des EC dans le but d’alimenter la réflexion et l’analyse finale. Le livre Enseignants-chercheurs. Un grand corps malade (Bord de l’eau, 2025) rend compte de façon détaillée des résultats de cette recherche.

    On montrera d’abord comment la mise en œuvre des principes du nouveau management public (#NMP) dans l’ESR a entraîné simultanément un alourdissement et un appauvrissement des tâches d’enseignement, de recherche et d’administration incombant aux EC. On abordera ensuite les effets de #surcharge et de #débordements du travail que produisent ces transformations du travail des EC ainsi que les impacts que cela engendre sur leur #moral, leur #engagement et leur #santé.

    Le travail des EC alourdi et appauvri sous l’effet de la #néo-libéralisation et du NMP

    La #néo-managérialisation de l’ESR a démarré dans les années 1990, sans qu’il s’agisse d’une #rupture absolue avec une #université qui aurait jusque-là échappé aux logiques capitalistes dominantes. Parlons plutôt d’une évolution marquée par l’adoption et l’adaptation des principes du néolibéralisme. Promus par la Société du Mont Pèlerin fondée en 1947, puis mis en œuvre à partir des années 1980 (par Thatcher et Reagan), ces principes prônent une réduction des missions et des coûts des services publics s’appuyant sur une gestion comparable à celle des entreprises privées. Il s’agit de rationaliser leur organisation et de réduire leurs budgets, d’instaurer une mise en concurrence interne (entre établissements, départements, équipes et collègues) et externe (avec des organisations privées fournissant des services de même nature), de viser leur rentabilité et de mesurer leur performance. Cela a conduit à favoriser le fonctionnement en mode projet, la diversification des financements en valorisant les #PPP (partenariats public/privé), l’évaluation sur #indicateurs_quantitatifs, les #regroupements… Les objectifs fixés étant l’#efficacité plutôt que l’#équité, l’#efficience plus que l’#utilité_sociale, la #rentabilité avant la qualité de service.

    Ce programme s’applique donc dans l’ESR français à partir des années 1990. En 1998, le #rapport_Attali « Pour un système européen d’enseignement supérieur » répond à une commande de #Claude_Allègre (ministre de l’Éducation nationale, de la Recherche et de la Technologie de 1997 à 2000) qui entend « instiller l’#esprit_d’entreprise dans le système éducatif » (Les Échos, 3 février 1998), une #orientation qui constitue une injonction à visée performative. Dans les établissements, et notamment les #universités_publiques, cette orientation va être conduite par des équipes comptant de plus en plus de technocrates et de managers formés et rompus à l’exercice du NMP qui entendent faire fonctionner une logique inscrite dans la droite ligne du « processus de production, de diffusion et de légitimation des idées néo-managériales en France depuis les années 1970 [3] »

    Le rapport Attali propose un cadre européen inspiré d’orientations de l’OCDE. Lors de la célébration du 800e anniversaire de la Sorbonne, toujours en 1998, les dirigeants français, allemand, britannique et italien lancent un appel pour « un cadre commun de référence visant à améliorer la lisibilité des diplômes, à faciliter la mobilité des étudiants ainsi que leur employabilité ». Dès 1999, 25 autres pays européens signent cet appel et donnent naissance au « #processus_de_Bologne » destiné à créer un Espace européen de l’enseignement supérieur avant 2010. En mars 2000, l’Union européenne rejoint ce projet, qui débouche sur la #stratégie_de_Lisbonne proposant de créer un « #marché_de_la_recherche ». C’est dans ce contexte qu’intervient la #bureaucratisation_néolibérale de l’ESR français qui va transformer la « #gouvernance » de l’ESR, ainsi que le travail et les conditions de travail de ses salariés, dont celles des EC.

    Parallèlement à la dégradation des #taux_d’encadrement (notamment en licence [4], avec des variations entre disciplines et établissements) et aux baisses d’effectifs et de qualification des personnels d’appui, les EC assument des tâches liées à l’enseignement de plus en plus nombreuses, diverses et complexes. Il s’agit notamment d’un travail d’#ingénierie_pédagogique de plus en plus prenant, d’une coordination de plus en plus fréquente d’équipes pédagogiques comprenant des précaires en nombre croissant (dont ils doivent aussi assurer le recrutement et le suivi), de réponses aux injonctions à la « #professionnalisation » (impliquant de faire évoluer les contenus de formation, en réécrivant les maquettes de diplôme en « compétences » [5], en multipliant le nombre de #stages à encadrer et en travaillant sur les #projets_professionnels des étudiants), d’une #complexification de l’#évaluation des étudiants due à la #semestrialisation, à des délais de correction raccourcis, à la « #concurrence » du web et désormais de l’IA et d’une prise en charge d’activités de #marketing et de #communication destinées à vanter, voire à « vendre », les diplômes, les parcours, l’établissement.

    - « On subit une accumulation de #micro-tâches, qui devient chronophage même si c’est souvent des bonnes idées. Par exemple, l’université nous demande de présenter les masters en faisant venir d’anciens étudiants, ce qu’on fait déjà deux fois pour les étudiants de L3 et aux journées portes ouvertes. Ils nous demandent de faire une présentation de plus pour diffuser plus largement sur des plateformes et toucher un public plus large. […] Autre exemple, on nous demande de refaire un point sur les capacités d’accueil de nos masters, et il faut refaire le travail. […] En fait, toute l’année on nous demande des #petits_trucs comme ça. » (PU en sciences de l’éducation et de la formation, en université).

    Une même dynamique opère du côté de la recherche, les activités sont aussi accrues et diversifiées dans un contexte de raréfaction des personnels d’appui, notamment en lien avec la #concurrence aiguisée entre chercheurs, entre labos, entre UFR, entre établissements. Cette évolution c’est aussi la baisse des #budgets_récurrents et la chasse aux #financements, en répondant à des #appels_à_projets émanant de institutions publiques (ANR, ministères, UE) ou d’acteurs privés, la course aux #publications dans les revues classées, en anglais pour certaines disciplines, la multiplication des #évaluations par les établissements, les agences (AÉRES puis #HCÉRES…), les tutelles, le ministère, l’œil rivé sur les classements, notamment celui de Shanghai.

    - « Une partie du temps, on est plus en train de chercher des budgets et de faire du #reporting que de faire la recherche elle-même. Sans compter qu’il faut publier pour être valorisé. Il y a des collègues dont on se demande ce qu’ils publient, parce que leur temps de recherche en fait, c’est du temps d’écriture, mais on ne sait pas sur quoi. » (PU en civilisation américaine en université).
    - « Si on regarde les laboratoires, il y a beaucoup de chercheurs et peu de personnels associés. Nécessairement, les EC doivent faire face à plus de tâches administratives. Et d’autre part, il y a des choses qui ont été formatées, il faut remplir des fichiers, des indicateurs, cela fait beaucoup de tâches administratives à réaliser. » (PU en électronique en IUT).

    À cela s’ajoutent les activités de sélection, de recrutement et de management des étudiants et des doctorants sur des plateformes aux performances discutables (#ParcoursPlus, #Mon_master, Adum), des ATER, des postdocs et des enseignants vacataires et contractuels, ainsi que de titulaires lorsqu’il faut siéger en comité de sélection quand des postes de MCF et PU (Professeur d’Université) sont ouverts. Il faut ici souligner la #surcharge spécifique pesant sur les #femmes, notamment PU, compte tenu des règles de parité (un COS doit compter au moins de 40% de membres de chacun des deux genres) et des inégalités de #genre dans les carrières [ 7].

    Les EC doivent aussi prendre en charge des activités d’information, d’évaluation et de valorisation à destination de divers instances et organismes, dans des délais souvent courts, au moyen d’outils numériques plus ou moins fiables et compatibles. Ces comptes à rendre portent en particulier sur la qualité des cursus, les débouchés professionnels et les taux d’insertion des diplômés, les coûts en heures et en masse salariale des cours, des TD et des TP, les résultats en termes de présence aux examens, de notes, de diplômés, d’abandons en cours de cursus…

    – « Je me sens être très gestionnaire, animatrice, gentille organisatrice une grande partie de mon temps. C’est quelque chose que je n’avais pas du tout anticipé en entrant dans ce métier, parce que je ne pensais pas avoir autant de #charges_administratives. […] Dès la 3è année après mon recrutement, j’étais directrice des études, à faire des emplois du temps, recruter des vacataires, travailler un petit peu le contenu de leurs interventions, mais je devais surtout faire des RH, essayer que ça convienne à chacun, récupérer les papiers qu’on lui demandait pour qu’il soit payé, etc. » (MCF en sociologie en IUT).

    On a ainsi assisté à un double mouvement d’alourdissement er d’appauvrissement du travail des EC sous les effets combinés des injonctions à la professionnalisation (la #loi-LRU de 2007 a ajouté « l’orientation et l’insertion » aux missions de l’ESR) et aux attentes des tutelles en la matière ainsi que des normes budgétaires strictes et des critères « d’#excellence » qui concrétisent l’essor des logiques et des modes de gestion du NMP et la #managérialisation de l’ESR (comparable à ce qu’a connu l’Hôpital,). Il en découle un ressenti fréquent de #perte_de_sens et un #malaise profond.

    – « Il faut se bagarrer pour trouver à garder du #sens au métier. Ça c’est très clair. […] On nous impose les choses, donc effectivement, il y a une perte de sens, enfin je ne sais pas si c’est une perte de sens mais on a une perte de la maîtrise de notre métier. »(MCF HDR en didactique de l’histoire en Inspé).
    - « Quand j’ai démarré au début des années 2000, j’avais l’impression d’être en phase avec mon travail et peut-être plusieurs de mes collègues aussi. J’ai l’impression qu’il y avait une sorte de vision collective partagée. Cette vision collective partagée, je la sens moins parce que je sens des #découragements, je sens des #lassitudes. Le partage de la mission de chercheur, c’est plus compliqué et le partage de la vision de la mission d’enseignement pour moi, elle est galvaudée. » (MCF HDR en chimie en université).

    Le #moral et la santé des EC pâtissent des #surcharges et débordements vécus par les EC.

    La détérioration des situations de travail vécue par les EC produit des effets à la fois sur leur état moral, leur #engagement_professionnel et leur état de santé. Les surcharges combinées au sentiment de ne plus pouvoir faire leur travail correctement sont à l’origine de nombreuses #souffrances. Leur travail a été peu à peu alourdi par une accumulation de tâches dont une partie tient à la #procédurisation qui concrétise « la #bureaucratisation_néolibérale ». Cela nourrit un important « #travail_caché », invisibilisé et non rémunéré, qui conduit à la fois à accroître et à hacher l’activité.

    Il en découle des #surcharges_temporelles (extension de la durée du travail professionnel), des #surcharges_mentales (dues à l’accumulation de sujets et de préoccupations) et des #surcharges_cognitives (liées aux changements récurrents de registres d’activité).

    - « L’université française s’écroulerait si nous ne consentions pas à faire un travail parfois considérable gratuitement ou presque. » (PU en langue et civilisation)

    L’#intensification_du_travail qui passe par un accroissement du travail invisible, ou plus justement invisibilisé, des EC, implique des débordements fréquents de leur vie professionnelle sur leur #vie_personnelle (aussi bien du point de vue du temps que de celui des lieux). Ce phénomène a été aggravé par l’usage d’outils (téléphone mobile, micro-ordinateur, tablette) et de dispositifs techniques (mails, réunions et cours à distance, remontées de datas, recherches sur le web) qui favorise le travail en tout lieu et à tout moment, et donc le brouillage des frontières entre travail et hors-travail.

    - « Je pense que tous les collègues font un peu comme moi, le temps d’écriture des articles est pris surtout sur le samedi et le dimanche, donc sur le temps personnel, en fait. Parfois, les conjoints ont du mal à s’y faire, mais moi non, mon conjoint est un chercheur. Globalement, on travaille tous les jours. Sinon, ça ne passe pas. Ou alors, on ne fait que de l’enseignement et on écrit un article par an. » (PU en histoire du droit en université).

    Le débordement temporel et spatial est un fait massif difficile à mesurer pour les EC car ceux-ci, comme tous les enseignants, ont toujours travaillé à la fois sur leur lieu de travail et à leur domicile ou en vacances (pour préparer des cours, corriger des copies et des mémoires, lire et écrire des travaux scientifiques, tenir des RV et réunions à distance).

    La porosité des frontières entre lieux de travail et de vie, entre temps de travail et hors-travail est ambivalente. D’un côté, elle permet aux EC de choisir où et quand ils travaillent, à l’inverse de la plupart des salariés. Cette souplesse d’organisation procure un sentiment de liberté, et une liberté réelle, qui facilite la conciliation entre obligations professionnelles et activités personnelles, domestiques, familiales. Mais, c’est aussi un piège qui met en péril la vie personnelle et familiale en impliquant une absence de limite aux temps et aux espaces consacrés au travail. Ce risque est d’autant plus grand que ce sont souvent les activités de recherche (à la fois les plus appréciées et les plus empêchées au quotidien) qui trouvent place en dehors des lieux et temps de travail. Beaucoup d’EC en viennent alors à accepter, voire à rechercher, ces débordements du travail pour retrouver le plaisir de faire ce qu’ils aiment dans un contexte plus favorable qu’au bureau (environnement calme et agréable) et à l’abri de sollicitations multiples (passages, appels téléphoniques, mails urgents, etc.). Ne peut-on évoquer ici une forme d’#aliénation, voire de « #servitude_volontaire » ? Cela rappelle ce que différentes enquêtes ont montré chez des cadres du secteur privé qui, en travaillant chez eux, y compris le soir, le week-end ou en congé, retrouvent comme ils le disent une « certaine continuité temporelle » et un « cadre spatial favorable à la #concentration ».

    - « Il faut avoir le #temps de faire sa recherche, on est dans une espèce de course à l’échalote permanente. Moi, j’ai eu beaucoup de chance, je ne veux pas cracher dans la soupe, j’ai pu travailler sur ce que je veux, et après à moi de trouver de l’argent. Mais, c’est un métier où ça peut être très dangereux si on ne trouve pas son équilibre. Moi, ça m’a coûté certaines choses au niveau personnel [un divorce !] parce qu’il est arrivé un moment donné où je ne dormais plus la nuit parce que je voyais tout ce que je n’avais pas eu le temps de faire. J’ai eu besoin de faire un travail sur moi pour me ressaisir et me dire que si je n’avais pas fait ça ou ça, ce n’était pas si grave, personne n’est mort à cause de ça, on se détend. J’ai eu de la chance, j’ai refait ma vie avec quelqu’un qui est professeure des écoles donc avec un rythme peu différent ». (MCF en chimie en université).

    Les inégalités de prise en charge des tâches domestiques, familiales et éducatives entre femmes et hommes, auxquelles n’échappent pas les EC, conduisent à exposer de nombreuses EC à des difficultés spécifiques (contribuant aux inégalités de déroulement de carrière à leur détriment), d’autant que la façon d’exercer le métier, de gérer les relations avec les étudiants et de prendre des responsabilités est aussi marquée par des différences de genre.

    – « Cette intensification du temps de travail s’est encore accrue au moment de mon passage PU, avec certains moments de l’année où pour pouvoir conduire mon activité et honorer mes engagements professionnels, je dois sacrifier tous mes week-ends sur une longue période. […] Il me semble que cette intensification tient aussi à une division sexuée du travail présente dans nos composantes : nombre de mes collègues hommes ayant longtemps refusé de prendre des responsabilités, en tous les cas les responsabilités chronophages et peu qualifiantes dans les CV ». (MCF en communication).
    – « Les femmes sont plus touchées que les hommes car elles assument les responsabilités de care pour les étudiants mais aussi pour leurs proches descendants ou ascendants de manière très déséquilibrée par rapport aux hommes. La charge mentale des femmes EC est très lourde. Concilier maternité et ESR (et donc espérer voir évoluer sa carrière) est mission impossible sauf pour celles qui ont un conjoint ou un réseau personnel sur lesquels s’appuyer. L’explosion des publications émanant d’EC masculins pendant la pandémie en est un bon exemple ». (MCF en anglais).

    Ces débordements s’inscrivant dans un contexte de dégradation de la qualité du travail et des conditions de sa réalisation contribuent à nourrir un sentiment d’#insatisfaction. C’est aussi de la #désillusion et diverses #souffrances_morales mais aussi physiques qui découlent de cette combinaison mortifère entre surcharges, débordements et insatisfaction.

    - « Moi, j’ai beaucoup de désillusions sur mon métier. Beaucoup d’#amertume, en fait. […] Quand on est enseignant-chercheur, on démarre, on est à fond, on en veut, etc. On a plein d’envies, on a plein d’ambition, puis on arrive dans la réalité et on prend un gros coup dans la figure et ça t’arrête net. Parce qu’on te colle tout de suite une responsabilité. […] Et tout ça pour un salaire de m… ! […] Moi je trouve que former des gens comme on les forme pour faire ça, c’est du gâchis franchement. » (Vice-présidente d’une université en poste).

    Ce qui mine et fait mal, comme l’évoquent de nombreux EC quand ils décrivent l’évolution de leur métier, c’est en particulier l’impression de devoir travailler toujours plus avec toujours moins de moyens disponibles, et donc pour un résultat dégradé ; ils ont le sentiment d’un « #travail_empêché » (comme le nomme Yves Clot) parce qu’ils se sentent empêchés de faire un travail de qualité comme ils savent et voudraient le faire ; ils ont des doutes sur la réalité de ce qu’ils font par rapport à ce qu’ils attendent de leur travail et ce qu’ils pensent que doit être le #service_public.

    Beaucoup des EC interrogés durant l’enquête se demandent ce qu’est devenu leur travail, quel sens ils peuvent encore lui donner et quel avenir attend l’université (et plus largement l’ESR). Si la plupart acceptent que le cœur de leur métier dépasse largement les seules activités de base d’enseignement et de recherche, ils doutent de plus en plus de pouvoir faire ce métier, auquel ils sont attachés, dans les règles de l’art telles qu’ils les conçoivent, et en particulier avec l’attention requise et les résultats voulus.

    - « Je pense que le métier d’enseignant-chercheur au-delà des 35 heures, ce n’est pas trop quelque chose de nouveau. Un chercheur, je pense qu’il a toujours beaucoup travaillé le soir. Mais peut-être que maintenant, on n’arrive plus à trouver le temps de tout faire ce qu’on nous demande. Et peut-être que ça, c’est nouveau ». (PU en biologie en IUT).
    – « J’ai vraiment du mal à croire qu’on puisse faire les trois choses ensemble. C’est-à-dire à la fois avoir une activité de recherche de haut niveau, avoir un investissement dans l’enseignement qui permet, enfin selon le critère qui est le mien, de renouveler ses cours extrêmement régulièrement pour ne pas se répéter, et en plus avoir des fonctions administratives ». (MCF en histoire en université).

    Cela fait émerger des questions majeures : à quoi et à qui sert aujourd’hui le travail des EC ? Sont-ils en mesure de réaliser des enseignements et des recherches de qualité ? Que devient le service public de l’ESR ? Ces questionnements rejoignent les trois dimensions majeures du sens du travail énoncées : son utilité vis-à-vis de ses destinataires, le respect de leurs valeurs éthiques et professionnelles, et le développement de leurs capacités.

    – « Il faut se bagarrer pour trouver à garder du sens au métier. Ça c’est très clair. […] On nous impose les choses, donc effectivement, il y a une perte de sens, enfin je ne sais pas si c’est une perte de sens mais on a une perte de la maîtrise de notre métier. » (MCF HDR en didactique de l’histoire en Inspé).

    Les différentes évolutions que nous venons de décrire peuvent s’interpréter comme les signes d’un risque de #déprofessionnalisation, un processus à la fois lent et peu visible prenant la forme d’une remise en cause ce qui fonde leurs « gestes professionnels » et de leur #identité_professionnelle ». Ce dont on parle ici ne concerne pas seulement tel ou tel individu, mais le groupe professionnel des EC à travers trois aspects.

    Le premier élément est une déqualification liée au fait que les EC sont de plus en plus souvent chargés de tâches ne correspondant ni au contenu, ni au niveau de leurs savoirs et de leurs objectifs. La deuxième dimension concerne la perte d’#autonomie à rebours de la #liberté_académique et de l’autonomie affirmées dans les textes. Le troisième aspect est le sentiment massivement exprimé durant l’enquête de l’#inutilité d’une part croissante du travail réalisé par rapport à ce que les EC voudraient apporter à leurs étudiants, et plus largement à la société qui finance leurs salaires, ce qui touche au cœur de l’identité fondant leur profession.

    La managérialisation de l’ESR alimente ce risque de déprofessionnalisation en enrôlant les EC dans les évolutions de leur travail et de leurs conditions de travail qui leur déplaisent, en les conduisant à faire - et pour ceux qui ont des responsabilités à faire faire à leurs collègues - ce qui les fait souffrir et que, pour partie, ils désapprouvent. C’est sans doute une des réussites du NMP que d’obtenir cette mobilisation subjective, comme la nomme la sociologue Danièle Linhart.

    La question de la déprofessionnalisation des EC mérite sans aucun doute d’être approfondie en termes de causes, de manifestations et d’effets. En l’état actuel de l’analyse, c’est une hypothèse à creuser dans le cadre d’un questionnement sur les impacts - et l’efficience - des modes de gestion impulsés par le nouveau management public et la bureaucratisation néolibérale.

    Si cette enquête ne suffit évidemment pas à établir un diagnostic global sur la santé des EC, elle permet néanmoins de mettre à jour des réalités peu connues et alarmantes. Ainsi, le terme épuisement est souvent revenu : il est employé spontanément par 45 répondants au questionnaire (dont 31 femmes). Il est évoqué 10 fois en réponse à la question : « Rencontrez-vous ou avez-vous rencontré des difficultés pour concilier vos différents activités professionnelles (enseignement, recherche, tâches administratives) ? Si oui, lesquelles ? ». Le stress, lui, est explicitement abordé dans 35 réponses (29 femmes) sans compter celles qui parlent du stress des étudiants et des Biatss. 17 répondants (dont 13 femmes) parlent de burn-out. Dans 7 de ces 17 cas, les répondants témoignent de burn-out subi par eux-mêmes ou par un membre de leur équipe au cours des dernières années. Les autres évoquent le risque ou la peur d’en arriver là. Les deux verbatims suivants illustrent l’importance de cette question.

    – « Il y a 20 ans, les réunions pouvaient durer 1 heure, 1 heure et demie. Aujourd’hui, il n’y a pas une réunion du CHSCT qui dure moins de 3 ou 4 heures. Parce qu’il y a un nombre incroyable de remontées au niveau des enseignants-chercheurs. […] Dans notre département, il y a eu pas moins de trois burn-out cette année, avec des arrêts maladie, des demandes de collègues de se mettre à mi-temps. » (PU, élu CGT).
    – « Je pense qu’il faut faire très, très attention. On est sur un fil raide. Ça peut basculer d’un côté comme de l’autre. Et je pense qu’on doit arrêter un peu le rythme, les gens sont fatigués, épuisés, donc il faut qu’on trouve un moyen de minimiser un peu les appels à projets. C’est sur ça qu’on se bat. Les garder, mais en faire moins. […] Bien sûr qu’on manque de moyens et bien sûr qu’il faut qu’on fasse comprendre à notre fichu pays que l’enseignement supérieur et la recherche, c’est un investissement. Je crois à ça profondément. » (Présidente d’une université en poste au moment de l’entretien).

    Pour conclure

    La profession des EC ressent assez largement un #malaise mettant en cause leur activité, voire leur carrière. Face à cela, la plupart des réponses sont aujourd’hui individuelles, elles passent pour certains par différentes formes de #surengagement (débouchant parfois sur du #stress, des #dépressions ou du #burn-out), pour d’autres (et parfois les mêmes à d’autres moments de leur carrière) à des variantes de désengagement (vis-à-vis de certaines tâches) pouvant aller jusqu’à diverses voies d’Exit (mises en disponibilité, départs en retraite avant l’âge limite, démissions très difficiles à quantifier). Les solutions collectives ont été assez décrédibilisées, notamment après l’échec du mouvement anti-LRU. De nouvelles pistes restent à imaginer et à construire pour ne pas continuer à subir les méfaits de la néo-libéralisation de l’ESR et trouver des alternatives aux dégradations en cours.

    [1] La situation des MCF-PH et des PU-PH à la fois EC à l’université et praticiens en milieu hospitalier étant très particulière.

    [2] Les verbatims présentés dans cette communication sont extraits des réponses au questionnaire ou des entretiens.

    [3] Bezès P. (2012). « État, experts et savoirs néo-managériaux, les producteurs et diffuseur du New Public Management en France depuis les années 1970 », Actes de la recherche en Sciences Sociales, n° 3, p. 18.

    [4] La massification de l’accès au bac s’est traduite par une très forte hausse du nombre d’élèves et étudiants inscrits dans l’ESR. Sur les 4 dernière décennies, ce nombre a plus que doublé en passant d’un peu moins de 1,2 million (à la rentrée 1980) à près de 2,8 millions (à la rentrée 2020). Le nombre d’EC n’a pas suivi !

    [5] Les diplômes universitaires doivent désormais figurer dans le Répertoire national des certifications professionnelles (le RNCP) conçu dans la logique des compétences.

    [6] Bibliothécaires, ingénieurs, administratifs, techniciens, personnels sociaux et de santé de l’enseignement supérieur.

    [7] En dépit des principes d’égalité professionnelle, les femmes sont infériorisées dans l’ESR. Parmi les MCF, seul le domaine droit, science politique, économie et gestion (DSPEG) est à parité avec 51% de femmes et 49% d’hommes. Les femmes sont sur-représentées (58%) en Lettres, Langues et Sciences humaines (LLSH) et sous-représentées (34%) en Sciences et Techniques (ST). Du côté des PU, les femmes sont 29% (contre 45% parmi les MCF) même si ce pourcentage a augmenté ces dernières années. Les femmes sont minoritaires parmi les PU dans les trois domaines, y compris là où elles sont majoritaires parmi les MCF : elles sont 36% en DSPEG, 45% en LLSH et 21% en ST. Et les écarts de statut ne sont pas les seules inégalités de genre entre EC.

    https://blogs.alternatives-economiques.fr/les-economistes-atterres/2025/06/17/crise-de-l-esr-contribution-2-la-profession-d-enseign
    #ESR #enseignement #recherche #new_public_management

  • Un effondrement de la circulation océanique atlantique pourrait entraîner des températures polaires en Europe
    https://www.lemonde.fr/planete/article/2025/06/11/un-effondrement-de-la-circulation-oceanique-atlantique-pourrait-entrainer-de


    Le fjord de Skjoldungen, sur la côte sud-est du Groenland, le 2 janvier 2025. SERGI REBOREDO / VWPICS/SIPA
    Que se passerait-il si la principale circulation océanique de l’Atlantique, qui régule le climat mondial et européen, venait à s’effondrer ? Le Vieux Continent s’en verrait chamboulé : le nord-ouest du territoire plongerait dans un froid mordant, avec des températures hivernales chutant par endroits de 15 °C, tandis que la banquise arctique viendrait lécher les côtes écossaises. Une Europe refroidie dans un monde réchauffé, comme le montre une nouvelle étude théorique et à très long terme, publiée mercredi 11 juin dans Geophysical Research Letters, et accompagnée d’une carte interactive.

    Les deux auteurs néerlandais décortiquent pour la première fois les conséquences de la conjonction de deux maux aux forces opposées : d’une part, le réchauffement climatique, lié aux émissions humaines de gaz à effet de serre ; d’autre part, une très forte réduction de la circulation méridienne de retournement de l’Atlantique (ou AMOC, son acronyme anglais), entraînant un refroidissement régional. Cet ensemble de courants dont fait partie le Gulf Stream, qui transportent de l’eau chaude salée du pôle Sud au pôle Nord, devrait ralentir, voire pourrait s’arrêter, en raison du dérèglement climatique.
    A quelle échéance et à quelle vitesse ? Les scientifiques ne sont pas d’accord sur ce point, ni sur le fait que l’AMOC aurait déjà ralenti ces dernières décennies. Selon le dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat, un effondrement brutal n’aura pas lieu avant 2100. D’autres travaux montrent que la circulation se dirigerait vers un point de bascule. « Etant donné ce potentiel, il fallait étudier les impacts climatiques liés à une AMOC substantiellement plus faible », indique René van Westen, premier auteur de l’étude et chercheur à l’Institut royal météorologique des Pays-Bas.

    https://archive.ph/Ou0pv

    #AMOC #Europe #océan #climat #Gulf_stream

    • European Temperature Extremes Under Different #AMOC Scenarios in the Community Earth System Model

      Recent simulations using the Community Earth System Model (CESM) indicate that a tipping event of the Atlantic Meridional Overturning Circulation (AMOC) would cause Europe to cool by several degrees. This AMOC tipping event was found under constant pre-industrial greenhouse gas forcing, while global warming likely limits this AMOC-induced cooling response. Here, we quantify the European temperature responses under different AMOC regimes and climate change scenarios. A strongly reduced AMOC state and intermediate global warming (C, Representative Concentration Pathway 4.5) has a profound cooling effect on Northwestern Europe with more intense cold extremes. The largest temperature responses are found during the winter months and these responses are strongly influenced by the North Atlantic sea-ice extent. Enhanced North Atlantic storm track activity under an AMOC collapse results in substantially larger day-to-day temperature fluctuations. We conclude that the (far) future European temperatures are dependent on both the AMOC strength and the emission scenario.

      https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2025GL114611
      #modèle #prévisions #scénario #froid #chaud #monde #cartographie #visualisation #Circulation_thermohaline #circulation_océanique_profonde #effondrement #températures #Gulf_Stream

    • Je retrouve ce seen de @kassem avec cette série de six articles désormais « libérés » ...
      https://seenthis.net/messages/1019811

      Les nouveaux liens :

      https://archive.ph/VJgKj

      Histoire du Gulf Stream, courant marin fameux et symbole ambigu de la fragilité des pulsations terrestres
      Enquête|« Les pulsations de la Terre » (1/6). Né dans le golfe du Mexique, le courant marin est censé jouer le rôle de trait d’union entre les continents américain et européen. En réalité, c’est un autre système de courants, menacé, qui réchauffe l’Atlantique nord.

      https://archive.ph/DG4fy

      La folle richesse du courant marin de Humboldt, à l’origine d’une pêche miraculeuse
      Enquête|« Les pulsations de la Terre » (2/6). La bande d’eau froide de 50 à 200 km de largeur qui borde la côte occidentale de l’Amérique du Sud regorge de poissons. Une ressource qui pourrait être fragilisée par le réchauffement climatique.

      https://archive.ph/VAPKl

      El Niño et La Niña, les « enfants terribles » du climat
      Enquête|« Les pulsations de la Terre » (3/6). En se combinant au réchauffement de la planète, les deux phénomènes climatiques pourraient avoir des conséquences encore plus imprévisibles et dévastatrices pour de nombreuses populations.

      https://archive.ph/PLd5m

      La mousson, un phénomène climatique en plein dérèglement
      Enquête|« Les pulsations de la Terre » (4/6). L’agriculture de l’Asie du Sud, et particulièrement de l’Inde, dépend de la manne pluviométrique apportée par la mousson. Une saison des pluies en plein dérèglement.

      https://archive.ph/qlR3G

      Canicule : les jet-streams, ces forts vents d’altitude qui pourraient favoriser les épisodes de chaleur
      Enquête|« Les pulsations de la Terre » (5/6). Les forts vents d’altitude, les courants-jets, inquiètent les spécialistes, qui s’interrogent sur l’effet de leur conjugaison avec le réchauffement climatique.

      https://archive.ph/CdhG1

      La marée, ce cycle immuable et vital qui intrigue les savants depuis l’Antiquité
      Série|« Les pulsations de la Terre » (6/6). Dès Pythéas le Massaliote en 300 avant J.-C., les scientifiques essaient d’expliquer ce phénomène de flux et de reflux de la mer. Il faudra attendre Isaac Newton, au XVIIᵉ siècle, et surtout Pierre Simon de Laplace, un siècle plus tard, pour appréhender ce jeu de relations entre la Terre, le Soleil et la Lune.

    • En revanche, dans un scénario où les émissions de gaz à effet de serre augmenteraient de manière ininterrompue, l’impact du réchauffement climatique l’emporterait sur celui de l’AMOC : l’ensemble de l’Europe se réchaufferait et les extrêmes froids s’avéreraient très rares, même en cas d’arrêt de la circulation atlantique.

      Eh bien parfait, on a déjà trouvé la solution pour contrecarrer la disparition éventuelle de l’AMOC : émettre toujours plus de GES. Pour l’instant on est sur la bonne voie étant donné la tournure des choses dans la plupart des pays.

  • "Il n’y a rien de moins volontaire qu’un ’retour volontaire’" : des chercheurs dénoncent des politiques d’expulsion déguisée

    Les « #retours_volontaires » de migrants se multiplient ces derniers mois depuis des pays comme la #Tunisie ou la #Libye. Mais ces #rapatriements chapeautés par l’#ONU sont perçus par les chercheurs comme des #expulsions_déguisées, « la seule alternative possible » pour des migrants résignés, victimes de racisme et d’exactions.

    « Il n’y a rien de moins volontaire que les ’retours volontaires », ont décrypté des chercheurs face à la forte hausse de demandes de rapatriement de migrants, « acculés » aux frontières sud de l’Europe.

    « C’est très dur ici. C’est compliqué », confie Mac*, un Guinéen de 24 ans, rencontré il y a quelques semaines par l’AFP lors de l’évacuation de camps de fortune à El Amra, près de #Sfax, dans le centre-est de la Tunisie. Comme de nombreux migrants, las, le jeune homme s’est inscrit auprès de l’#Organisation_internationale_pour_les_migrations (#OIM) pour bénéficier d’un accompagnement afin de rentrer chez lui.

    Développés depuis 1979, les programmes d’#aide_aux_retours_volontaires (#ARV), soutenus par l’OIM n’ont jamais eu autant de succès en Tunisie, Libye ou encore en #Algérie, points de passage pour les migrants originaires d’Afrique subsaharienne qui tentent de rejoindre l’Europe.

    « La seule #alternative possible »

    En 2024, 7 250 migrants présents sur le sol tunisien, principalement originaires de Gambie, Burkina Faso et Guinée ont bénéficié de l’ARV, soit une augmentation de 1 000 % entre 2018 et 2024. En Algérie, ils étaient 7 834 (+ 600% sur la même période 2018/2024) et 16 207 en Libye (+ 65%) à être retournés dans leur pays par le biais de l’ARV, selon l’OIM. Outre le voyage, certaines de ces personnes en situation illégale peuvent bénéficier d’une aide financière pour se réinstaller dans leur pays.

    « Il n’y a rien de moins volontaire, que les ’retours volontaires », alerte Jean-Pierre Cassarino, enseignant chercheur au Collège d’Europe en Pologne, évoquant des migrants « acculés » et des « expulsions » qui ne disent pas leur nom.

    En Tunisie et en Libye, les #conditions_de_vie sont délétères pour les Africains subsahariens, victimes de #racisme, d’#exactions, de #kidnapping, d’abandons dans le désert, voire de #meurtres. La plupart peinent à se loger, vivent dans des #campements insalubres, avec un accès limité voire inexistant aux soins. La rédaction d’InfoMigrants a déjà reçu de nombreux témoignages de migrants racontant leur calvaire.

    Ces « retours volontaires » s’inscrivent alors dans un « processus de #vulnérabilité accrue », explique de son côté Ahlam Chemlali, chercheuse en migration à l’Institut danois pour les études internationales (DIIS), interrogée par l’AFP. Leur situation est devenue « de plus en plus précaire et dangereuse » et « pour beaucoup, le programme de ’retour volontaire’ est devenu la seule alternative possible ».

    Selon les textes internationaux, les participants au programme ne doivent pourtant subir « ni pressions physiques ou psychologiques » et avoir accès à des informations « objectives et fiables » sur lesquelles fonder leur décision de partir.

    L’OIM se défend d’expulsions déguisées

    Accusée de prêter main forte aux politiques d’expulsion des migrants, l’OIM s’en défend et assure intervenir seulement une fois qu’une personne a donné son consentement éclairé pour recevoir de l’aide.

    Pour l’agence de l’ONU, « mieux vaut ça que rien et que les migrants risquent leur vie en traversant la mer », décrypte Jean-Pierre Cassarino qui rappelle que l’OIM est financé « rubis sur l’ongle par l’Union européenne ».

    Ces programmes de « retours volontaires » s’inscrivent dans une politique d’#externalisation du contrôle des frontières par l’Union européenne (UE) qui exerce une forte pression sur ces pays tiers, en échange de contreparties, afin qu’ils gèrent la migration en son nom, observent les deux chercheurs.

    A l’été 2023, l’UE et la Tunisie ont conclu un « #partenariat » prévoyant une aide de 105 millions d’euros pour lutter contre l’immigration irrégulière, incluant le financement du « retour volontaire » de 6 000 migrants irréguliers.

    Pourtant, sur le long terme, les « retours volontaires » sont sans effet, expliquent les deux spécialistes. Beaucoup de migrants tentent à nouveau le voyage car ils n’ont pas tous un endroit sûr ou vivre et ont fui des conflits, des persécutions ou des difficultés économiques, pointent-ils.

    « Le désespoir est si fort qu’il vont réessayer », rappelle Jean-Pierre Cassarino.

    https://www.infomigrants.net/fr/post/64924/il-ny-a-rien-de-moins-volontaire-quun-retour-volontaire--des-chercheur

    #expulsions #inefficacité #efficacité #IOM

  • What ETH glacier researchers know about the collapse of the #Birch Glacier

    On Wednesday, the Birch Glacier collapsed under the weight of rock and debris from rockfalls on the #Kleine_Nesthorn. Following an on-site inspection, ETH Zurich researchers explain the background to the collapse that buried the village Blatten in an updated fact sheet.

    In brief:

    - In terms of the volume and the extent of the damage caused, the collapse of the Birch Glacier is unprecedented for the Swiss Alps.
    - Several rockfalls from the Kleine Nesthorn Mountain above the Birch Glacier played an important role. The sliding of an entire slope section gave the final impetus for the glacier collapse. The details are still being investigated.
    – The accumulated rock debris increased the pressure on the glacier ice, contributing to the destabilisation of the Birch Glacier - as meltwater formed both at the base and inside the glacier.
    - The updated fact sheet contains new information on the behaviour of the glacier, the role of permafrost and possible links to climate.

    A collapse of the magnitude of the Birch Glacier, which buried the village of Blatten in Valais on Wednesday, is unprecedented for the Swiss Alps. While a rock-ice collapse at Piz Scerscen in April 2024 did cause a similar amount of ice and debris to fall – estimated at eight to nine million cubic metres – as in the Lötschental valley this week, the collapse in the Engadine region did not result in as much damage as in Blatten.

    Daniel Farinotti, Professor of Glaciology at ETH Zurich and the Federal Institute for Forest, Snow and Landscape Research (WSL), asserts that the exact causes of Wednesday’s glacier collapse are far from fully understood. In particular, Professor Farinotti states, it is not yet conclusive whether external factors or primarily reactions inside the glacier itself were decisive in ultimately triggering the collapse. However, a field inspection of the Lötschental break-off area on 1 June 2025 provided the researchers with new insights, which they have included in an updated fact sheet - this summarises the current state of knowledge from the perspective of glacier research.

    However, since authorities and researchers have been monitoring the glacier for years, there are clear indications that several rock avalanches and terrain movements on Kleines Nesthorn, the mountain above the glacier, were the primary cause behind the glacier’s collapse.

    “We know there were already several rock avalanches before the collapse on Wednesday and that rock debris accumulated on the glacier as a result,” says Professor Farinotti, who has been working with ETH and WSL researchers Matthias Huss and Mylène Jacquemart to compile the factsheet.

    “Our aim is to use this data and our available knowledge to support the authorities, who are doing incredible work in extremely difficult circumstances to maintain an overview of the conditions and improve the situation for the people,” explains Professor Farinotti.
    A combination of factors led to the collapse

    The accumulated rock debris – estimated by the authorities to amount to 9 million tonnes – increased the pressure on the glacier ice and encouraged the formation of meltwater, both at the base and inside the glacier. It is estimated that around 10 millimetres of water formed in the glacier in this way. The rising water pressure, together with the incoming rain and the unstable mountain terrain, destabilised the Birch Glacier and accelerated the flow of ice. The final impetus for the collapse came when a large section of the flank of the Kleine Netsthorn slid off, as the authorities had already communicated.

    The unusual valley movement of the Birch Glacier had already attracted the attention of researchers and authorities some time ago, prompting closer observation of the movements around Kleines Nesthorn.

    With glaciers generally retreating throughout Switzerland, ETH researchers – currently documenting glacier developments within the GLAMOS glacier monitoring network together with the universities of Fribourg and Zurich – noticed that the front of the glacier in the lower part of the Birch Glacier had advanced by approximately 50 metres since 2019.

    Observational data also shows that ice thickness at the glacier snout advanced by up to 15 metres between 2017 and 2023, while the upper reaches of the glacier thinned. This increase is due in part to the rock debris resting on the glacier, as this prevented the ice from melting at the surface.

    Comparison with other ice and rock collapses

    Kleines Nesthorn and the Birch Glacier have been under close observation since the 1990s, when two snow and ice avalanches affected part of the local infrastructure. Part of the Birch Glacier’s development can also be seen in external page satellite images.

    In the updated fact sheet, the researchers state that a direct link between the permafrost degradation and the collapse of the Birch Glacier has not yet been conclusively established without further investigations. However, it is considered likely that rising temperatures have contributed to the thawing of the subsoil, an increase in rockfalls, and – paradoxically – the unusual advance of the glacier.

    The glacier collapse above Blatten has some parallels to the rock avalanche at #Piz_Cengalo in 2017, when around three million cubic metres of rock fell onto a small glacier, causing it to be partly swept away and triggering a flow of debris. This caused severe damage to infrastructure in the village of #Bondo. Eight people were killed during the incident.

    On 2 September 2002, the #Kolka–Karmadon glacier collapsed in the Russian Caucasus, resulting in 100 million cubic metres of ice travelling up to 19 kilometres down the valley. The avalanche buried the village of #Nizhniy_Karmadon and claimed 125 lives.

    In Valais, systematic surveillance and the precautionary evacuation of the village of Blatten largely prevented such a tragedy. “Our thoughts remain with the community of Blatten and with the incredible work carried out on the ground by the local authorities and other actors,” concludes Daniel Farinotti.

    https://ethz.ch/en/news-and-events/eth-news/news/2025/05/what-eth-glacier-researchers-know-about-the-collapse-of-the-birchgletscher-glac

    #Blatten #glacier #Valais #Suisse #montagne #Alpes #effondrement

  • #Allemagne : la politique migratoire de refoulement est contre-productive, selon un rapport

    Un nouveau #rapport sur les migrations dans le monde (https://www.bicc.de/Publications/Book/Report-Globale-Flucht-2025/pu/14876) appelle le nouveau gouvernement allemand à reconsidérer ses politiques d’immigration restrictives, notamment les #contrôles_aux_frontières. « Lorsque un migrant est refoulé », il ne rebrousse pas chemin, « il réessaie encore et encore, jusqu’à ce qu’il arrive dans le pays », estime Franck Düvell, chercheur en migration à l’université d’Osnabrück.

    « Les politiques allemandes à l’égard des réfugiés ne sont pas adaptées aux défis mondiaux actuels », estime Benjamin Etzold, qui a récemment présenté le « Rapport mondial sur les déplacements forcés », coécrit avec le Centre international d’études sur les conflits de Bonn (BICC).

    Alors que les thèmes de l’immigration et de l’insécurité ont dominé la dernière campagne électorale pour les législatives de février en Allemagne, Benjamin Etzold dénonce un débat « passionné » focalisé sur la manière dont l’immigration affecterait le pays.

    Il note que trop souvent, les faits et les études sont ignorées, tout comme la dimensions globale de la migration et des déplacements forcés.
    Les contrôles aux frontières ont-ils un effet dissuasif ?

    L’expert en migration critique ainsi vivement les premières mesures annoncées par le nouveau gouvernement du chancelier Friedrich Merz. Celui-ci a renforcé les contrôles aux frontières et décidé de refouler certains demandeurs d’asile début mai. L’efficacité de ces mesures est largement surestimée, assure Benjamin Etzold.

    Franck Düvell, chercheur en migration à l’université d’Osnabrück, partage cet avis. « Lorsque quelqu’un est refoulé, il réessaie encore et encore, jusqu’à ce qu’il arrive dans le pays ».

    Et cela vaut autant pour les frontières intérieures qu’extérieures de l’Union européenne (UE). « Chaque fois qu’une route est fermée, il en existe une autre pas loin. Elle peut être plus dangereuse, mais elle sera plus fréquemment utilisée », observe Franck Düvell. C’est précisément ce phénomène qui permet aux trafiquants d’êtres humains de se présenter comme l’unique solution aux yeux des personnes migrantes.

    Les réseaux de #passeurs en profitent

    Les passeurs se spécialisent ainsi dans les nouvelles voies de migration irrégulière, souvent plus risquées.

    « Il peut s’agir de l’utilisation de faux documents, de cacher des personnes dans des camions ou de bateaux qui ne sont pas en état de naviguer », explique Franck Düvell. « C’est l’effet secondaire indésirable que nous constatons régulièrement avec de telles mesures ».

    « Il est urgent de relancer les politiques multilatérales en matière de réfugiés et de migrants, même sans la participation des États-Unis », défend Benjamin Etzold. « L’Allemagne peut et doit prendre une position de leader européen et mondial sur cette question, au lieu de poursuivre des réponses nationales fragmentées. »

    L’absence de perspectives d’avenir

    De plus en plus de personnes en quête de protection se retrouvent détenues dans des camps d’accueil pendant de longues périodes. Même si une personne y est prise en charge, le manque de perspectives d’avenir incite à reprendre la route, notamment vers l’Allemagne.

    Selon Benjamin Etzold, « en fin de compte, seules la sécurité juridique et l’amélioration des perspectives de vie à l’endroit où les personnes se trouvent peuvent réduire la pression migratoire et empêcher l’immigration irrégulière vers l’Allemagne ».

    Ainsi, la volonté de Berlin de limiter considérablement les voies d’accès légales à l’Allemagne par des restrictions sur les programmes d’accueil humanitaire ou un durcissement des conditions de regroupement familial semble contre-productive. Benjamin Etzold prévoit que cette politique risque au contraire d’encourager l’immigration irrégulière.

    Enfin, Petra Bendel, de l’université d’Erlangen-Nuremberg, qui a également participé à la rédaction du rapport, craint que l’Allemagne n’enfreigne la loi en refoulant des personnes à la frontière. Le #droit_d'asile est protégé à la fois par la constitution allemande et par le droit européen. « Si l’on fait passer la politique avant la loi, on ouvre la porte au #despotisme », prévient-elle.

    https://www.infomigrants.net/fr/post/64850/allemagne--la-politique-migratoire-de-refoulement-est-contreproductive

    #migrations #réfugiés #refoulements #renvois #expulsions #efficacité #inefficacité #contrôles_frontaliers

  • #Effet_cliquet — Wikipédia
    https://fr.wikipedia.org/wiki/Effet_cliquet

    L’effet cliquet, ou effet de cliquet, est un phénomène ou procédé énoncé par James Duesenberry dans Income, Saving and the Theory of Consumer Behavior (1949), qui empêche le retour en arrière d’un processus une fois un certain stade dépassé.

  • Which transport is the fairest of them all?
    https://theconversation.com/which-transport-is-the-fairest-of-them-all-24806

    2014

    How did you get to where you need to be today? Car, bike, public transport, or perhaps walking?

    #Transport is one of the biggest sources of greenhouse gas emissions, globally and in Australia. The latest IPCC report finds transport accounted for around 14% of global greenhouse gas emissions in 2010. The latest figures in Australia show transport contributed to 17% of Australia’s #greenhouse #gas #emissions in 2013.

    The good news is that by altering our behaviour, we can choose modes of transport that emit less greenhouse gases.

    #energy_efficiency #efficacité_énergétique

    • Bizarre idée de mettre les camions là-dedans : les camions ne transportent pas des gens mais des marchandises. Si on va par là, mettre les trains de marchandise, avec une seule personne qui déplace un train de plusieurs tonnes, ce qui donnerait l’impression que les trains de marchandise sont totalement inefficients.

  • Très réchauffantes, les émissions de #méthane liées à l’énergie se maintiennent à des niveaux records
    https://www.connaissancedesenergies.org/afp/tres-rechauffantes-les-emissions-de-methane-liees-lenergie-

    Connaissance des Énergies avec AFP parue le 07 mai 2025

    Les #émissions de méthane liées au secteur des énergies fossiles sont restées en 2024 à des niveaux proches des records historiques, selon un rapport de l’Agence internationale de l’énergie (#AIE) publié mercredi, qui alerte sur une hausse de rejets massifs issus d’installations #pétrogazières pour ce #gaz à #effet_de_serre très puissant.

    (...)

    La #Chine est le plus grand émetteur mondial de méthane lié à l’énergie, principalement issu de son secteur #charbonnier. Suivent ensuite les #Etats-Unis et la #Russie.

    Les chiffres de l’AIE sont basés sur des données mesurées, quand les observations sont possibles, par opposition aux émissions déclarées qui peuvent être obsolètes ou estimées à partir des informations du secteur énergétique. L’AIE souligne ainsi que son estimation est environ 80% plus élevée que le total déclaré par les pays aux Nations unies.

    (...)

  • #Territoires_zéro_chômeur ou les chantiers d’un projet politique d’avenir

    Face aux diverses transformations sociales qui menacent le travail, il est urgent de penser à des alternatives à la création d’#emplois par le seul secteur privé, répondant à une logique de #rentabilité immédiate. Alors que l’offre politique actuelle propose, pour résoudre ce problème, soit de le flexibiliser et donc de dégrader toujours plus les #conditions_de_travail des individus, soit d’en nier le besoin et l’utilité future en le présentant comme un fardeau dont le #revenu_universel nous déchargerait, le projet d’ATD Quart Monde promet une solution peu onéreuse et vertueuse, car utile socialement, pour garantir à tous un #emploi.

    Les universitaires ont abondamment documenté les effets négatifs d’une période d’#inactivité, même courte, à la fois sur l’individu, sur la famille et sur la communauté. Une période de #chômage affecte en effet la #santé et la #satisfaction_de_vie d’un individu [i], mais également le montant de son salaire futur [ii] – si réinsertion économique il y a. La baisse de #revenu induit en outre une diminution des biens et services consommés par la famille, et une augmentation de l’#anxiété et des symptômes dépressifs des personnes concernées susceptibles d’affecter leurs apparentés. Plusieurs études ont, par exemple, mis en évidence que la perte d’un emploi du père était associée à un plus faible poids à la naissance [iii], ou à des performances scolaires moindres [iv] de l’enfant. Enfin, si les personnes inactives sont concentrées autour d’une même aire géographique, c’est sur l’ensemble de la communauté [v] que peuvent se répercuter les conséquences du chômage prolongé via l’augmentation de consommation des #services_publics combinée à une diminution de la base d’imposition nécessaire au financement de ces services, ce qui conduit presque inéluctablement à leur #dégradation.

    À l’heure où trois grands événements, à savoir la crise du COVID 19, la transition écologique et la transition numérique, menacent l’emploi, et où les politiques successives de l’offre, supposées le stimuler, ont échoué, il est nécessaire d’envisager des #alternatives à la création d’emplois par le seul secteur privé, répondant à une logique de rentabilité immédiate.

    C’est précisément ce que propose le projet Territoires Zéro Chômeur (#TZC) initié par le mouvement ATD Quart Monde, dont l’objectif premier est d’éviter que des individus ne tombent dans des trappes à inactivité et ne deviennent inemployables en raison de la dégradation de leur #capital_humain (c’est l’une des explications du fameux #effet_d’hystérèse, mécanisme par lequel un #chômage_conjoncturel se transforme en #chômage_structurel après une #récession). Fondé sur un principe de #garantie_à_l’emploi, ce dispositif, dont l’expérimentation sur dix territoires a débuté en 2017, permet à tout chômeur de longue durée (un an minimum) qui le souhaiterait, d’être employé en CDI au sein d’une #Entreprise_à_But_d’Emploi (#EBE) chargée de pallier un besoin économique ou social local qui ne soit pas déjà couvert par une entreprise. Concrètement, il s’agit d’identifier des besoins économiques ou sociaux d’un territoire et de réfléchir à une activité qui fasse coïncider ces besoins avec les compétences des personnes inactives. Le tout, sans concurrencer les entreprises locales. A ce jour, les emplois créés dans les territoires d’expérimentation concernent le service à la personne, le gardiennage, le maraîchage ou encore le transport, autant d’emplois non pourvus car précisément dépourvus de valeur marchande, mais non moins utiles socialement.

    Le modèle économique des EBE est, par ailleurs, relativement simple : le coût d’un chômeur pour la collectivité est estimé à 15000€ par an si l’on inclut les dépenses liées à l’emploi (allocation spécifique de solidarité, aide au retour à l’emploi), les dépenses sociales (RSA, allocations logement), les coûts indirects (santé) et le manque à gagner d’impôts et de cotisations. A peu de choses près, le coût d’une personne inactive équivaut ainsi à un SMIC. L’idée est donc de transformer les prestations sociales et les coûts indirects liés au chômage en salaire ; autrement dit d’activer des dépenses « passives ».

    L’extension du projet en débat

    Trois ans après le début de l’expérience initiée sur dix territoires, le bilan semble plutôt positif : 700 personnes qui étaient dans une période d’inactivité prolongée, ont été embauchées en CDI, et 30 d’entre elles ont, par la suite, retrouvé un emploi dans une entreprise locale. Surtout, le dispositif a permis de sortir des individus d’une grande #pauvreté qui allait jusqu’à contraindre leur consommation alimentaire :

    « L’un d’entre eux nous a dit, en aparté du questionnaire, pouvoir faire trois repas par jour alors qu’avant il ne mangeait qu’au petit déjeuner et au dîner. En outre, les salariés déclarent des achats « plaisirs » qui sont devenus possibles, notamment au niveau vestimentaire (vêtements, chaussures, montres…) » (Source : Rapport de la métropole de Lille, DARES, p. 37)

    La suite de l’enquête révèle que les salariés de l’EBE de Tourcoing, embauchés dans des entreprises de récupération de matériaux, garages ou épiceries solidaires, ont davantage confiance en eux depuis qu’ils travaillent (55,9%). Dans l’ensemble, la classe politique est donc favorable au dispositif et salue l’initiative d’ATD Quart Monde. C’est pourquoi le contrat des dix territoires actuels a été renouvelé, permettant ainsi la continuation du projet.

    En revanche, la question de son extension divise : dans le projet de loi étudié par l’Assemblée en début de mois, il est question d’étendre l’expérience à 30 nouveaux territoires. Or, comme le suggère les rapports IGAS/IGF, le #coût du dispositif aurait été sous-estimé. D’un côté, les personnes ayant bénéficié de ce programme ne demandaient pas toujours les minimas sociaux, donc l’économie de prestations sociales devant être réalisée au départ s’avère plus faible que prévue – en moyenne, 5000€ au lieu de 15000€. De l’autre, les EBE ont dû acquérir du capital (local, machines) pour mener à bien leur projet, un coût fixe qui a contraint ces entreprises à revoir à la hausse leurs dépenses.

    Un coût, certes plus élevé que prévu, mais destiné à s’amortir avec le temps

    Il n’est toutefois pas surprenant que le lancement des premières EBE ait nécessité un investissement de base dans du capital. Cela ne permet en rien de conjecturer sur le coût réel du dispositif dans le futur, puisque, par définition, ces coûts fixes s’amortiront dans le temps. Certaines entreprises pourront même devenir rentables en dégageant du profit grâce à la vente de biens ; on pense par exemple aux épiceries solidaires ou aux usines de recyclage qui ont servi de support au film Nouvelle Cordée de Marie-Monique Robin. Il est donc probable que le dispositif soit moins onéreux dans les années à venir. C’est d’ailleurs ce qu’on peut lire dans le rapport IGAS :

    « L’expérimentation s’est vue également dans certains cas évoluer vers la création de structures (ex : SCIC Laine à Colombey-les-Belles) qui, si leurs activités s’avéraient rentables, pourraient quitter le cadre de l’expérimentation. » (Source : L’évaluation économique visant à résorber le chômage de longue durée, rapport IGAS, 2019, p.73)

    Certaines EBE pourraient donc même, à terme, être assez productives pour ne plus nécessiter d’aides publiques.

    Le « coût faramineux » des politiques de l’offre qui ont été menées ces dernières années

    Pierre Cahuc, qui n’en est pas à sa première attaque contre toute forme d’emploi subventionné par l’État[vi], a dénoncé, sur un ton proche du subtil « pognon de dingue », le « coût faramineux » de ce projet. Le grand prédicateur de la méthode expérimentale en matière de politiques publiques ne serait sans doute pas opposé à une comparaison de ce coût à celui des politiques publiques décidées ces dernières années pour tenter de réduire le chômage. Bien souvent en effet, l’expérimentation consiste à comparer plusieurs groupes tests (qui se voient attribuer un traitement) à un groupe contrôle (qui ne perçoit pas de traitement), afin de tester l’efficacité d’un traitement par rapport à un autre.

    A titre de comparaison justement, prenons le cas du CICE, politique votée en 2012 et destinée entre autres à réduire le chômage. Dans son dernier rapport de 2020 [vii], #France_Stratégie évalue que le dispositif aurait permis la création de 100 000 emplois, 160 000 au maximum, entre 2013 et 2017. Pour un coût – sous forme d’allègement fiscal – s’élevant à 18 milliards d’euros simplement pour l’année 2016. Au total, ce sont près de 47 milliards d’euros qui auraient été dépensés entre 2013 et 2015 pour un modeste résultat de 100 000 personnes embauchées. Plusieurs rapports pointent également un effet quasiment nul de la mesure sur l’#investissement, en dépit des objectifs annoncés en la matière. Finalement, ces allègements fiscaux auraient principalement servi à baisser les prix et augmenter les plus hauts salaires [viii]. Un travailleur embauché aurait donc coûté 435 000€ [ix] au contribuable, ou 100 000€ si l’on prend la fourchette la plus haute de l’OFCE, qui estime le nombre d’emplois créés ou sauvegardés à 400 000. Un coût largement supérieur à la plus haute estimation de celui d’un salarié en EBE, soit 26 000€.

    Pour l’économiste, d’autres alternatives plus efficaces existeraient pour résorber le #chômage_de_longue_durée. Il cite, par exemple, des dispositifs combinant la miraculeuse « formation » et un « soutien personnalisé », « aspects quasi absents de l’expérimentation territoire zéro chômeur ». Pourtant, à la lecture du rapport publié par le ministère du Travail sur le territoire de Colombelles, on constate que de nombreuses entreprises de la nouvelle économie (haute technologie, recherche et développement, informatique) se sont implantées dans cette région, et que les tentatives pour former les anciens travailleurs industriels aux compétences requises n’ont pas manqué. Mais quand le décalage entre les compétences des travailleurs et celles requises par les nouvelles entreprises est trop important, le chômage d’inadéquation persiste. Comme le souligne le rapport :

    « Il existe un décalage entre les besoins des entreprises qui s’implantent sur les zones d’activités situées sur le territoire et les compétences des chômeurs qui y vivent. Le niveau de formation des demandeurs d’emploi Xois ne leur permet pas de profiter des opportunités d’emploi liées à cette activité économique naissante. » (Source : Rapport du territoire de Colombelles, DARES, p.12)

    En dépit des efforts déployés pour limiter les conséquences du démantèlement de l’activité métallurgique dans cette région normande[x], et malgré de nombreux emplois privés à pourvoir dans la région, le chômage s’élevait donc à 20% en 2016. En clair, l’emploi privé ne peut être une solution au chômage de masse de cette région. Et au-delà des échecs successifs des dispositifs qu’évoque Pierre Cahuc pour résorber le chômage, il semble de toute manière utopique d’imaginer que la capacité des organismes de formation en France sera en mesure d’absorber tous les licenciements à venir.

    Les Territoires zéro chômeur, un projet politique

    C’est avec un effarement qui confine au complotisme que #Pierre_Cahuc révèle finalement un secret de polichinelle dans sa tribune : la défense des TZC, au-delà du seul objectif de résorption du chômage, serait un #projet_politique. Et en effet, ATD Quart Monde n’a jamais dissimulé son ambition de transformer le rapport au travail et d’en faire un droit de « première nécessité sociale ». De ce point de vue, le travail n’est plus conçu comme un fardeau, dont le revenu universel pourrait nous décharger, mais comme un besoin quasi-anthropologique, nécessaire à la réalisation de l’individu autant qu’au bon fonctionnement d’une société.

    En conséquence, les TZC évacuent les aspects aliénants du travail : tout d’abord, le projet n’a aucun pouvoir contraignant sur les individus. Ils peuvent choisir de travailler ou de continuer de percevoir leurs prestations sociales, selon leur bon vouloir. Le projet assure également des conditions de travail décentes aux salariés puisqu’ils sont sécurisés via l’emploi en CDI et qu’ils décident des tâches qu’ils devront effectuer, moyen efficace pour garantir la concordance entre leurs compétences et leur emploi. On ne peut pas en dire autant des quelques politiques entreprises pour réduire le chômage ces dernières années, en particulier la flexibilisation du marché du travail ou la baisse des indemnités chômage, qui ont plutôt eu pour effet de précariser davantage les travailleurs et de leur laisser toujours moins de marge de manœuvre quant au choix de leur emploi.

    Enfin, les individus retrouvent du sens à leur métier – composante plus que nécessaire au travail à l’heure où les « #bullshit_jobs » inondent le marché de l’emploi – puisque ce dernier doit être socialement et écologiquement utile. Dans les enquêtes menées sur les territoires concernés, on trouve ainsi de nombreuses EBE spécialisées dans l’agriculture bio, la permaculture ou encore l’entretien des forêts. A titre d’exemple, les employés de l’EBE de la Nièvre ont transformé des jardins ouvriers tombés à l’abandon en potager afin de répondre aux besoins du territoire (écoles, maisons de retraite) en circuit court.

    Il ne s’agit pas de nier que le dispositif mérite encore d’être amélioré. S’il représente pour l’instant une solution efficace au délaissement de certains territoires désindustrialisés, à l’instar de Tourcoing et Colombelles, il n’est pas, en l’état, en mesure de proposer une solution de long terme à l’ensemble des problèmes liés à l’emploi et à la crise écologique. Le projet repose en effet sur une décentralisation de la gestion du dispositif et sur l’autonomie des employés (ils choisissent eux-mêmes les tâches à effectuer) qui semble difficilement compatible avec une planification écologique. Il serait par exemple souhaitable qu’au lieu de prendre des décisions sans être coordonnées, les régions se concertent pour recenser les besoins nationaux de production afin de maximiser l’impact écologique du dispositif. Pour représenter une solution pérenne au chômage de masse, il serait par ailleurs bon de renforcer l’acquisition de compétences des employés au sein des EBE, d’une part pour augmenter leur taux de réinsertion sur le marché du travail, d’autre part pour ne pas renoncer à former des travailleurs dans des secteurs d’avenir et productifs, également nécessaire à la transition écologique.

    Bien que le projet ne soit pas entièrement abouti pour prétendre à être un dispositif révolutionnaire contre le chômage et le réchauffement climatique, il faut lui reconnaître ses mérites à la fois empiriques et théoriques. Il a permis une réduction non négligeable de la pauvreté dans des régions jusqu’alors délaissées par les autorités publiques en redonnant un emploi digne à ses travailleurs. De plus, il pose les premières briques d’un chantier plus vaste de redéfinition du travail, à l’heure où celui-ci est menacé par les reconversions à venir. A rebours d’une idée défendue par une frange anarchisante de la gauche selon laquelle les sociétés de demain ne nécessiteraient plus de travail – perspective pour le moins inquiétante pour bon nombre d’individus – ATD Quart Monde propose de réhabiliter la valeur travail en tant qu’élément essentiel à l’individu et la société. Celui-ci, en étant synonyme de sécurité, autonomie et consistance, retrouverait sa pleine fonction de réalisation de l’individu pour permettre à « l’homme qui travaille de reconnaître dans le monde, effectivement transformé par son travail, sa propre œuvre[xi] », comme l’écrit le philosophe et commentateur de Hegel Alexandre Kojève. Les réflexions ultérieures devront se pencher sur la tension entre autonomie des travailleurs – élément phare du projet qui propose d’éradiquer l’aspect aliénant de l’exécution de tâches – et nécessité de planifier.

    Notes :
    [i] Burgard, S. A., Brand, J. E., & House, J. S. (2007). Toward a better estimation of the effect of job loss on health. Journal of health and social behavior, 48(4), 369-384.

    [ii] Barnette, J., & Michaud, A. (2012). Wage scars from job loss. Working paper. Akron, OH : University of Akron. http://www. uakron. edu/dotAsset/2264615. pdf.

    [iii] Lindo, J. M. (2011). Parental job loss and infant health. Journal of health economics, 30(5), 869-879.

    [iv] Rege, M., Telle, K., & Votruba, M. (2011). Parental job loss and children’s school performance. The Review of Economic Studies, 78(4), 1462-1489.

    [v] Nichols, A., Mitchell, J., & Lindner, S. (2013). Consequences of long-term unemployment. Washington, DC : The Urban Institute.

    [vi] Algan, Y., Cahuc, P., & Zylberberg, A. (2002). Public employment and labour market performance. Economic Policy, 17(34), 7-66.

    [vii] Rapport CICE 2020, France stratégie https://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/fs-2020-rapport-cice2020-16septembre-final18h.pdf

    [viii] Libé, « Mais où sont passés les milliards du CICE ? », 29 septembre 2016. https://www.liberation.fr/france/2016/09/29/mais-ou-sont-passes-les-milliards-du-cice_1515075

    [ix] Médiapart, « Créer un emploi avec le CICE coûte trois fois plus cher qu’embaucher un fonctionnaire », 16 décembre 2018. https://blogs.mediapart.fr/stephane-ortega/blog/161218/creer-un-emploi-avec-le-cice-coute-trois-fois-plus-cher-qu-embaucher

    [x] Colombelles abritait la Société Métallurgique de Normande, grand bastion d’emplois normand, qui a fermé en 1980 après avoir été racheté par Usinor-Sacilor (aujourd’hui Arcelor).

    [xi] Alexandre Kojève, Introduction to the Reading of Hegel : Lectures on the Phenomenology of Spirit (Ithaca : Cornell University Press, 1989), p. 27. Citation originale : « The man who works recognizes his own product in the World that has actually been transformed by his work. »

    https://lvsl.fr/territoires-zero-chomeur-ou-les-chantiers-dun-projet-politique-davenir

  • La mystérieuse salle 641A… qui vous surveille - YouTube
    https://www.youtube.com/watch?v=RXF5sJch378

    Au 611 Folsom Street, à San Francisco, il y a un grand immeuble. Celui d’AT&T, le plus grand Télécom américain. Il n’y a rien de bien particulier là-bas. Juste des centaines d’employés qui bossent, tous les jours, pour assurer les communications du pays.

    Mais au 6ème étage, il y a un endroit étonnant. La pièce 641A. Une salle où personne n’a accès, et qui n’est référencée nulle part. Du moins, c’était avant que Mark Klein, un technicien, s’y intéresse d’un peu trop près…

    #NSA #AT&T #BigBrother

    • https://en.m.wikipedia.org/wiki/Room_641A#Lawsuits

      The #Electronic_Frontier_Foundation (#EFF) filed a class-action lawsuit against AT&T on January 31, 2006 [...] On July 20, 2006, a federal judge denied the government’s and AT&T’s motions to dismiss the case, chiefly on the ground of the state secrets privilege, allowing the lawsuit to go forward. On August 15, 2007, the case was heard by the Ninth Circuit Court of Appeals and was dismissed on December 29, 2011, based on a retroactive grant of immunity by Congress for telecommunications companies that cooperated with the government. The U.S. Supreme Court declined to hear the case.

      A different case by the Electronic Frontier Foundation was filed on September 18, 2008, titled Jewel v. NSA. After many years of litigation, on April 25, 2019, the ruling from the Northern District of California for Jewel v. NSA concluded that the evidence presented by the plaintiff’s experts was insufficient

      https://en.m.wikipedia.org/wiki/Mark_Klein (mort en mars 2025 d’un cancer du pancréas)

  • La rapidité de l’#effondrement des populations d’#insectes confirmée par une expérience de science participative
    https://www.lemonde.fr/planete/article/2025/04/30/la-rapidite-de-l-effondrement-des-populations-d-insectes-confirmee-par-une-e

    L’effondrement des arthropodes se poursuit, sans inversion de la tendance. Rendus publics mercredi 30 avril, les derniers résultats de l’étude participative « #Bugs_Matter » indiquent que la population d’insectes volants au Royaume-Uni aurait chuté de 63 % entre 2021 et 2024. Au total, les données accumulées suggèrent un effondrement de plus de 80 % en deux décennies sur le territoire britannique – des chiffres comparables à ceux produits par d’autres travaux conduits ailleurs en Europe.

    L’étude britannique est toutefois unique par son ampleur et par sa capacité à relever, année après année, l’évolution des populations d’insectes à l’échelle d’un pays, grâce au même protocole expérimental. La destruction des habitats, le réchauffement mais surtout la présence généralisée de pesticides dans tous les milieux sont en cause, selon les chercheurs interrogés par Le Monde.

    L’étude « Bugs Matter » a été conçue et mise en place par deux organisations de conservation de la nature, Buglife et Kent Wildlife Trust, grâce à l’enrôlement de milliers d’automobilistes. Ceux-ci utilisent une application et y téléchargent les photos de leur plaque d’immatriculation, avant et après avoir effectué un trajet routier, dénombrant le nombre d’impacts d’insectes. Une grande diversité d’autres données est collectée : le type de véhicule et son aérodynamisme, sa vitesse de déplacement, l’état de la météo, les zones et paysages traversés, la date et la durée du voyage, etc. Un déclin de 63 % mesuré en seulement trois années est jugé « stupéfiant » par l’écologue Vincent Bretagnolle, chercheur (CNRS) sur la Zone Atelier Plaine et Val-de-Sèvres et spécialiste des interactions entre agriculture et biodiversité.

    « Ce #déclin énorme du nombre d’impacts d’insectes sur une si brève durée est vraiment alarmant, déclare Lawrence Ball (Kent Wildlife Trust), principal auteur de ces travaux. Il est plus que probable que vous voyions les effets combinés d’une tendance de fond au déclin et d’un cycle de plus court terme, peut-être lié aux événements climatiques extrêmes de ces dernières années au Royaume-Uni. » Entre 2023 et 2024, le nombre d’impacts a globalement chuté de 8 %, à la suite de déclins plus marqués les deux années précédentes, respectivement de 44 % et 28 %. La baisse moins marquée entre les deux dernières années laisse espérer un aplatissement de la tendance, ajoute en substance M. Ball.

    « Conséquences potentiellement catastrophiques »
    De son côté, le biologiste Dave Goulson (université du Sussex), auteur de nombreux travaux sur le déclin des pollinisateurs, appelle à être « prudent » dans l’interprétation d’une série de données de seulement quatre ans. Mais il ajoute que ce fort déclin est cohérent avec les résultats d’autres études. « Le pire scénario, que nous devrions envisager très sérieusement, est que le déclin des insectes s’accélère sous l’effet combiné du dérèglement climatique, de la perte d’habitat et de l’utilisation de plus de trois millions de tonnes de pesticides [au niveau mondial] chaque année », dit-il. Un scénario aux « conséquences potentiellement catastrophiques », prévient le chercheur britannique.

    Nul rebond jusqu’à présent : d’une année à l’autre, toujours moins de bestioles percutent les calandres des automobiles. Un phénomène remarqué de longue date par les usagers de la route les plus âgés. « Il y a un ressenti populaire selon lequel il y a de moins en moins d’insectes sur les pare-brise, dit le biologiste de la conservation Vincent Devictor, chercheur (CNRS) à l’Institut des sciences de l’évolution de Montpellier, qui n’a pas participé à ces travaux. Je trouve crucial d’avoir quantifié rigoureusement un phénomène que l’on ne peut plus balayer comme relevant d’une intuition ou d’une impression personnelle. Le protocole est standardisé, répliqué et représentatif : ce sont les trois impératifs pour conclure de manière solide. »

    « Les résultats de cette étude de science participative sont inquiétants, et reposent sur une méthodologie soigneuse », estime Marion Desquilbet, chercheuse (Inrae) à la Toulouse School of Economics, coautrice de travaux de référence sur les mesures de déclin de l’entomofaune. De même, Vincent Bretagnolle relève qu’un tel protocole, simple et validé, est « idéal » pour relever le défi du recensement de ces organismes très divers et difficiles à dénombrer dans l’environnement.

    Les impacts dénombrés sur les plaques d’immatriculation ne permettent pas de préciser les espèces qui disparaissent le plus vite, mais la méthodologie de l’étude permet de couvrir beaucoup de taxons, explique M. Devictor : « Les heures de la journée et les habitats échantillonnés sont très variables. Il ne s’agit donc pas de la fluctuation d’une ou deux espèces isolées : on parle bien d’une baisse des insectes volants qui participent à des interactions écologiques multiples. »

    Le poids de molécules #pesticides
    Les données collectées intègrent plus de 8 800 trajets effectués, totalisant plus de 380 000 kilomètres parcourus à travers toutes les régions du Royaume-Uni. Les différences d’un pays à l’autre sont relativement faibles : entre 2021 et 2024, le déclin observé est de 62 % en Angleterre, 64,2 % au Pays de Galles, ou encore 55,4 % en Irlande du Nord.

    Pour Vincent Devictor, cette homogénéité du déclin indique que le protocole capture bien le caractère systémique du phénomène. « La destruction d’habitats n’est pas en mesure d’expliquer seule ce qu’on observe sur une période de seulement quatre ans, dit le chercheur. Le changement climatique peut avoir un rôle, mais celui-ci devrait aussi conduire à favoriser certaines espèces qui tirent profit de la hausse des températures. L’ampleur du déclin fait plutôt penser à une surmortalité directe d’espèces multiples, compatible avec ce que l’on attend d’une réponse aux insecticides. »

    Dave Goulson relève que « l’année 2024 a été la pire année jamais observée au #Royaume-Uni, à la fois pour les bourdons et les papillons, avec des données qui remontent respectivement à seize ans et quarante-huit ans ».

    Constat semblable dans l’ouest de la France. « Les années 2022, 2023 et 2024 ont présenté des météos printanières tout à fait catastrophiques, avec de la sécheresse, un excédent de chaleur et de pluviométrie qui ont impacté les insectes, explique M. Bretagnolle. Les populations d’abeilles sauvages par exemple ont été très faibles en 2024 sur notre site. Il est donc très probable que le déclin mesuré en Angleterre soit identique en France, mais au contraire des Britanniques, nous n’avons pas de données nationales. »

    Indépendamment de la météo, les études conduites au Danemark, en Allemagne, au Royaume-Uni montrent toutes des baisses d’abondance d’insectes comparables sur le long terme, « souvent supérieures à 50 % par décennie quel que soit le contexte », rappelle M. Devictor. Une convergence évocatrice des effets chroniques de l’imprégnation des milieux, à bas bruit, par un grand nombre de molécules pesticides.

    Or, comme le dit Mme Desquilbet, « on sait que les procédures d’autorisation de mise sur le marché des pesticides, qui examinent leur impact sur l’être humain et l’environnement avant autorisation, ne sont pas protectrices pour les insectes ». En effet, précise-t-elle, ces procédures « n’évaluent pas les #effets_chroniques des pesticides, mais seulement leurs effets aigus, et seulement sur quelques espèces qui ne sont pas nécessairement les plus affectées, comme l’#abeille_domestique plutôt que les #pollinisateurs_sauvages ».

    Cette négligence réglementaire est dénoncée de longue date par les organisations non gouvernementales. « Notre organisation a mis en évidence que les protocoles d’évaluation de la #toxicité des pesticides sur les insectes avaient été coécrits par des employés de l’industrie des pesticides dans les années 2000, dit Martin Dermine, chargé de mission à Pesticide Action Network Europe. Ce scandale réglementaire se perpétue, car la Commission européenne est actuellement en train de revoir ces protocoles, en incluant à nouveau des scientifiques liés à l’agrochimie. »

    #Stéphane_Foucart

    • Effondrement des populations d’insectes : « Il est complètement fou qu’on n’en parle pas plus »
      https://www.lemonde.fr/planete/article/2025/04/30/effondrement-des-populations-d-insectes-il-est-completement-fou-qu-on-n-en-p

      Ecologue et systématicien, spécialiste de la biologie évolutive des insectes, Philippe Grandcolas est directeur adjoint scientifique de l’institut CNRS écologie et environnement. Il est aussi l’auteur d’ouvrages grand public, en particulier de La Puissance de la biodiversité (CNRS Editions, 2023).

      Plusieurs études suggèrent des réductions de populations d’insectes en Europe de l’ordre de 80 % au cours des deux décennies écoulées. Les dernières données britanniques indiquent une chute de 63 % entre 2021 et 2024. Est-ce inquiétant ?
      Oui, de mon point de vue, ces chiffres sont terrifiants. On assiste à un effondrement silencieux de mieux en mieux documenté par les scientifiques. Je dis silencieux à dessein, car il est complètement fou que l’on n’en parle pas plus, ou alors sur le mode : « Ah oui, les insectes, pas tous sympas quand même ! » Si la végétation mourait sur pied partout, on serait catastrophés ! Mais il est vrai que l’effondrement du nombre d’oiseaux – pourtant plus populaires que les insectes –, bien avéré en Europe, n’est pas non plus une information qui fait bouger les foules.

      Quelles sont les fonctions écosystémiques des insectes ? Quelles sont et seront les conséquences de leur raréfaction ?

      Avec 40 000 espèces en France métropolitaine et des dizaines de kilos à l’hectare, les insectes sont partout. Ils pollinisent les trois quarts des plantes à fleurs, et il y a actuellement en France de 5 % à 80 % de perte de productivité faute de pollinisateurs, selon les cultures. Ils dégradent la matière organique dans les sols forestiers ou autres (fèces, humus, bois), et limitent les populations d’autres insectes. Et enfin, ils servent de nourriture à de nombreux vertébrés (oiseaux, poissons…) dont on a également besoin.

      Les prairies d’Australie ont, par exemple, été ensevelies sous les bouses de vaches importées par les colons européens, faute d’espèces locales adéquates de bousiers pour recycler cette matière organique. Ces insectes ont été introduits à coups de millions de dollars et après plusieurs années d’efforts. Sans insectes, les écosystèmes – y compris « productifs » – déclinent avec des conséquences en cascade ! On a ainsi montré récemment qu’une plante (Viola arvensis) devient davantage capable de s’autoféconder et produit moins de nectar faute de pollinisateurs… ce qui la rend potentiellement victime de « consanguinité », réduit sa diversité génétique et la rend donc plus vulnérable aux autres pressions. Même un champ de colza conventionnel perd 30 % de productivité faute de pollinisation.

      Le constat d’un effondrement des populations d’insectes n’est-il pas contradictoire avec la difficulté à contrôler les ravageurs des cultures ?

      On crée des agrosystèmes vides de vie, de l’hydroponie [culture de végétaux sur des substrats inertes] en plein champ en quelque sorte, en privilégiant des cultures non pollinisées par les insectes et polluées : céréales pour l’export ou la nourriture animale, betteraves pour les agrocarburants, voire les noisettes pour des pâtes à tartiner mauvaises pour la santé des enfants. Et cela aux dépens des autres cultures vivrières, des milieux naturels et des populations riveraines.

      Les grandes parcelles d’une même culture, avec un haut niveau de standardisation et sans diversité dans le paysage, attirent toujours en masse les mêmes insectes agresseurs. C’est une loi quasi physique de l’écologie, totalement ignorée des agriculteurs industriels. Un peu comme si l’on mettait tous les malades fragiles et diversement contagieux ensemble dans un même hall d’hôpital… Il y a urgence à changer de modèle agricole ou d’aménagement du territoire, mais en aidant vraiment les agriculteurs, ce qui n’est pas fait actuellement. Les propositions de lois en la matière vont à l’inverse de ce qui est nécessaire.

      La situation est-elle réversible ? Comment et à quelle échéance ?

      Elle est en partie réversible, si l’on cesse les pressions (pertes d’habitats, pesticides, etc.), mais à échéance de quelques décennies. Il y a deux grands écueils : les pesticides ne disparaissent pas spontanément, leurs molécules peuvent demeurer longtemps dans les milieux, même sous forme de produits dégradés, et auront donc une action dans la durée avec des effets chroniques dus aux cocktails de molécules, à leur accumulation, leur transport, etc. Second écueil : le climat n’est pas près de revenir à son état normal et il nuit fortement à de nombreux insectes.

      #Stéphane_Foucart

  • Le gouvernement annule 3,1 milliards d’euros de crédit pour les missions #écologie, #économie et recherche et #enseignement_supérieur

    Selon un #décret publié samedi au « Journal officiel », ces annulations sont faites dans le cadre de l’effort supplémentaire de 5 milliards d’euros pour 2025.

    Le gouvernement a acté, samedi 26 avril, au Journal officiel (JO) des annulations de crédits à hauteur de 3,1 milliards d’euros dans le cadre de l’#effort supplémentaire de 5 milliards d’euros pour 2025 déjà annoncé par Bercy début avril.

    La ministre chargée des comptes publics, Amélie de Montchalin, avait alors expliqué que ces 5 milliards d’euros devaient permettre de tenir les objectifs de déficit public pour cette année dans un contexte de croissance moindre. « Ces 5 milliards d’euros que nous allons soit annuler, soit repousser, soit réorienter, c’est notre réponse à un monde instable. C’est la manière de faire face quoi qu’il arrive à ce monde instable », avait-elle déclaré.

    Une partie de cette somme s’est concrétisée à travers le décret publié au JO. « Afin de prévenir une détérioration de l’équilibre budgétaire sur le budget de l’Etat », « le présent décret porte des annulations de crédits à hauteur de 3,1 milliards d’euros en autorisations d’engagement », peut-on lire dans le JO. « Cet effort porte essentiellement sur les crédits hors masse salariale mis en réserve en début d’année », est-il précisé, « ces annulations ne devraient ainsi pas remettre en cause de façon significative la capacité d’exécution des politiques publiques, selon les termes convenus dans la loi de finances initiale pour 2025 ».

    « Respecter la trajectoire de redressement des #comptes_publics »

    Parmi les annulations de #crédits, sont concernés la mission « écologie, développement et mobilité durable » (549,6 millions d’euros), la mission « économie » (517,7 millions d’euros), la mission « recherche et enseignement supérieur » (493,3 millions d’euros) ou encore la mission « agriculture, alimentation et affaires rurales » (140 millions d’euros).

    « La dégradation récente des perspectives macroéconomiques conduit à anticiper de moindres recettes publiques, en lien notamment avec une révision de la prévision de croissance à 0,7 %. Ces risques sont également renforcés par le contexte géopolitique incertain », souligne le décret. « Dans ce cadre, un effort supplémentaire de maîtrise de la dépense est nécessaire pour respecter la trajectoire de redressement des comptes publics sur laquelle le gouvernement s’est engagé », est-il ajouté.

    https://www.lemonde.fr/politique/article/2025/04/26/budget-2025-le-gouvernement-annule-3-1-milliards-d-euros-de-credit_6600269_8
    #ESR #université #France #coupes_budgétaires #budget #recherche

  • La tyrannie de la #commodité (par #Tim_Wu)

    Traduction d’un texte essentiel sur la notion de commodité, de #confort, publié en 2018 par le juriste américain Tim Wu dans le New York Times[1]. Les organisations (institutions étatiques, think tanks, ONG, associations, etc.) et influenceurs de la mouvance éco-capitaliste ne remettent aucunement en question le confort moderne. Le pouvoir ne remettra évidemment jamais en cause ce qui lui permet de tenir le peuple en laisse. Ce texte est à mettre en relation avec une excellente réflexion critique sur le confort publiée récemment par l’anthropologue Stefano Boni.

    –-

    La commodité est la force la plus sous-estimée et la moins comprise dans le monde d’aujourd’hui. En tant que moteur des décisions humaines, elle n’offre pas le frisson coupable des désirs sexuels inconscients de Freud ou l’élégance mathématique des incitations de l’économiste. La commodité est ennuyeuse. Mais l’ennui se différencie de la banalité.

    Dans les pays développés du XXIe siècle, la commodité – c’est-à-dire des moyens plus efficients et plus pratiques pour accomplir des tâches quotidiennes – semble être la force la plus puissante qui façonne nos vies et nos économies. C’est particulièrement vrai en Amérique, où, malgré tous les hymnes à la liberté et à l’individualité, on se demande parfois si la commodité n’est pas en fait la valeur suprême.

    Comme l’a récemment déclaré Evan Williams, co-fondateur de Twitter, « la commodité décide de tout ». La commodité semble prendre les décisions à notre place, l’emportant sur ce que nous aimons imaginer être nos véritables préférences. (Je préfère faire mon café, mais le Starbucks instantané est si pratique que je ne fais presque jamais ce que je « préfère »). Faciliter les choses ne suffit pas, il faut trouver la manière la plus facile de faire, la meilleure.

    La commodité a la capacité de rendre d’autres options impensables. Une fois que vous avez utilisé une machine à laver, le lavage du linge à la main semble irrationnel, même s’il est probablement moins onéreux. Une fois que vous avez fait l’expérience de la télévision à la demande, attendre de voir une émission à une heure déterminée à l’avance semble idiot, voire un peu indigne. Résister à la commodité – ne pas posséder de téléphone portable, ne pas utiliser Google – en vient à exiger un dévouement particulier souvent pris pour de l’excentricité, voire du fanatisme.

    Malgré toute son influence dans sa manière de façonner les décisions individuelles, la part la plus importante du pouvoir de la commodité pourrait découler de décisions prises à un échelon global, à un niveau où il contribue de manière critique à structurer l’économie moderne. La bataille pour la commodité, particulièrement dans les secteurs liés à la #technologie, c’est la bataille pour s’assurer la #domination dans l’#industrie.

    Les Américains disent qu’ils accordent une grande importance à la #concurrence, à la multiplication des #choix, à l’individu. Pourtant, notre goût pour la commodité engendre plus de commodité, grâce à la combinaison des #économies_d’échelle et du pouvoir de l’#habitude. Plus il est facile d’utiliser Amazon, plus Amazon devient puissant – ce qui rend encore plus facile d’utiliser Amazon. La commodité et le #monopole semblent être des alliés naturels.

    Compte tenu de la croissance de la commodité – en tant qu’#idéal, #valeur, #mode_de_vie – il est utile de se demander ce que notre obsession pour celle-ci fait pour nous et pour notre pays. Je ne veux pas suggérer que la commodité est une force malfaisante. Rendre les choses plus faciles n’est pas un mal en soi. Au contraire, elle ouvre souvent des possibilités qui semblaient autrefois trop onéreuses à envisager, et elle rend généralement la vie moins pénible, en particulier pour les personnes les plus vulnérables aux corvées quotidiennes.

    Mais nous nous trompons en présumant que la commodité est toujours une bonne chose, car elle entretient une relation complexe avec d’autres idéaux qui nous sont chers. Bien qu’elle soit comprise et promue comme un instrument de libération, la commodité dévoile une face plus sombre. Avec sa promesse d’#efficacité en douceur et sans effort, elle menace d’effacer le genre de luttes et de défis qui donnent un sens à la vie. Créée pour nous libérer, elle peut devenir une #contrainte influençant ce que nous sommes prêts à faire. Et donc de manière subtile, elle peut nous asservir.

    Il serait pervers d’ériger l’inconfort en idéal, mais lorsque nous laissons la commodité décider de tout, nous capitulons trop souvent.

    La commodité telle que nous la connaissons aujourd’hui est un produit de la fin du XIXe siècle et du début du XXe siècle, lorsque des dispositifs permettant d’économiser le travail à la maison ont été inventés et commercialisés. Parmi les #innovations marquantes, citons l’invention des premiers « #aliments_de_confort », tels que le porc et les haricots en conserve et le Quaker Quick Oats [flocons d’avoine en boîte, NdT], les premières machines à laver électriques, les produits de nettoyage comme la poudre à récurer Old Dutch, et d’autres merveilles comme l’aspirateur électrique, le mélange pour gâteau instantané et le four à micro-ondes.

    La commodité apparaissait comme la version domestique d’une autre idée de la fin du XIXe siècle – l’#efficience_industrielle et la « gestion scientifique du travail » qui l’accompagnait. Elle représentait l’adaptation de la philosophie de l’usine à la vie domestique.

    Aussi banal que cela puisse paraître aujourd’hui, la commodité, grande libératrice de l’humanité enfin délivrée du #travail, était un #idéal_utopique. En faisant gagner du #temps et en éliminant la #corvée, elle créerait la possibilité de s’adonner à des #loisirs. Et avec les loisirs viendrait la possibilité de consacrer du temps à l’apprentissage, aux passe-temps ou à tout ce qui pouvait vraiment compter. La commodité mettrait à la disposition du grand public le type de liberté et d’élévation culturelle autrefois réservé à l’aristocratie. Dans cette perspective, la commodité apparaissait également comme une grande niveleuse des inégalités.

    Cette idée – la commodité perçue comme une #émancipation – peut être enivrante. Ses représentations les plus captivantes se trouvent dans la science-fiction et les univers futuristes imaginés au milieu du XXe siècle. Des magazines sérieux comme Popular Mechanics et des divertissements loufoques comme The Jetsons nous ont enseigné que la vie dans le futur atteindrait l’idéal du confort parfait. La nourriture serait préparée en appuyant sur un bouton. Les trottoirs en mouvement nous épargneraient l’ennui de la marche. Les vêtements se nettoieraient d’eux-mêmes ou s’autodétruiraient après une journée à les porter. La fin de la lutte pour l’existence pourrait enfin être envisagée.

    Le rêve de la commodité se fonde sur une représentation cauchemardesque de l’#effort_physique. Mais le travail éprouvant est-il toujours un cauchemar ? Voulons-nous vraiment être émancipés de tout cela ? Peut-être que notre humanité s’exprime parfois par des actions incommodes et des quêtes de longue durée. C’est peut-être la raison pour laquelle, à chaque avancée du confort, des résistants se manifestent. Ils résistent par entêtement, oui (et parce qu’ils ont le luxe de le faire), mais aussi parce qu’ils voient une menace pour leur identité, pour leur capacité à contrôler les choses qui comptent pour eux.

    À la fin des années 1960, la première révolution de la commodité commença à s’étouffer. La perspective d’une vie où l’inconfort aurait disparu semblait avoir perdu la première place parmi les grandes aspirations de la société. Commodité signifiait #conformité. La #contre-culture incarnait le besoin des gens de s’exprimer, de réaliser leur potentiel individuel, de vivre en harmonie avec la nature plutôt que de chercher constamment à surmonter ses nuisances. Jouer de la guitare n’était pas facile. Il n’était pas non plus aisé de cultiver ses propres légumes ou de réparer sa propre moto, mais de telles choses étaient néanmoins considérées comme ayant de la valeur – ou plutôt considérées comme un accomplissement. Les gens recherchaient à nouveau à se réaliser en tant qu’individus.

    Dès lors, il était peut-être inévitable que la deuxième vague de technologies de confort – la période que nous vivons – cherche à récupérer cet idéal. Elle rendrait l’#individualité plus pratique.

    Vous pouvez faire remonter le début de cette période à la sortie du Walkman de Sony en 1979. Avec le #Walkman, nous pouvons observer un changement subtil mais fondamental dans l’idéologie de la commodité. Si la première révolution de la commodité promettait de vous faciliter la vie et le travail, la seconde promettait de vous faciliter d’être vous-même. Les nouvelles technologies étaient des catalyseurs de l’#individualité. Elles ont permis l’application de l’efficience industrielle à l’expression individuelle.

    Prenons l’homme du début des années 1980 qui se promenait dans la rue avec son walkman et ses écouteurs. Il est enfermé dans un environnement acoustique de son choix. Il profite, en public, du genre d’expression qu’il ne pouvait autrefois connaître que dans son salon privé. Une nouvelle technologie lui permet de montrer plus facilement qui il est, ne serait-ce qu’à lui-même. Il se pavane dans le monde entier telle une vedette jouant dans son propre film.

    Cette vision est si séduisante qu’elle en est venue à dominer notre existence. La plupart des technologies puissantes et dominantes créées au cours des dernières décennies mettent la commodité au service de la #personnalisation et de l’#individualité. Pensez au magnétoscope, à la playlist, à la page Facebook, au compte Instagram. Ce genre de commodité ne consiste plus à économiser du travail physique – beaucoup d’entre nous n’avons plus à transpirer pour gagner notre vie. Il s’agit de minimiser les ressources mentales nécessaires pour choisir parmi les options disponibles afin d’exprimer son individualité ; la commodité en un clic, un guichet unique, l’expérience sans accroc du « plug and play ». L’idéal poursuivi ? La #préférence_individuelle, le tout sans effort.

    Bien sûr, nous sommes prêts à payer un prix plus élevé pour la commodité, mais nous réalisons moins souvent que nous acceptons de remplacer un service gratuit par un service payant plus commode. Par exemple, à la fin des années 1990, les technologies de distribution de la musique comme Napster ont permis de mettre de la musique en ligne gratuitement, et beaucoup de gens ont profité de cette nouvelle option. Mais s’il reste facile d’obtenir de la musique gratuitement, pratiquement plus personne n’en télécharge illégalement aujourd’hui. Pourquoi ? Parce que le lancement de l’iTunes store en 2003 a rendu l’achat de musique encore plus pratique que le téléchargement illégal. La commodité a battu la #gratuité.

    Alors que les tâches quotidiennes se simplifient, un désir croissant pour davantage de confort crée une incitation à rendre tous les aspects de notre vie encore plus simple. Ce qui ne devient pas plus commode se fait distancer. Nous sommes pourris gâtés par l’instantanéité et nous sommes agacés par les tâches qui restent à un niveau antérieur d’effort et de durée. Lorsque vous pouvez éviter la file d’attente et acheter des billets de concert sur votre téléphone, faire la queue pour voter lors d’une élection devient irritant. C’est particulièrement vrai pour ceux qui n’ont jamais eu à faire la queue (ce qui peut expliquer le faible taux de participation des jeunes aux élections).

    La vérité paradoxale à laquelle je veux en venir, c’est que les technologies actuelles d’individualisation forment un ensemble de technologies d’individualisation de masse. La personnalisation peut être étonnamment uniformisante. Tout le monde ou presque est sur Facebook : c’est le moyen le plus pratique pour garder le contact avec vos amis et votre famille, qui en théorie devraient représenter ce qui il y a d’unique en vous et dans votre vie. Pourtant, avec Facebook, nous nous ressemblons tous. Son format et ses conventions nous privent de toutes les expressions d’individualité, sauf les plus superficielles telle que la photo d’une plage ou d’une chaîne de montagnes que nous choisissons en image de couverture.

    Je ne nie pas que faciliter les choses peut être d’une grande utilité en nous offrant de nombreux choix (de restaurants, de services de taxi, d’encyclopédies open-source) là où nous n’en avions que peu ou pas du tout auparavant. Mais être humain ne se résume pas à avoir des choix à faire. Il s’agit également de savoir comment faire face aux situations qui nous sont imposées, comment surmonter les défis qui en valent la peine et comment mener à bien les tâches difficiles – les combats qui contribuent à faire de nous ce que nous sommes. Qu’advient-il de l’expérience humaine lorsque tant d’obstacles et d’entraves, d’exigences et de préparatifs sont supprimés ?

    Le culte moderne de la commodité ne reconnaît pas que la #difficulté est une caractéristique constitutive de l’expérience humaine. La commodité y est décrite comme une destination et non un voyage. Mais escalader une montagne, ce n’est pas pareil que de prendre le tramway pour se rendre jusqu’au sommet, même si l’on arrive au même endroit. Nous devenons des personnes qui se soucient principalement ou uniquement des résultats. Nous risquons de faire de la plupart de nos expériences de vie une série de trajets en tramway.

    La commodité doit servir un but plus élevé qu’elle-même, de peur qu’elle ne conduise qu’à plus de commodité. Dans un ouvrage paru en 1963 devenu depuis un classique (The Feminine Mystique), Betty Friedan a examiné l’apport des technologies domestiques pour les femmes. Elle en a conclu que l’#électroménager avait simplement créé plus de demandes. « Même avec tous les nouveaux appareils qui permettent d’économiser du travail », écrit-elle, « la femme au foyer américaine moderne passe probablement plus de temps à faire des #travaux_ménagers que sa grand-mère ». Lorsque les choses deviennent plus faciles, nous pouvons chercher à remplir notre temps de vie avec d’autres tâches plus « faciles ». À un moment donné, la lutte déterminante pour la vie se transforme en une tyrannie de petites corvées et de décisions insignifiantes.

    Une conséquence fâcheuse de la vie dans un monde où tout est « facile » ? La seule compétence qui compte se résume à la capacité de faire plusieurs choses à la fois. À l’extrême, nous ne faisons rien ; nous ne faisons qu’organiser ce qui sera fait, une base bien peu solide pour une vie décente.

    Nous devons consciemment accepter l’#inconfort – pas toujours, mais plus souvent. De nos jours, faire au moins quelques choix incommodes, c’est cela l’individualité. Vous n’avez pas besoin de baratter votre propre beurre ou de chasser pour vous procurer votre propre viande, mais si vous voulez être quelqu’un, vous ne pouvez pas permettre que la commodité soit la valeur qui transcende toutes les autres. La lutte n’est pas toujours un problème. Parfois, la #lutte est une solution. Elle peut devenir une solution pour découvrir qui vous êtes.

    Accepter l’inconfort peut sembler étrange, mais nous le faisons déjà sans le considérer comme telle. Comme pour masquer le problème, nous donnons d’autres noms à nos choix incommodes : nous les appelons #hobbies, loisirs, #vocations, #passions. Ce sont les activités non utilitaires qui contribuent à nous définir. Elles nous récompensent en façonnant notre personnalité car elles impliquent de se frotter à une résistance significative – avec les lois de la nature, avec les limites de notre propre corps – par exemple en sculptant du bois, en faisant fondre des matières premières, en réparant un appareil cassé, en écrivant un code, en surfant des vagues ou encore en persévérant au moment où vos jambes et vos poumons commencent à se rebeller lorsque vous courez.

    De telles activités prennent du temps, mais elles nous redonnent aussi du #temps. Elles nous exposent au risque de #frustration et d’#échec, mais elles peuvent aussi nous apprendre quelque chose sur le monde et sur la place que nous y occupons.

    Réfléchissons donc à la #tyrannie_de_la_commodité, essayons plus souvent de résister à sa puissance stupéfiante, et voyons ce qui se passe. Nous ne devons jamais oublier le plaisir pris à faire quelque chose de lent et de difficile, la #satisfaction de ne pas faire ce qui est le plus facile. Cette constellation de choix inconfortables est probablement ce qui nous sépare d’une vie totalement conforme et efficiente.

    https://greenwashingeconomy.com/tyrannie-commodite-par-tim-wu
    #facilité #résistance

  • Massive, Unarchivable Datasets of Cancer, Covid, and Alzheimer’s Research Could Be Lost Forever

    Days before Robert F. Kennedy Jr. announced that 10,000 HHS staffers would lose their jobs, a message appeared on #NIH research repository sites saying they were “under review.”

    (#paywall)
    https://www.404media.co/nih-archives-repositories-marked-for-review-for-potential-modification
    #santé #données #effacement #USA #Etats-Unis #trumpisme #médecine #recherche #recherche_médicale

  • L’#IA va-t-elle nous rendre crétins ?

    Les effets du recours à l’#intelligence_artificielle sur les individus suscitent l’inquiétude d’un grand nombre de scientifiques. Ils expriment la crainte qu’elle affaiblisse la capacité de chacun à #penser par soi-même.

    En nous connectant à des contenus de piètre qualité ou en les générant à notre place, l’IA affaiblit notre #esprit_critique.

    Baisse des résultats des tests Pisa, évaluations alarmantes des #capacités_cognitives et effondrement de la #lecture. Ces jours-ci encore, ce constat du déclin de l’#intelligence des jeunes et des adultes alarme le Financial Times. L’état de tutelle des consciences par les écrans où président des IA n’est pas étranger à l’épidémie de #solitude grandissante, affectant aussi nos facultés émotionnelles et sociales. Quel est le rôle de l’IA dans tout cela ?

    L’#IA_prédictive, d’abord, optimise sans cesse nos interfaces numériques afin de nous rendre #accros. L’#économie_de_l’attention repose sur cette absorption du #temps conscient pour extraire des données et influencer les #comportements. L’ingénieur Andrej Karpathy, acteur de la Vallée du silicium, le dit sans détour : « Tiktok, c’est du crack digital qui a attaqué mon cerveau ! » L’#addiction est un fait générationnel. La moitié des adolescents aux États-Unis sont presque constamment connectés. Connectés à quoi ? La « #pourriture_cérébrale » ! Soit des contenus de piètre qualité qui détériorent les #capacités_mentales.

    D’ailleurs, l’expression a été élue mot de l’année par le dictionnaire d’Oxford. Gageons qu’elle rejoigne celle de « #crétin_digital » forgée par Michel Desmurget pour caractériser la surexposition aux écrans. L’IA générative, ensuite, crée du contenu sans #effort. Dans les années 1980, le philosophe Ellul écrivait que si « vous mettez un appareil entre les mains d’un imbécile, il ne deviendra pas intelligent pour cela ». L’actualité continue de lui donner raison. Même les consultants de McKinsey sont trompés par des résultats erronés de ChatGPT. Plus ils y recourent et moins ils sont moins performants et créatifs. Allant dans le même sens, une étude de Microsoft et de l’université Carnegie démontre que l’usage des IA génératives au travail diminue l’esprit critique.

    L’IA interactive, enfin, crée une relation avec l’utilisateur. L’université de Cambridge alerte sur l’essor de ces compagnons IA ouvrant la voie à la capture et la #manipulation de nos intentions. Ce n’est plus seulement l’#attention, mais l’#intention qui est l’objet de la machinerie algorithmique. Même les choix les plus ordinaires (quel film regarder ? quel cadeau offrir ?) sont délégués et toute faculté que l’on n’exerce plus finit par s’atrophier. Ces études ne sont pas anecdotiques, puisque le MIT a recensé pas moins de 777 #risques documentés scientifiquement de l’IA répartis en 23 catégories, dont la #dépendance_affective et la #perte_d’autonomie.

    Le « #capitalisme_numérique colonise tous les lieux que nous dés-habitons », écrit la philosophe Rouvroy. Il en est de même de nos esprits. Le temps d’écran est la continuation du temps de travail. La destruction de nos intelligences est le corollaire de la production au sein de ce #capitalisme. Pour nous maintenir dans un défilement morbide de pourriture cérébrale devant un écran, il faut d’abord nous transformer. La fainéantise d’Oblomov a remplacé le puissant Stakhanov.

    Alerte ! Après la télévision, les jeux vidéo, le rap, les réseaux sociaux numériques, voici la nouvelle innovation qui menace l’intelligence de l’humanité tout entière : l’IA. Les prophéties alarmistes réitérées à chaque nouveauté technologique, fleurissent sur la #crétinisation annoncée des masses, et encore plus sur celle d’une jeunesse déjà régulièrement qualifiée de crétine (digitale).

    Selon plusieurs études récentes, l’IA séduirait la population, fascinée par les #performances de l’outil. Beaucoup de bruit pour une banale évidence : l’absence ou la fragile #éducation – ici, au numérique – nuit gravement à l’exercice d’un esprit critique. Immense boîte noire, nourrie par d’innombrables corpus de textes et d’images, bien souvent sans le consentement de leurs auteurs, l’usage de l’IA générative nous pousse à interroger notre rapport aux #sources, à l’#information, à la #propriété_intellectuelle. Elle nous rappelle combien l’éducation est la clé d’un regard distancié et critique, d’un pouvoir d’agir informé sur le monde. Mais l’IA ne porte aucune responsabilité. Aucune.

    Ont une #responsabilité les professionnels de l’information qui jouent aux apprentis sorciers, se pâmant devant une IA « trop forte », s’émerveillant de ses #performances comme s’ils assistaient à une démonstration de magie. Ont une responsabilité ceux qui s’évertuent à pointer les « erreurs » commises par une IA, surpris qu’un programme conçu pour générer du contenu à partir de #modèles_statistiques « se trompe », et lui reprochant de nous attirer dans les limbes des approximations, méprises et autres faussetés. Dans les deux cas est alimenté le fantasme d’une IA autonome, quasi divine, que nous utilisons, impuissants.

    Prenons le temps. Ne nous jetons pas à corps et esprits perdus dans les multiples potentialités et/ou affres de l’IA. Le procès en crétinisme évite le vrai procès, citoyen celui-ci : de quelle IA voulons-nous ? De celle qui récupère des données que nous cédons sur le Web à des industries sans éthique ? De celle qui, à l’empreinte écologique colossale, condamne un peu plus (vite) l’avenir de notre planète ? De celle à laquelle nous déléguons jusqu’à notre créativité singulière au profit de l’hégémonie d’un savoir standardisé, aseptisé et parfois, pour ne pas dire bien souvent, biaisé ? De celle que l’on utilise pour contribuer à cette accélération dénoncée par Hartmut Rosa qui nous asservit chaque jour davantage aux dogmes les plus avilissants qui soient ?

    Prenons le temps. Celui de mesurer des choix, vertigineux mais aussi passionnants, qui nous reviennent. Celui de prendre nos responsabilités, individuelles et collectives, en décidant de la place que nous souhaitons accorder à une #innovation qui n’est en aucun cas toute-puissante. Celui de faire société, en exerçant notre capacité à « penser d’après nous-mêmes » selon l’intemporelle pensée de Condorcet. L’IA n’a ni cerveau ni valeurs. Nous si. À nous de jouer. Sérieusement.

    https://www.humanite.fr/en-debat/citoyennete/lia-va-t-elle-nous-rendre-cretins

    via @freakonometrics

  • #Palestine_Open_Maps (#POM)

    Tell us about your project. What time(s), place(s), and topic(s) does your work/project cover?


    Palestine Open Maps (POM) (https://palopenmaps.org) is a platform that allows users to explore, search and download historical maps and spatial data on Palestine in English and Arabic. The platform includes historical maps with layers that piece together hundreds of detailed British maps of Palestine from the 1870s up to the mid-1940s. Most importantly, this allows users to see hundreds of towns and villages immediately before the Nakba, and to view this side-by-side with present day mapping and aerial photography.

    How did you come to develop your project? What sources and/or analytics did you draw upon?

    The initial idea for POM was inspired by our discovery that hundreds of 1:20,000 scale British Mandate era maps of Palestine had been digitised and made available through an online document viewer by the Israeli National Library. The maps within the viewer could not be downloaded at a high resolution, and were not connected to the spatial data that would allow people to search for specific locations or navigate between the individual map sheets in a meaningful way. However, we immediately saw the potential to scrape the maps at a high resolution, stitch them together and open source them to the public.

    Having scraped the maps, our opportunity to realize the project came about through Impact Data Lab, a data hackathon event co-curated by Visualizing Palestine and Studio-X Amman in early 2018. Over four days, we were able to georeference the maps and cross-reference population data for over a thousand localities from sources, including Palestine Remembered and the Palestinian Central Bureau of Statistics, to build an initial proof-of-concept map viewer.

    The development of the initial POM website was supported by Visualizing Palestine and launched roughly two months later on Nakba Day 2018. We have continued to develop the site largely as a hobby project since that time, adding features including map sheet downloads, split-screen view, vector map overlays, links to other platforms, and an experimental 3D mode.

    What is your aim for the project? For example, who do you hope to reach? How do you hope people will engage with the work?

    Aside from a historical archive, we view POM as a critical component of a larger project of reimagining the space and politics of the region through a geographic lens. The genocide in Gaza has reminded us of the urgency of building a political future for Palestine, beyond genocide and apartheid. We believe that identifying such a political future requires deep study of the history of the region, and thoughtful engagement with archival materials that tell that history.

    Through an open approach that models custodianship principles, we actively encourage other projects to utilize the maps and data that POM has helped to open source. Numerous people have told us that they are independently using POM and its maps and data, and are able to do so because of our open approach to managing the project.

    If you visit the Wikipedia pages of the depopulated villages of Palestine, you will find that most of them include excerpts of maps downloaded from POM. POM’s approach to historical maps has inspired projects such as the Palestinian Museum’s Interactive Encyclopedia of the Palestine Question as a way to visualize their database of places in Palestine, and have been used as a source for investigations and reports by Forensic Architecture and the Financial Times.

    Individuals such as Tarek Bakri rely on POM as one of their essential tools for their investigations to find the homes of Palestinian refugees returning to visit their villages of their grandparents. In fact, the usage data for the website suggests that it is more used in historic Palestine — and particularly within the territory occupied since 1948 — than in any other country.

    We ourselves have also made use of POM maps and data in a range of other projects. For example, Ahmad used POM map layers as a base for the Palestinian Oral History Map (https://libraries.aub.edu.lb/poha-viewer/map/en) developed with the American University of Beirut. He also utilized the maps as a basis for the A National Monument exhibit in collaboration with Marwan Rechmaoui at Dar El Nimr in Beirut, and the One Map, Multiple Mediums follow up exhibit at Jameel Arts Centre in Dubai.

    We hope that, by elevating the visibility and utility of these maps, we have been able to contribute in a small way to transforming narratives of the past, present and future of Palestine.

    How do you see this work, or mapping in general, contributing to academic and/or popular conversations on Palestine?

    The driving principle of POM has always been to open source the maps and data that it contains, and to provide a rich resource for present and future generations of Palestinians, contextualizing the geographic knowledge in time and narrative. Further, beyond being a repository of map data, to us POM also represents an infrastructure for a wider community of people engaged with the question of Palestine through land, memory, and future imaginaries. We run events called “mapathons,” where people help us to extract data from the historical maps using easy to learn GIS tools based on the open source OpenStreetMap infrastructure.

    We have conducted mapathons in places such as Baddawi Palestinian refugee camp in Lebanon, Birzeit University in Palestine, Milano Design Week in Italy, and even the British Library in the UK. In each of these mapathons, participants contribute to our public dataset of historical geographic information, and contribute to the reappropriation of the maps from their colonial origins, transforming them into a collectively owned, continuously expanding and evolving digital resource.

    Each mapathon is an engagement with a new section of the community, with a wide variety of different motivations to contribute to the project. Whereas in the camps in Lebanon, we were typically greeted by young Palestinian refugees interested to find and explore their own towns and villages in Palestine, in other communities we found people with a general interest in historical maps and digital mapping technologies, and many others simply trying to find their own small, meaningful way to contribute to the Palestinian struggle for liberation and return.

    https://www.jadaliyya.com/Details/46592
    #cartographie #Palestine #visualisation #données_spatiales #données #histoire #cartes_historiques #photographies_aériennes #Palestine #génocide #destruction #histoire_orale #récit #mapathons #archive #effacement #historicisation
    via @fil

    • Palestinian oral history map

      This platform allows you to navigate geographically and chronologically through the #Palestinian_Oral_History_Archive (#POHA), an archive of over one thousand hours of interviews with Palestinians who lived through the Nakba, hosted by the American University of Beirut (AUB).

      https://libraries.aub.edu.lb/poha-viewer/map/en

    • Counter-Mapping the Archive

      Tell us about your project. What times, places, and topics does your work cover?

      My research concerns mapping and counter-mapping in Palestine, from British and Zionist (later Israeli) mapping to Palestinian and anti-Zionist counter-mapping. I have two main objectives in my work: to analyze the relationship of mapping and power in (and of) Palestine; and to assess the potential of counter-mapping as part of a project of decolonization.

      The Palestinian condition is such that any map is treated by Palestinians as a dubious object, capable of deceit. Maps represent more than just a physical image of place. They possess agency and should be read as texts just like paintings, theatre, film, television, and music; they speak of the world, disclosing and realising manifold spatial relations.[1] It follows, then, that a range of approaches are needed to make sense of maps. My work, as a policy fellow at Al-Shabaka; the Palestinian Policy Network, as an artist and filmmaker, and currently as a doctoral candidate at Newcastle University, has been to interrogate the possibilities and limitations of cartography in the land between the Jordan River and the Mediterranean Sea between 1870 and 1967. I begin in 1870 because the first large-scale survey of this region was produced by the British-led Palestine Exploration Fund (PEF) between 1871-1877. The PEF produced by far the most precise and technologically sophisticated maps of the region to that point and paved the way for the British to assume colonial control over Palestine during the First World War, fifty years later. I stop at the Naksa of 1967 (the “setback,” or Six Day War as it’s known outside of Palestine) and the extension of the Israeli occupation to the entirety of historic Palestine as well as the Syrian Golan and the Egyptian Sinai.

      Simultaneously, I analyze (and produce) counter-cartographies of Palestine. Often termed “counter-maps,” these are alternative maps which attempt to recognize the past, critique the present and (re)imagine the future. As such, they are not bound by a timeframe. I include “traditional” and digital maps as well oral or memory maps, literature and poetry, tatreez (Palestinian embroidery) and visual and performance art. The nature of this work means that I have combined traditional approaches such as archival research with the deliberate subversion of colonial artifacts. This includes my own counter-mapping efforts through poetry, visual art, and documentary film – such as my 2021 experimental short, The Place That is Ours, co-directed with Dorothy Allen-Pickard (figure 1).

      The ongoing genocide in Gaza has, in different ways, transformed the goals of my research, not least since many of the geographies depicted in historical maps of Gaza have been annihilated. But it has also called the specificity of decolonization in Palestine into question, because discourses around what constitutes decolonization in Palestine have irrevocably altered since October 2023.[2] Just as I seek to interrogate the archive – the ways it evades and conceals – so too have I found that my own research has become an archive of sorts: a survey of a landscape which has since been hit by a devastating earthquake. Making sense of this research, both the maps and the contextual frames that surround them, and asking what value (if any) they have is a painful preoccupation. These reflections are intended to contribute to a broader, more urgent, conversation around the politics of mapping Palestine and its role in the work of liberation in this current moment, when the very existence of Gaza is under threat.

      How did you come to develop your project? What sources and analytics did you draw upon?

      My interest in maps was sparked in 2017 when I used the iNakba app (since renamed iReturn) developed by Israeli anti-Zionist organisation Zochrot to find my destroyed village in the Tiberius region. The app’s interactive map has pins in the locations of 600 Palestinian villages destroyed in the Nakba of 1947-48 with otherwise obscure Google Maps and Waze coordinates. It also includes demographic information on each village (for instance settlement before and after 1948; what military operation, if any, destroyed it, and so on) in Hebrew, Arabic, and English – information synthesised from Walid Khalidi’s 1992 seminal work All that Remains.[3] I used the only image the app had–a grainy picture of the landscape with rolling hills and palm trees–to check we were in the right place (figure 2). The land did not lie, even after seven decades.

      In the years since, I have contemplated the clandestine cartographic practices I had to resort to in order to re-discover this place. Israeli maps deliberately obfuscate, omit, and ignore Palestinian localities, both populated and depopulated. Just as the Israeli state has been built on the ruins of Palestinian villages, towns, and cities, the Israeli map has been drawn to negate any Palestinian presence.[4] A map is well-suited for this task. The “duplicity” of maps, what critical cartographer J.B Harley calls their “slipperiness,” is the essence of cartographic representation.[5] This is in large part because mapmakers were, and in many ways, still are, presumed to be engaged in an “objective” or “scientific” project of knowledge creation.[6] From this perspective, maps are perfect, scaled representations of the world, based upon unbiased factual information and accurate measurements.[7] Scientific positivism has created the perception that maps are detached, neutral, and above all, accurate graphic representations of space.

      But how does empiricism (and its discontents) apply to Palestine as a site of contemporary colonialism, where indigenous land is confiscated and contested, where any map is out of date almost as soon as it is issued, and where the map acts as a prophecy for colonial intent? Most significantly, in what ways does debunking cartographic myths act as an important case for any designs on material change towards a decolonized world? These questions are the backbone of my work. My hope is that this research produces new knowledge on historical and contemporary practices of mapping in Palestine and will make conceptual and empirical contributions to debates in critical cartography, settler colonialism and decolonization.

      Can you tell us a bit about your methodology? What do you include in your maps and what do you leave out? Why? How do you see your methodological choices in connection with analytic and political questions?

      The archive features prominently in my research; in many ways it acts as my point of departure, not because of what it contains, but because of what it does not. I have carried out research in eight archives across the UK and US including state, public, university, and personal collections and have found many overlaps, contradictions, and silences. But most maps of Palestine (along with their ephemera – explanatory notes, special volumes, sketches, registers, census data, field guides etc.) are held in archives broadly inaccessible to Palestinians. Whether in the colonial archives of London, New York, Washington DC, Tel Aviv, or Jerusalem, Palestinians have limited access to large parts of the history of their land and people, particularly as seen through the colonizer’s eyes.

      The importance of archiving cannot be overstated, as Jaques Derrida and Eric Prenowitz remind us: “There is no political power without control of the archive, if not of memory. Effective democratization can always be measured by this essential criterion: the participation and the access to the archive, its constitution, and its interpretation.”[8] How can Palestinians understand their relationship to the land and imagine return without full access to the archive?

      This is not unique to Palestinians. Indigenous peoples rarely have access to or exercise power over state archives, spaces often filled with documents and histories that instrumentalize the past to ensure settler presents and futures. Despite this marginalization of indigenous people and their relegation to a spectral presence in archival spaces, there has been a recent surge in the exploration and reclamation of archiving in indigenous, especially Palestinian, movements, many of these in the form of counter-cartographies. This might be understood as a reaction to the condition of exile. Beshara Doumani offers this interpretation: “I mention the attraction of archiving the present, not just the past, because Palestinians are still incapable of stopping the continued and accelerating erasure of the two greatest archives of all: the physical landscape, and the bonds of daily life that constitute an organic social formation.”[9]

      It is perhaps for this reason that I find myself perennially drawn to the archive. The lacunae of the archive call for its subversion and reclamation. The archive has become a springboard for counter-mapping and alternative imaginaries. Saidiya Hartman, through her revolutionary “critical fabulations,” summarises this elegantly: “every historian of the multitude, the dispossessed, the subaltern, and the enslaved is forced to grapple with the power and authority of the archive and the limit it sets on what can be known, whose perspective matters, and who is endowed with the gravity and authority of historical actor.”[10]

      In many cases, these limits are not only to be found in the contents of the archive – in my case, maps – but, importantly, also in the physical edifice of the archive itself. For instance, all maps of Palestine before and after the creation of the Israeli state in 1948, some dating back centuries, are labelled “Israel” in the vast collection of the Library of Congress in Washington D.C. (a practice shared with the Royal Geographical Society archives in London). It is not uncommon to find a folder initially labelled “Palestine” crossed out and replaced with “Israel” (figure 3).

      Such a brash overwrite acts as a synecdoche of the broader Zionist imperial project and its logic of elimination. As Patrick Wolf reminds us, the settler’s impulse is first to erase and eliminate the native, and second, to erect a new colonial society on the stolen land.[11] The archive facilitates the former, the state (and its allies) execute the latter.

      And yet, Palestinians insist on imagining and creating a reality beyond the present. Whether in Palestine or in exile, academics, mapmakers, organizers, and artists have learned to destabilize the archive to conceptualize alternative realities. In my own case, I have used technologies and practices including Photoshop, Risoprint (best described as digital screen printing), collage, embroidery and Geographic Information Systems (GIS) software to reinscribe Palestine in cartographic terms. For instance, I geo-referenced a British colonial map from 1935 to depict villages destroyed in the Nakba (figure 4) and the location of Palestinian refugee camps across the region (figure 5).

      Since 1948, Palestinians have held onto the memory of destroyed homes and villages through the creation of atlases, maps, memoirs, visual art, books, oral histories, and websites. The right of return for Palestinian refugees and internally displaced people is not just a political solution but also the first step in a process of decolonization. Decolonizing maps involves acknowledging the experience of the colonial subjects (Palestinians) on the one hand, and documenting and exposing the colonial systems and structures (Zionist expansionism) on the other. It requires what David Harvey calls “the geographical imagination” – linking social imagination with a spatial-material consciousness.[12]

      While there is valid criticism that counter-maps reproduce or embed existing exclusionary territorial and spatial practices, ongoing counter-mapping efforts demonstrate how Palestinians and their allies are creating a decolonizing cartography beyond simply (re)asserting lines on an existing map.[13] Rather, these efforts put personal and collective memories in spatial terms and incorporate them into a legal and political framework. This includes initiatives and projects such as Palestine Open Maps in 2018, the first open-source mapping project based around historical maps from the British Mandate period, as well as Decolonizing Art and Architecture Residency and Forensic Architecture. This is largely thanks to technological advances in GPS and GIS, which provide a foundation upon which to play, imagine and (re)build in spatial-cartographic terms.

      Moreover, the work of artists enables Palestinians to oppose and subvert the hegemonic discourse and assert an alternative vision of liberation and return. Examples include works by Mona Hatoum (“Present Tense” 1996, “Bukhara” 2007), Larissa Sansour (“Nation Estate” 2012, “In the Future They Ate from the Finest Porcelain” 2015) and Amir Zuabi (“Cold Floors” 2021). The current onslaught has seen a wealth of incisive work from younger artists and architects who are creating despite intense repression; see for instance Mariam Tolba (“Map of Palestinian Displacement: Behind Every Infographic is a Million Stories” 2024), Omar El Amine (“The Shahada of the Olive Tree” 2024), Zain Al-Sharaf Wahbeh (“The Image as an Archive” 2024), Tessnim Tolba (“Saharan Winds” 2024) and Nadine Fattaleh (“Materials of Solidarity” 2024 – image 6).

      Crucially, these initiatives are often reinforced by, or juxtaposed with, Palestinian efforts to return to destroyed villages in reality. For instance, the internally displaced inhabitants of villages including Iqrit, Al-Walaja, and Al-Araqib returned decades after their initial expulsion despite the risk of state violence and demolition, in addition to more coordinated events such as the Great March of Return in Gaza from 2018, the Unity Uprising in May 2021 or Operation Al-Aqsa Flood in October 2023. These actions lend credence to Edward Said’s assertion that geography may be “the art of war but can also be the art of resistance if there is a counter-map and a counter-strategy.”[14]

      My work both within and beyond the archive examines maps not solely as visual artifacts of a bygone era; rather it is part of a search for blueprints. Clues remain for what a decolonized and liberated future for Palestine and its people could look like – and what beauty there is to find along the way.

      https://www.jadaliyya.com/Details/46572/Counter-Mapping-the-Archive
      #contre-cartographie

  • Global Health NOW : How a ‘Safer’ Opioid Caused a New Devastation ; How to Keep Doing Global Health ; and Rootsy Music
    https://mailchi.mp/d7e0e223b68c/global-health-now-how-a-safer-opioid-caused-a-new-devastation-how-to-keep-do

    Bon, l’expérience de l’Oxycondne et des salopards de sackler n’a pas suffit. Même recettes sous un autre nom, par d’autres acteurs... et on rejoue la même partition : addiction, détournement, décès, crise mortelle...
    Il paraît qu’en Europe on aurait des commissions pour vérifier la dangerosité des médicaments.... leur pouvoir doit s’arrêter rtès tôt n’est-ce pas ?

    How a ‘Safer’ Opioid Caused a New Devastation

    Across the globe, prescriptions of the painkiller tapentadol have spiked over the last five years—eclipsing oxycodone in some countries—as the drug’s German maker Grünenthal promotes the drug as a “less addictive” option to other opioids.

    But as prescriptions have increased, so have reports of addiction, overdose, and death. And the claims the company has made about the drug’s safety have “no convincing evidence,” finds an investigation by The Examination and journalistic partners in 10+ countries.

    Background: Grünenthal’s efforts to promote tapentadol have involved:

    Funding studies in medical journals to support its claim of relative safety

    Paying millions to doctors, medical organizations, and patient groups across Latin America and Europe

    Educational messaging about the drug’s “minimum potential of abuse” that downplayed respiratory side effects, and marketing the drug as “highly effective” for chronic pain—a tactic that flouts safety guidelines from the WHO, US, and UK

    Global impact:

    In Australia: Coroners have reported dozens of tapentadol-related overdose deaths.

    In India: Psychiatrists are seeing a trend of teenage boys injecting tapentadol.

    In the U.S.: Addiction doctors warn of an uptick in tapentadol dependency.

    Blind spot: Many countries are not tracking tapentadol-related dependency, meaning the true scope of the problem remains largely unknown.

    Pour un rapide survol des horreurs causées par MundiPharma et Purdue Pharma :
    Addiction sur Ordonnace de Patrick Radden Keefe
    https://cfeditions.com/addiction

    #Addiction #Opioides