/articles

  • Dans la tête de Vladimir Poutine | CNRS Le journal
    https://lejournal.cnrs.fr/articles/dans-la-tete-de-vladimir-poutine

    Alors que se profile l’élection présidentielle en Russie, la sociologue Elisabeth Sieca-Kozlowski, autrice de l’ouvrage « Poutine dans le texte » paru récemment chez CNRS Éditions, décrypte pour nous l’évolution de la pensée et de la rhétorique du dirigeant russe depuis son accession au pouvoir.

    L’interview décrit un monde où la Russie manœuvre seule dans le vaste monde, monde où les occidentaux ne sont que spectateurs et victimes. Ça me rappelle quelque chose. Mais quoi ?

  • L’#écriture_inclusive par-delà le #point_médian

    La #langue_inclusive est l’objet de vives polémiques, mais aussi de travaux scientifiques qui montrent que son usage s’avère efficace pour réduire certains #stéréotypes induits par l’usage systématique du #masculin_neutre.

    Où sont les femmes dans une langue où le #genre_masculin peut désigner à la fois le #masculin et le #neutre_générique_universel ? En effet, si vous lisez ici : « Les chercheurs s’intéressent aux discriminations de genre », comprenez-vous « chercheurs » en tant que « les hommes qui contribuent à la recherche » ou comme « les personnes qui contribuent à la recherche » ? Impossible de trancher.

    Sharon Peperkamp, chercheuse au sein du Laboratoire de sciences cognitives et psycholinguistique1 explique : « Il existe une #asymétrie_linguistique en #français où le genre masculin est ambigu et peut être interprété de deux manières, soit comme générique – incluant des personnes de tous genres, soit comme spécifique, incluant uniquement des hommes. Or, on sait depuis longtemps que ce phénomène peut induire un #biais_masculin qui peut avoir a des conséquences sur les #représentations. » Partant de ce postulat que les usages langagiers participent aux #représentations_sociales, les psycholinguistes ont voulu vérifier dans quelle mesure une modification contrôlée de ces usages, notamment par le recours à des tournures dites « inclusives », pouvait affecter certains #stéréotypes_de_genre.

    L’#inclusivité, la #langue_française connaît déjà !

    Un large mouvement a été engagé il y a déjà plusieurs décennies pour reféminiser les usages de langue et la rendre plus égalitaire, à travers l’usage de ce qu’on qualifie aujourd’hui d’ « écriture inclusive ». Mais cette dernière fait #polémique. Des #controverses qui se sont invitées jusqu’au Sénat : le mercredi 25 octobre 2023, la Commission de la culture, de l’éducation, de la communication et du sport a adopté la proposition de loi visant à interdire l’usage de l’écriture inclusive (https://www.senat.fr/dossier-legislatif/ppl21-404.html). Les parlementaires ont en effet estimé « que l’impossibilité de transcrire à l’oral les textes recourant à ce type de graphie gêne la lecture comme la prononciation, et par conséquent les apprentissages ». Jugeant, en outre, que « l’écriture inclusive constitue, plus généralement, une #menace pour la langue française ». Cependant, si tous les regards sont tournés vers l’#écrit et plus précisément vers le point médian, cet aspect-là ne constitue qu’une infirme partie des nombreuses #stratégies_linguistiques proposées pour rendre la langue moins sexiste, tant à l’oral qu’à l’écrit.

    Dans son guide (https://www.haut-conseil-egalite.gouv.fr/IMG/pdf/guide_egacom_sans_stereotypes-2022-versionpublique-min-2.p) « Pour une communication publique sans stéréotype de sexe », publié en 2022, le Haut conseil à l’égalité entre les femmes et les hommes (HCE) définit ainsi le #langage_égalitaire (ou non sexiste, ou inclusif) comme « l’ensemble des attentions discursives, c’est-à-dire lexicales, syntaxiques et graphiques qui permettent d’assurer une #égalité de représentation des individus ». Il signale que « cet ensemble est trop souvent réduit à l’expression “écriture inclusive”, qui s’est imposée dans le débat public mais qui ne devrait concerner que les éléments relevant de l’écriture (notamment les abréviations) ». Nous adopterons donc ici l’expression « langage inclusif » ou « langue inclusive » pour désigner les usages oraux et écrits qui permettent d’exploiter les ressources linguistiques à notre disposition pour noter les différents genres.

    « Ce n’est pas la langue française qui est sexiste, ce sont ses locuteurs et locutrices. Qui ne sont pas responsables de ce qu’on leur a mis dans la tête, mais de ce qu’elles et ils en font », affirme Éliane Viennot, professeure émérite de littérature. Ce que nous faisons aujourd’hui, c’est que l’on reféminise la langue. On ne la féminise pas, on la reféminise parce qu’elle a été masculinisée. En fait, il s’agit de la faire fonctionner comme elle sait faire. Tous les noms féminins de métiers, de fonctions sont là depuis toujours – sauf évidemment s’ils correspondent à des activités nouvelles. »

    Et de poursuivre : « Les #accords_égalitaires sont là. Depuis le latin, nous savons faire des #accords_de_proximité ou des #accords_de_majorité. Nous savons utiliser d’autres termes pour parler de l’humanité que le mot “homme”. Nous savons faire des #doublets – il y en a plein les textes anciens, notamment les textes réglementaires. C’est une question de #justesse, ce n’est pas une question de #féminisme. Nos ancêtres n’étaient pas plus féministes que nous ; simplement, ils utilisaient leur langue comme elle s’est faite, comme elle est conçue pour le faire ».

    Le langage inclusif en pratique

    De fait, le français met à notre disposition différentes #stratégies permettant une meilleure représentation des femmes et des minorités de genre dans ses usages. Il est possible de distinguer deux types de stratégies.

    D’une part, les stratégies dites « neutralisantes ». « Il s’agit, non pas d’utiliser du neutre tel qu’il est présent dans la langue aujourd’hui – puisque ce neutre est pensé comme masculin, mais de retrouver du #neutre, de retrouver du commun », expose Eliane Viennot. Cela passe notamment par le recours à des #termes_épicènes, c’est-à-dire des termes qui ne varient pas en fonction du genre comme « scientifique », « architecte », « artiste »… ou encore le pronom « #iel » qui est employé pour définir une personne quel que soit son genre (« les architectes ont reçu des appels à projet auxquels #iels peuvent répondre »).

    Cela passe aussi par l’usage de #mots_génériques tels que « personnes » ou « individus ». Également par des formules englobantes avec des #singuliers_collectifs : « l’équipe » (plutôt que « les salariés »), « l’orchestre » (plutôt que « les musiciens »), « la population étudiante » (plutôt que « les étudiants »), « bonjour tout le monde » (plutôt que « bonjour à tous »). Ou encore par des tournures en apostrophe (« Vous qui lisez cet article » au lieu de « Chers lecteurs ») et autres reformulations, avec, par exemple, le recours à des formulations passives : « L’accès à la bibliothèque est libre » plutôt que « Les utilisateurs ont librement accès à la bibliothèque »).

    D’autre part, les stratégies dites « féminisantes », qui reposent notamment sur la #féminisation des noms de métiers, de fonctions et de qualités : « professeur » = « professeure » ; « Madame le directeur » = « Madame la directrice » ; « L’écrivain Virginie Despentes » = « L’écrivaine Virginie Despentes ». Autre exemple, la #double_flexion, également appelée « #doublet », qui consiste à décliner à la fois au féminin et au masculin les mots : « les lecteurs de cet article » = « les lecteurs et les lectrices de cet article » ; « les auditeurs peuvent nous écrire à cette adresse » = « les auditeurs et les auditrices peuvent nous écrire à écrire à cette adresse ».

    Ces #stratégies_féminisantes englobent aussi les points médians (préférés aux barres obliques et aux parenthèses), qui sont des abréviations de la double flexion : « les lecteur·ices de cet article » ; « Les auditeur·ices », etc. À l’oral, à l’instar des abréviations comme « Dr » ou « Mme » que tout le monde lit « docteur » et « madame », ces termes se prononcent simplement « les lecteurs et les lectrices » ou les « auditeurs et les auditrices » (plus rarement « les lecteurices » ; « les auditeurices »).

    On y trouve également des modalités d’#accords_grammaticaux qui permettent de bannir la règle selon laquelle « #le_masculin_l’emporte_sur_le_féminin ». Les accords de proximité, ou #accords_de_voisinage, qui consistent en l’accord de l’adjectif, du déterminant et/ou du participe passé en genre avec le nom qui se situe au plus proche et qu’il qualifie. Par exemple : « Les auditeurs et les auditrices sont priées d’écrire à cette adresse » ; « Les policiers et les policières sont prêtes à intervenir ». Et les accords de majorité, qui consistent à accorder l’adjectif, le déterminant et/ou le participe passé avec le terme qui exprime le plus grand nombre, par exemple : « Les éditrices et l’écrivain se sont mises d’accord sur le titre du livre ».

    Si le recours à ces différentes stratégies constitue un marqueur social et culturel pour le ou la locutrice, il est loin de ne relever que de la simple posture et produit des effets concrets qui font l’objet de nombreux travaux de recherche.

    Pour le cerveau, le masculin n’est pas neutre

    Des psycholinguistes se sont ainsi penchés sur les différences entre usage du masculin générique, des formules neutralisantes et des formulations féminisantes comme l’usage d’un pronom ou d’un article féminin et la double flexion pour dire les noms de métiers et de fonctions.

    C’est notamment le cas de Sharon Peperkamp2 : « Nous avons fait lire à nos sujets un court texte portant sur un rassemblement professionnel et leur avons demandé d’estimer le pourcentage d’hommes et de femmes présents à ce rassemblement. Lorsqu’il s’agissait d’une profession non stéréotypée – c’est-à-dire exercée de manière égale par des hommes et des femmes – et lorsque nous avions recours au masculin dit “générique”, les sujets sous-estimaient la proportion de femmes dans le rassemblement. En revanche, lorsque nous utilisions une double flexion, les sujets estimaient un ratio correspondant au ratio effectif dans la société. »

    La chercheuse poursuit : « Lorsqu’il s’agissait d’une profession stéréotypiquement masculine, et que la double flexion était utilisée, la proportion de femmes par rapport à la réalité était en revanche surestimée. » Pour cette psycholinguiste, ces résultats confirment que « il est faux de dire que le langage inclusif ne sert à rien. Il permet au contraire de donner un vrai boost à la visibilité des femmes et permet d’attirer davantage d’entre elles dans des filières supposées masculines. » Elle rappelle, en outre, que des études ont montré que les femmes sont davantage susceptibles de postuler à des #annonces_d’emploi dans lesquelles l’écriture inclusive est utilisée.

    De son côté, Heather Burnett, chercheuse CNRS au Laboratoire de linguistique formelle3, a travaillé sur les différences de représentation engendrées par l’usage d’un article au masculin dit « générique » et d’un article au féminin sur les noms de métier épicènes4 : « L’usage du masculin générique, supposé neutre, engendre un biais masculin. Alors, le masculin est interprété comme référant aux hommes. » Par exemple, « le journaliste » est compris comme un homme exerçant la profession de journaliste.

    C’est aussi ce qu’ont mis en évidence, dans une étude parue en septembre 20235, les psycholinguistes Elsa Spinelli, Jean-Pierre Chevrot et Léo Varnet6. Ce dernier expose : « Nous avons utilisé un protocole expérimental permettant de détecter des différences fines concernant le temps de réponse du cerveau pour traiter le genre des mots. Lorsqu’un nom épicène non stéréotypé est utilisé avec un article également épicène (par exemple “l’otage”ou “l’adulte”), les participants ont largement tendance à l’interpréter comme masculin. Autrement dit, notre cerveau n’interprète pas le masculin comme neutre ». Suivant le même protocole, l’équipe s’est ensuite penchée sur l’usage du point médian. Pour Léo Varnet, les conclusions sont très claires : « L’usage du point médian permet de supprimer le biais de représentation vers le masculin. »

    On constate par ailleurs que l’écriture inclusive peut parfois rallonger le temps de #lecture. Ce qui est normal pour Heather Burnett : « Les mots les plus courts et les plus fréquents sont simplement lus plus rapidement ». De son côté, Léo Varlet souligne que si le point médian ralentit un peu la lecture au début d’un article, les sujets s’adaptent et retrouvent rapidement leur rythme de lecture habituel.

    Ces travaux, les tout premiers s’appuyant sur des expériences contrôlées de psycholinguistique et menés avec des sujets francophones, n’épuisent certainement pas le débat scientifique sur les effets cognitifs du langage inclusif. Mais ils indiquent clairement que le recours à certaines tournures inclusives – en particulier dans des stratégies dites « féminisantes » (re)mobilisant des ressources présentes depuis longtemps dans la langue française –, a bien l’effet pour lequel il est préconisé : réduire les stéréotypes de genre et augmenter la visibilité des femmes.♦

    https://lejournal.cnrs.fr/articles/lecriture-inclusive-par-dela-le-point-median

    • Le CNRS ne doit pas être une plateforme militante !
      (mis ici pour archivage...)

      TRIBUNE. Un collectif de 70 personnalités du monde académique appelle la direction du CNRS de corriger les « dérives militantes » de son équipe chargée de la communication.

      Chercheurs et enseignants-chercheurs, nous sommes très attachés au Centre national de la recherche scientifique (CNRS) et à la haute qualité des recherches qui y sont globalement menées en sciences humaines comme en sciences dures. Nous regrettons, du reste, le dénigrement trop fréquent dont cette institution fait l’objet de la part de personnes qui ne la connaissent pas.

      C’est la raison pour laquelle nous nous inquiétons que sa réputation soit ternie par le comportement militant de certains de ses représentants et sa communication. L’article publié dans le Journal du CNRS sous le titre « L’écriture inclusive par-delà le point médian » en est le dernier témoignage. Écrit par une journaliste qui a recueilli l’avis d’enseignants-chercheurs et de chercheurs favorables à l’usage de l’écriture et de la « langue » dites « inclusives », il y est donc entièrement favorable alors que cette forme est fortement controversée, y compris par des linguistes du CNRS.
      Hors cadre scientifique

      Certes, que trouver à redire à ce qu’un journaliste exprime un point de vue ? Rien, à condition du moins que celui-ci soit présenté comme tel et non comme un fait objectif. Mais dans le cas présent, cet article se trouve publié sur l’une des vitrines du CNRS, lui conférant un statut particulier : celui d’un fait scientifique avéré et estampillé par l’institution.

      D’ordinaire, Le Journal du CNRS fait part de découvertes scientifiques solidement étayées, que ce soit en sciences dures ou en sciences humaines. Mais c’est loin d’être le cas ici : l’écriture dite inclusive est un phénomène créé de toutes pièces par des militants, souvent liés au monde universitaire. Y a-t-il un sens à recueillir le point de vue exclusif des tenants de cette innovation militante pour présenter sur un site scientifique une conclusion qui lui est favorable ? La circularité de la démarche fait sortir du cadre scientifique qu’on est en droit d’attendre sur une vitrine de l’institution.

      Enfin, outre qu’il est partisan, l’article est malhonnête dans son propos comme dans ses illustrations. Ainsi, à aucun moment ne sont mentionnés les arguments émanant de chercheurs reconnus contre les prémisses qui ont conduit à l’élaboration de ce langage. L’article présente comme seuls opposants des politiciens et des syndicats de droite.
      Des débats politiques, pas scientifiques

      La communication du CNRS n’en est pas à son coup d’essai en la matière. Faut-il rappeler les déclarations de certaines des plus hautes instances affirmant en 2021 que l’islamo-gauchisme n’existe pas (seraient-elles aujourd’hui aussi péremptoires ?) ou cautionnant l’usage du concept d’« islamophobie » ? Vu l’absence de tout consensus scientifique sur ces deux sujets, ils relèvent d’un débat politique que l’administration du CNRS n’a pas vocation à trancher.

      Le CNRS est un haut lieu de la recherche publique : son journal et son site ne peuvent devenir l’instrument d’une faction militante, sous peine de se discréditer et, avec lui, les chercheurs qui ont à cœur de remplir leur mission scientifique. En conséquence, nous demandons à sa direction de prendre toutes les mesures nécessaires pour corriger ces dérives en exerçant un droit de regard sans complaisance sur le fonctionnement de sa communication. Il y va de la réputation de l’institution.

      *Cette tribune, signée par un collectif de 70 personnalités du monde académique, est portée par : Michel Botbol (professeur de psychiatrie, université de Bretagne occidentale) ; Bernard Devauchelle (professeur de chirurgie, université de Picardie Jules Verne) ; Dany-Robert Dufour (professeur de philosophie, université Paris-8) ; Nathalie Heinich (sociologue, DRCE CNRS, Paris) ; Catherine Kintzler (professeur de philosophie, université de Lille) ; Israël Nisand (professeur de médecine, université de Strasbourg) ; Pascal Perrineau (politologue, professeur des universités à Sciences Po) ; Denis Peschanski (historien, directeur de recherche au CNRS, Paris) ; François Rastier (directeur de recherche en linguistique, CNRS, Paris) ; Philippe Raynaud (professeur de science politique, université Panthéon-Assas) ; Pierre Schapira (professeur de mathématiques, Sorbonne université) ; Didier Sicard (professeur de médecine, université Paris-Cité) ; Perrine Simon-Nahum (directrice de recherche en philosophie, CNRS) ; Jean Szlamowicz (professeur en linguistique, université de Dijon) et Pierre-André Taguieff (philosophe et politiste, directeur de recherche au CNRS).

      Autres signataires :

      Joubine Aghili, maître de conférences en mathématiques, université de Strasbourg

      Michel Albouy, professeur de sciences de gestion, université de Grenoble

      Martine Benoît, professeur d’histoire des idées, université de Lille

      Sami Biasoni, docteur en philosophie

      Thierry Blin, maître de conférences (HDR) en sociologie, université de Montpellier-3

      Claude Cazalé Bérard, professeur de littérature italienne, université Paris-Nanterre

      Guylain Chevrier, formateur et chargé d’enseignement à l’université

      Jean-Louis Chiss, professeur en sciences du langage, université Sorbonne nouvelle

      Chantal Delsol, philosophe, membre de l’Académie des sciences morales et politiques

      Gilles Denis, maître de conférences HDR HC en histoire des sciences du vivant, université de Lille

      Albert Doja, professeur d’anthropologie, université de Lille

      Jean Dhombres, EHESS, histoire des sciences

      Laurent Fedi, MCF hors classe, faculté de philosophie de Strasbourg

      Jean Ferrette, docteur en sociologie

      Michel Fichant, professeur de philosophie, faculté des lettres, Sorbonne université

      Renée Fregosi, philosophe et politologue, professeur de l’enseignement supérieur

      Luc Fraisse, professeur de littérature française à l’université de Strasbourg, membre de l’Institut universitaire de France

      Marc Fryd, linguistique anglaise, maître de conférences HDR, université de Poitiers

      Jean Giot, linguiste, professeur de l’université, université de Namur, Belgique

      Geneviève Gobillot, professeur d’arabe et d’islamologie, université de Lyon-3

      Christian Godin, professeur de philosophie, université d’Auvergne

      Yana Grinshpun, maître de conférences en linguistique française, université Sorbonne nouvelle, Paris

      Claude Habib, professeur de littérature, université Sorbonne nouvelle, Paris

      Hubert Heckmann, maître de conférences en littérature et langue françaises

      Emmanuelle Hénin, professeur de littérature comparée à Sorbonne université

      Patrick Henriet, directeur d’études à l’École pratique des hautes études, Paris

      Mustapha Krazem, professeur des universités en sciences du langage, université de Lorraine-Metz

      Philippe de Lara, maître de conférences en philosophie et sciences politiques, université Paris-2

      Marie Leca-Tsiomis, professeur de philosophie, université Paris-Nanterre

      Dominique Legallois, professeur de linguistique française Sorbonne nouvelle

      Michel Messu, professeur des universités en sociologie

      Martin Motte, directeur d’études à l’École pratique des hautes études, Paris

      Robert Naeije, professeur de médecine, université libre de Bruxelles

      Franck Neveu, professeur des universités de linguistique française, Sorbonne université

      Françoise Nore, linguiste

      Laetitia Petit, maître de conférences, Aix-Marseille université

      Brigitte Poitrenaud-Lamesi, professeur d’italien, université de Caen

      Denis Poizat, professeur en sciences de l’éducation, université Lyon-2

      Florent Poupart, professeur de psychologie clinique et psychopathologie, université Toulouse-2

      André Quaderi, professeur de psychologie, université Côte d’Azur

      Gérard Rabinovitch, chercheur CNRS en sociologie, Paris

      François Richard, professeur de psychopathologie, université Paris-Cité

      Jacques Robert, professeur de médecine, université de Bordeaux

      François Roudaut, professeur de langue et littérature françaises (UMR IRCL, Montpellier)

      Claudio Rubiliani, maître de conférences en biologie, université Aix-Marseille et CNRS UA Paris-6.

      Xavier-Laurent Salvador, maître de conférences en langue et littérature médiévales, président du LAÏC

      Jean-Paul Sermain, professeur de littérature française, université de la Sorbonne nouvelle

      Daniel Sibony, philosophe, mathématicien, professeur des universités

      Éric Suire, professeur d’histoire moderne, Université Bordeaux-Montaigne

      Pierre-Henri Tavoillot, maître de conférences en philosophie, Sorbonne université

      Michel Tibayrenc, professeur de génétique, directeur de recherche IRD, Paris

      Vincent Tournier, maître de conférences à l’IEP de Grenoble, chercheur à Pacte-CNRS

      Dominique Triaire, professeur des universités de littérature française

      François Vazeille, directeur de recherche au Cern, physicien des particules

      Nicolas Weill-Parot, directeur d’études à l’École pratique des hautes études, Paris

      Yves Charles Zarka, professeur à l’université Paris-Cité, et ex-directeur de recherche au CNRS

      https://www.lepoint.fr/debats/le-cnrs-ne-doit-pas-etre-une-plateforme-militante-19-02-2024-2552835_2.php

    • La réponse du CAALAP (à la tribune publiée par les « 70 personnalités du monde académique »)

      La fausse neutralité des polémiques conservatrices contre la liberté académique

      Depuis quelques jours, la question de l’écriture inclusive fait à nouveau l’objet d’une levée de boucliers d’enseignant·es et de chercheur·euses qui s’accommodent agréablement des inégalités entre hommes et femmes, sous couvert de neutralité. Contre la police de la science, défendons la liberté académique !

      Depuis quelques jours, la question de l’écriture inclusive fait à nouveau l’objet d’une levée de boucliers d’enseignant.e.s et de chercheur.euse.s qui s’accommodent agréablement des inégalités entre hommes et femmes, sous couvert de neutralité. Ce ne sont rien moins que la section 17 du CNU (Conseil National des Universités), dédiée au suivi des carrières en philosophie, et le CNRS, qui font l’objet de l’opprobre et de la suspicion, sommés de s’amender pour sauver leurs réputations respectives.

      Dans une récente motion, la première propose de mettre en visibilité les violences sexuelles et sexistes, et de reconnaître l’engagement des chercheur.euse.s qui luttent contre ces violences :

      « Au moment de l’examen de l’évolution de la carrière, la section 17 du CNU s’engage à prendre en considération les responsabilités liées à l’instruction et aux suivis des violences sexistes et sexuelles, nous invitons les candidat·e·s aux promotions, congés et primes à l’indiquer expressément dans leur dossier. »

      Sur son blog, la philosophe Catherine Kintzler s’inquiète de la « prise en compte [des politiques d’égalité de genre] de manière aussi insistante dans le processus de recrutement ». Or la motion du CNU traite de « l’évolution de la carrière ». Car les recrutements ne sont pas du ressort du CNU : Catherine Kintzler l’aurait-elle oublié ?

      A cette inquiétude s’ajoute encore la crainte qu’une reconnaissance de ces éléments ne crée un biais fâcheux dans le monde de la recherche, favorisant certains terrains plutôt que d’autres, certain.e.s collègues plutôt que d’autres, alors que les carrières ne devraient tenir compte ni de de l’utilité sociale des travaux académiques, ni de l’implication du scientifique dans la cité. Mme Kintzler ne semble pas craindre pour autant que la non-reconnaissance et l’absence de prise en compte de ces éléments ne favorisent leur neutralisation, créant un biais en faveur des recherches qui occultent et invisibilisent ces violences.

      Se situant dans la ligne de celles et ceux qui présupposent que les chercheur.euse.s, quand ils et elles produisent des contenus, se situent sub specie aeternitatis, adoptant un point de vue de Sirius, elle réitère le fantasme d’une universalité émergeant « de nulle part », comme si cette dernière n’était pas le fruit de la discussion démocratique, du dissensus et de la mise en œuvre de formes de rationalité qui fabriquent de l’universel. Elle s’appuie également sur le mythe de la neutralité du scientifique, dont l’intégrité serait mise en péril par son existence en tant que citoyen.ne, ses activités associatives, son idéologie.

      Ainsi, vouloir inclure la part de l’humanité discriminée en raison de son appartenance de genre, poser cette question de l’égalité à même l’usage du langage, c’est faire preuve d’« idéologie ». Consacrer du temps à la lutte contre les violences sexuelles et sexistes, y compris dans son travail de recherche, y compris au sein de sa propre institution, c’est faire preuve d’« idéologie ». A l’inverse, invisibiliser ces violences, ce serait cela, la neutralité. Tenir les contenus académiques à l’abri du monde réel, se défendre d’aborder des enjeux politiques ou sociaux, c’est-à-dire s’en tenir au statu quo politique, s’accommoder des inégalités et cautionner des dispositifs d’oppression et de domination, bref, être un militant conservateur, être un militant réactionnaire, c’est cela, la neutralité. Comme si l’idéologie n’était pas le vecteur de toute pensée quelle qu’elle soit, et comme si la pensée se fabriquait hors des cadres théoriques et des contextes sociaux qui permettent son émergence.

      Dans le même temps, une tribune, réunissant les 70 signatures de chercheur.euse.s conservateur.rice.s, et parmi elles, de militant.e.s d’une laïcité identitaire, écrit son indignation face à la publication sur le Journal du CNRS, d’un article journalistique évoquant la sensibilité de nombreux.euse.s chercheur.euse.s à l’usage de l’écriture inclusive. Les auteur.rice.s de la tribune déplorent que seuls les arguments favorables à ce mode d’écriture soient présentés dans l’article, sans qu’y figurent les arguments de fond critiques de l’écriture inclusive – tout en admettant que le papier en question est un article journalistique et non pas académique ou scientifique.

      Mais tout à coup, on saute du coq à l’âne, et les auteur.rice.s de cette tribune ne résistent pas à passer de l’écriture inclusive à l’autre cheval de bataille que constitue pour eux l’ « islamo-gauchisme », appellation incontrôlable, créée en 2002 par Pierre-André Taguieff (signataire de cette tribune) pour stigmatiser les défenseurs des Palestiniens, puis revendiquée comme insulte par les militants d’extrême-droite et reprise en chœur par les dignitaires de la mouvance réactionnaire actuelle. Militant pour la reconnaissance d’une réalité du « phénomène islamogauchiste » – et niant symétriquement toute réalité au phénomène rationnellement étayé de l’islamophobie – ce groupuscule de chercheur.euse.s affirme sans ambiguïté son positionnement politique identitaire et réactionnaire. A rebours des méthodes les plus fondamentales des sciences sociales, il s’appuie sur le déni de la parole des premier.ère.s concerné.e.s par les discriminations, qui sont, elles et eux, véritablement « hors cadre scientifique », tenu.e.s en lisière, hors champ du monde académique, alors même que l’une des missions officielles des enseignant.e.s-chercheur.euse.s est de contribuer au dialogue entre sciences et société.

      Le sempiternel argument mobilisé par les auteur.rice.s considère que la défense progressiste de l’égalité et la lutte contre les discriminations relèvent du militantisme, alors que la défense conservatrice du statu quo inégalitaire consiste en une neutralité politique qui serait compatible avec la rigueur scientifique. Ainsi, toutes les positions autres que la position politique conservatrice et/ou réactionnaire des auteur.rice.s de la tribune se retrouvent disqualifiées et suspectes d’un mélange des genres entre savoirs et « idéologies », « hors cadre scientifique ».

      Nous, membres de la CAALAP, protestons contre ces tentatives de censure politique au nom de la neutralité, qu’il s’agisse de l’écriture inclusive ou des travaux documentant les discriminations, notamment racistes et islamophobes. Nous condamnons fermement les entraves à la liberté académique, d’autant plus choquantes quand elles émanent de chercheur·es, à la retraite ou non, qui prétendent faire la police de la science par voie de presse.

      https://blogs.mediapart.fr/caalap/blog/210224/la-fausse-neutralite-des-polemiques-conservatrices-contre-la-liberte

  • #BD et #science : pourquoi la #recherche rêve de bulles | CNRS Le journal
    https://lejournal.cnrs.fr/articles/bd-et-science-pourquoi-la-recherche-reve-de-bulles

    Les bandes dessinées consacrées à la science sont devenues de véritables best sellers. De nombreux scientifiques adoptent ce support comme outil de #médiation, voire d’écriture de leurs recherches. Alors que débute cette semaine le festival d’Angoulême, Boris Pétric, anthropologue, revient sur le succès de cette rencontre entre #art et science.

  • Les #Natchez et les Français : histoire d’une alliance et d’un drame méconnu | CNRS Le journal
    https://lejournal.cnrs.fr/articles/les-natchez-et-les-francais-histoire-dune-alliance-et-dun-drame-mecon

    En 1729, près de la Nouvelle-Orléans, les Natchez massacrent soudainement des colons français installés dans leur voisinage. Les représailles, féroces, mèneront le peuple #amérindien au bord de la disparition. Dans un ouvrage qui paraît aujourd’hui, l’historien Gilles Havard, à l’origine d’un projet de « traité de #réconciliation », tente d’apporter un nouvel éclairage sur cet épisode tragique.

    #histoire #colonialisme

  • Le roquefort et le camembert en voie d’extinction ? | CNRS Le journal
    https://lejournal.cnrs.fr/articles/le-roquefort-et-le-camembert-en-voie-dextinction

    Les fromages hébergent une multitude de micro-organismes capables de transformer le lait. Sélectionnés par l’humain, ces ferments ne sont pas épargnés par les standards de l’industrie agro-alimentaire, au point que les fromages bleus ou le camembert pourraient disparaître.

    Pour produire des fromages en grande quantité, les industriels ont sélectionné des souches de champignons correspondant aux cahiers des charges qu’ils se sont imposés. Les fromages doivent être attrayants, avoir bon goût, ne pas arborer de couleurs déroutantes, ne pas produire de mycotoxines, ces toxines sécrétées par les champignons, et surtout pousser rapidement sur le fromage qu’ils se doivent de coloniser. Ce faisant, le secteur de l’agro-alimentaire a exercé une pression de sélection sur les champignons si grande que les fromages, non fermiers et non protégés par une AOP, présentent aujourd’hui une diversité de micro-organismes extrêmement pauvre.
    Des bleus à bout de souffle

    « On a réussi à domestiquer ces organismes invisibles comme on l’a fait pour le chien, ou le chou, explique Jeanne Ropars. Mais il s’est produit pour les micro-organismes ce qu’il se produit à chaque fois qu’on sélectionne trop drastiquement des organismes, gros ou petits : cela a entraîné une très forte réduction de leur diversité génétique. En particulier chez les micro-organismes, les producteurs n’ont pas réalisé qu’ils avaient sélectionné un seul individu et que ça n’était pas durable à long terme. » Les micro-organismes sont capables de se reproduire de manière sexuée et asexuée, mais c’est le plus souvent la voie asexuée, via la production de lignées clonales, qui a été privilégiée par les industriels pour les multiplier. Résultat : ils ne peuvent plus se reproduire avec d’autres souches qui pourraient leur apporter du matériel génétique neuf, ce qui au bout d’un certain temps induit la dégénérescence de la souche en question.

    Les fromages bleus sont certes menacés mais leur situation est encore bien loin de celle du camembert, qui lui est au bord de l’extinction. Car cet autre symbole du terroir français n’est inoculé que par une seule et même souche de Penicillium camemberti et ce partout sur Terre. Cette souche est un mutant blanc sélectionné en 1898 pour inoculer les bries puis les camemberts dès 1902.
    Jusque dans les années 1950, les camemberts présentaient encore à leur surface des moisissures grises, vertes, ou parfois orangées.

    Problème, cette souche est depuis uniquement répliquée par multiplication végétative. Jusque dans les années 1950, les camemberts présentaient encore à leur surface des moisissures grises, vertes, ou parfois orangées. Mais les industriels peu friands de ces couleurs jugées peu attractives ont tout misé sur l’utilisation de la souche de P. camemberti albinos, complètement blanche et de surcroît duveteuse. C’est ainsi que le camembert a acquis sa croûte immaculée caractéristique.

    L’espèce proche génétiquement de P. camemberti, nommée Penicillium biforme, est aussi présente sur nos fromages car naturellement présente dans le lait cru, et montre une diversité génétique et phénotypique incroyable. On pourrait donc imaginer inoculer nos camemberts et bries avec du P. biforme. Si les amateurs veulent pouvoir continuer à manger du fromage, ils vont devoir apprendre à aimer la diversité des goûts, des couleurs et des textures, parfois au sein d’une même production. Et si notre patrimoine gustatif avait tout à y gagner ? ♦

    #Industrialisation #Industrie_agroalimentaire #Camembert

  • Vivre et lutter dans un monde toxique. #Violence_environnementale et #santé à l’âge du #pétrole

    Pour en finir avec les success stories pétrolières, voici une histoire des territoires sacrifiés à la transformation des #hydrocarbures. Elle éclaire, à partir de sources nouvelles, les #dégâts et les #luttes pour la santé au XXe siècle, du #Japon au #Canada, parmi les travailleurs et travailleuses des enclaves industrielles italiennes (#Tarento, #Sardaigne, #Sicile), auprès des pêcheurs et des paysans des « #Trente_Ravageuses » (la zone de #Fos / l’étang de# Berre, le bassin gazier de #Lacq), ou encore au sein des Premières Nations américaines et des minorités frappées par les #inégalités_environnementales en #Louisiane.
    Ces différents espaces nous racontent une histoire commune : celle de populations délégitimées, dont les plaintes sont systématiquement disqualifiées, car perçues comme non scientifiques. Cependant, elles sont parvenues à mobiliser et à produire des savoirs pour contester les stratégies entrepreneuriales menaçant leurs #lieux_de_vie. Ce livre expose ainsi la #tension_sociale qui règne entre défense des #milieux_de_vie et #profits économiques, entre santé et #emploi, entre logiques de subsistance et logiques de #pétrolisation.
    Un ouvrage d’une saisissante actualité à l’heure de la désindustrialisation des #territoires_pétroliers, des #conflits sur la #décarbonation des sociétés contemporaines, et alors que le désastre de #Lubrizol a réactivé les interrogations sur les effets sanitaires des dérivés pétroliers.

    https://www.seuil.com/ouvrage/vivre-et-lutter-dans-un-monde-toxique-collectif/9782021516081

    #peuples_autochtones #pollution #toxicité #livre

    • Ces territoires sacrifiés au pétrole

      La société du pétrole sur laquelle s’est bâtie notre prospérité ne s’est pas faite sans sacrifices. Gwenola Le Naour et Renaud Bécot, co-directeurs d’un ouvrage sur ce sujet, lèvent le voile sur les dégâts causés par cette « pétrolisation » du monde, en France et à l’étranger.

      Si le pétrole et ses produits ont permis l’émergence de notre mode de vie actuel, l’activité des raffineries et autres usines de la pétrochimie a abîmé les écosystèmes et les paysages et a des effets de long terme sur la santé humaine. Dans le livre qu’ils ont coordonné, Vivre et lutter dans un monde toxique (Seuil, septembre 2023), Gwénola Le Naour et Renaud Bécot lèvent le voile sur les dégâts causés par cette « pétrolisation » du monde, selon leurs propres mots. Ils ont réuni plusieurs études de cas dans des territoires en France et à l’étranger pour le démontrer. Un constat d’autant plus actuel que la société des hydrocarbures est loin d’être révolue : la consommation de pétrole a atteint un record absolu en 2023, avec plus de 100 millions de barils par jour en moyenne.

      À la base de votre ouvrage, il y a ce que vous appelez « la pétrolisation du monde ». Que recouvre ce terme ?
      Gwenola Le Naour1. Dans les années 1960, s’est développée l’idée que le pétrole était une énergie formidable, rendant possible la fabrication de produits tels que le plastique, les textiles synthétiques, les peintures, les cosmétiques, les pesticides, qui ont révolutionné nos modes de vie et décuplé les rendements agricoles. La pétrolisation désigne cette mutation de nos systèmes énergétiques pendant laquelle les hydrocarbures se sont imposés partout sur la planète et ont littéralement métamorphosé nos territoires physiques et mentaux.

      L’arrivée du pétrole et de ses dérivés nous est le plus souvent présentée comme une épopée, une success story. On a mis de côté la face sombre de cette pétrolisation, avec ses territoires sacrifiés comme Fos-sur-Mer, qui abrite depuis 1965 une immense raffinerie représentant aujourd’hui 10 % de la capacité de raffinage de l’Hexagone, ou Tarente, dans le sud de l’Italie, où se côtoient une raffinerie, une usine pétrochimique, un port commercial, une décharge industrielle et la plus grande aciérie d’Europe.

      Comment des territoires entiers ont-ils pu être ainsi abandonnés au pétrole ?
      Renaud Bécot2. L’industrie du pétrole et des hydrocarbures n’est pas une industrie comme les autres. Les sociétés pétrolières ont été largement accompagnées par les États. Comme pour le nucléaire, l’histoire de l’industrie pétrolière est étroitement liée à l’histoire des stratégies énergétiques des États et à la manière dont ils se représentent leur indépendance énergétique. L’État a soutenu activement ces installations destinées à produire de la croissance et des richesses. Pour autant, ces industries ne se sont pas implantées sans résistance, malgré les discours de « progrès » qui les accompagnaient.

      Des luttes ont donc eu lieu dès l’installation de ces complexes ?
      G. L. N. Dès le début, les populations locales, mais aussi certains élus, ont compris l’impact que ces complexes gigantesques allaient avoir sur leur environnement. Ces mobilisations ont échoué à Fos-sur-Mer ou au sud de Lyon, où l’installation de la raffinerie de Feyzin et de tout le complexe pétrochimique (le fameux « couloir de la chimie ») a fait disparaître les bras morts du Rhône et des terres agricoles... Quelques-unes ont cependant abouti : un autre projet de raffinerie, envisagé un temps dans le Beaujolais, a dû être abandonné. Il est en revanche plus difficile de lutter une fois que ces complexes sont installés, car l’implantation de ce type d’infrastructures est presque irréversible : le coût d’une dépollution en cas de fermeture est gigantesque et sans garantie de résultat

      Les habitants qui vivent à côté de ces installations finissent ainsi par s’en accommoder… En partie parce qu’ils n’ont pas d’autre choix, et aussi parce que les industriels se sont efforcés dès les années 1960-1970 et jusqu’à aujourd’hui de se conduire en « bons voisins ». Ils négocient leur présence en finançant par exemple des infrastructures culturelles et/ou sportives. Sans oublier l’éternel dilemme entre les emplois apportés par ces industries et les nuisances qu’elles génèrent. Dans le livre, nous avons qualifié ces arrangements à l’échelle des districts pétrochimiques de « compromis fordistes territorialisés ».

      Que recouvre ce terme de compromis ?
      R. B. En échange de l’accaparement de terres par l’industrie et du cortège de nuisances qui l’accompagne, les collectivités locales obtiennent des contreparties qui correspondent à une redistribution partielle des bénéfices de l’industrie. Cette redistribution peut être régulière (via la taxe professionnelle versée aux communes jusqu’en 2010, notamment), ou exceptionnelle, après un accident par exemple. Ainsi, en 1989, après une pollution spectaculaire qui marque les habitants vivant près de Lubrizol en Normandie, l’entreprise a versé 100 000 francs à la municipalité du Petit-Quevilly pour qu’elle plante quatre-vingts arbres dans la ville...

      Mais ce type de compromis a également été très favorable aux industries en leur offrant par exemple des allégements fiscaux de long terme, comme en Sicile près de Syracuse où se situe l’un des plus grands sites chimiques et pétrochimiques qui emploie plus de 7 000 personnes, voire une totale exonération fiscale comme en Louisiane, sur les rives du Mississippi. Des années 1950 aux années 1980, pas moins de 5 000 entreprises sur le sol américain – majoritairement pétrochimiques, pétrolières, métallurgiques ainsi que des sociétés gazières – ont demandé à bénéficier de ces exonérations, parmi lesquelles les sociétés les plus rentables du pays telles que DuPont, Shell Oil ou Exxon...

      Ces pratiques, qui se sont développées surtout lors des phases d’expansion de la pétrochimie, rendent plus difficile le retrait de ces industries polluantes. Les territoires continuent de penser qu’ils en tirent un bénéfice, même si cela est de moins en moins vrai.

      On entend souvent dire, concernant l’industrie pétrolière comme le nucléaire d’ailleurs, que les accidents sont rares et qu’on ne peut les utiliser pour remettre en cause toute une industrie… Est-ce vraiment le cas ?
      G. L. N. On se souvient des accidents de type explosions comme celle de la raffinerie de Feyzin, qui fit 18 morts en 1966, ou celle d’un stock de nitrates d’ammonium de l’usine d’engrais AZF à Toulouse en 2001, qui provoqua la mort de 31 personnes – car ils sont rares. Mais si l’on globalise sur toute la chaîne des hydrocarbures, les incidents et les accidents – y compris graves ou mortels pour les salariés – sont en réalité fréquents, même si on en entend rarement parler au-delà de la presse locale (fuites, explosions, incendies…). Sans oublier le cortège des nuisances liées au fonctionnement quotidien de ces industries, telles que la pollution de l’air ou de l’eau, et leurs conséquences sur la santé.

      Pour qualifier les méfaits des industries pétrochimiques, sur la santé notamment, vous parlez de « violence lente ». Pouvez-vous expliquer le choix de cette expression ?
      G. L. N. Cette expression, créée par l’auteur nord-américain Rob Nixon, caractérise une violence graduelle, disséminée dans le temps, caractéristique de l’économie fossile. Cette violence est également inégalitaire car elle touche prioritairement des populations déjà vulnérables : je pense notamment aux populations noires américaines de Louisiane dont les générations précédentes étaient esclaves dans les plantations…

      Au-delà de cet exemple particulièrement frappant, il est fréquent que ces industries s’installent près de zones populaires ou touchées par la précarité. On a tendance à dire que nous respirons tous le même air pollué, or ce n’est pas vrai. Certains respirent un air plus pollué que d’autres. Et ceux qui habitent sur les territoires dévolus aux hydrocarbures ont une qualité de vie bien inférieure à ceux qui sont épargnés par la présence de ces industries.

      Depuis quand la nocivité de ces industries est-elle documentée ?
      G. L. N. Longtemps, les seules mesures de toxicité dont on a disposé étaient produites par les industriels eux-mêmes, sur la base des seuils fixés par la réglementation. Pourtant, de l’aveu même de ceux qui la pratiquent, la toxicologie est une science très imparfaite : les effets cocktails ne sont pas recherchés par la toxicologie réglementaire, pas plus que ceux des expositions répétées à faibles doses sur le temps long. De plus, fixer des seuils est à double tranchant : on peut invoquer les analyses toxicologiques pour protéger les populations, l’environnement, ou les utiliser pour continuer à produire et à exposer les gens, les animaux, la nature à ces matières dangereuses. Ainsi, ces seuils peuvent être alternativement présentés comme des seuils de toxicité, ou comme des seuils de tolérance… Ce faisant, la toxicologie produit de l’imperceptibilité.

      R. B. Des études alternatives ont cependant commencé à émerger, avec des méthodologies originales. Au Canada, sur les territoires des Premières Nations en Ontario, au Saskatchewan précisément, une étude participative a été menée au cours de la décennie 2010 grâce à un partenariat inédit entre un collectif de journalistes d’investigation et un groupe de chercheurs. En distribuant très largement des kits de mesure, peu coûteux et faciles d’utilisation, elle a permis de démontrer que les populations étaient exposées aux sulfures d’hydrogène, un gaz toxique qui pénètre par les voies respiratoires. Grâce à cette démarche participative, des changements de règlementation et une meilleure surveillance des pollutions ont été obtenus. Il s’agit d’une réelle victoire qui change la vie des gens, même si l’industrie n’a pas été déplacée.

      Qu’en est-il des effets sur la santé de tous ces polluants ? Sont-ils documentés ?
      G. L. N. En France, les seuls travaux menés à ce jour l’ont été autour du gisement de gaz naturel de Lacq, exploité de 1957 à 2013 dans les Pyrénées. Une première étude, conduite en 2002 par l’université, concluait à un surrisque de cancer. Deux autres études ont été lancées plus récemment : une étude de mortalité dévoilée en 2021, qui montre une plus forte prévalence des décès par cancer, et une étude de morbidité toujours en cours. À Fos-sur-Mer, l’étude « Fos Epseal », conduite entre 2015 et 20223, s’est basée sur les problèmes de santé déclarés par les habitants. Ses résultats révèlent que près des deux-tiers des habitants souffrent d’au moins une maladie chronique – asthme, diabète –, ainsi que d’un syndrome nez-gorge irrités toute l’année qui n’avait jamais été identifié jusque-là.

      R. B. Ce que soulignent les collectifs qui évoquent des problèmes de santé liés à l’industrie pétrochimique – maladies chroniques de la sphère ORL, diabètes, cancers, notamment pédiatriques, etc. –, c’est la difficulté de prouver un lien de corrélation entre ces maladies et telle ou telle exposition toxique.

      L’épidémiologie conventionnelle ne le permet pas, en tout cas, car elle travaille à des échelles larges, sur de grands nombres, et est mal adaptée à un déploiement sur de plus petits territoires. C’est pourquoi les collectifs militants et les scientifiques qui travaillent avec eux doivent faire preuve d’inventivité, en faisant parfois appel aux sciences humaines et sociales, avec des sociologues qui vont recueillir des témoignages et trajectoires d’exposition, des historiens qui vont documenter l’histoire des lieux de production…

      Cela suppose aussi la mise au point de technologies, d’outils qui permettent de mesurer comment et quand les gens sont exposés. Cela nécessite enfin une coopération de longue haleine entre chercheurs de plusieurs disciplines, militants et populations. Car l’objectif est d’établir de nouveaux protocoles pour mieux documenter les atteintes à la santé et à l’environnement avec la participation active de celles et ceux qui vivent ces expositions dans leurs chairs.

      https://lejournal.cnrs.fr/articles/ces-territoires-sacrifies-au-petrole

  • Des #cités_antiques en #Amazonie | CNRS Le journal
    https://lejournal.cnrs.fr/articles/des-cites-antiques-en-amazonie

    La vallée d’#Upano se situe dans la région amazonienne du piémont andin. Elle est insérée entre deux cordillères et mesure une centaine de kilomètres de long sur une vingtaine de large. Elle est surplombée par le #volcan_Sangay, en état constant d’éruption depuis des décennies et dont les rejets rendent la région particulièrement fertile. Les agriculteurs locaux m’ont dit qu’ils obtenaient trois récoltes de maïs par an, c’est énorme !

    […] Nous avons identifié et fouillé des plateformes en terre qui servaient à isoler des bâtiments du sol humide, ainsi que des places, des chemins et des routes. La première occupation de la vallée commence environ en 500 avant notre ère pour durer jusqu’en 400-600 de notre ère.

    […] La vallée d’Upano a abrité de véritables cités, densément peuplées et conçues en damier en pleine #forêt_tropicale. Leur réseau est incroyablement complexe, avec des rues, des chemins vers les rivières, des routes primaires et secondaires… Les grands axes sont parfaitement rectilignes, faisant jusqu’à treize mètres de large, et traversent la vallée en faisant fi de son relief naturel. Ils coupent aussi bien des ravins que des élévations. Un tel réseau réclame une véritable #planification, ce qui montre que les différentes implantations de la vallée sont contemporaines.

    L’insistance à passer outre tous les obstacles, alors qu’il serait souvent plus simple de les contourner, suggère fortement que ces routes avaient une fonction symbolique. Elles peuvent avoir été un moyen d’imprimer dans le sol les relations entre voisins, et servir à des processions et des visites ritualisées, comme on peut encore le voir dans les villages annulaires du haut Xingu en Amazonie brésilienne.

    Certaines plateformes sont encore plus hautes, jusqu’à dix mètres. Ici, pas de soubassements d’habitations, mais on suppose que ces espaces étaient plutôt consacrés à des cérémonies collectives. De tels systèmes urbains ont été découverts chez les Mayas du Guatemala ou à Teotihuacan, au Mexique. La grande différence est qu’il n’y a pas de constructions en pierre dans l’Upano. En plus, il n’y a aucun site semblable en Amazonie précolombienne, y compris au Brésil.

    […] Leur culture disparaît brusquement après un millénaire, autour de 400-600, sachant qu’il n’y avait alors pas d’écriture dans la région.

    […] J’ai une hypothèse, hélas non confirmée, sur cette disparition. Les fouilles ont montré, au-dessus des derniers niveaux d’habitation, plusieurs couches noires qui évoquent des éruptions volcaniques. Mais, les datations ne correspondent à aucun évènement suffisamment catastrophique pour faire fuir tout le monde. C’est peut-être une série d’éruptions plus petites, mais plus nombreuses, qui a fini par décourager les habitants, ou alors une #crise_climatique. Ils auraient alors pu partir vers le sud, au Pérou, où l’on retrouve des céramiques similaires à celles d’Upano. Seule une société spécialisée et stratifiée a pu construire un réseau aussi vaste et complexe que dans la vallée d’Upano. Or, on sait que les sociétés urbanisées et hiérarchisées sont moins résilientes aux aléas climatiques. Peut-être que cette civilisation a tout simplement implosé au profit d’un retour à une organisation tribale et forestière. Nous n’avons pas d’explication ferme à proposer pour le moment. Mais, la recherche se poursuit…

    #archéologie_du_paysage #lidar

  • Le Soleil se réveille
    https://www.francetvinfo.fr/replay-radio/le-billet-sciences-du-week-end/le-soleil-se-reveille_6052208.html

    Le billet sciences du weekend avec Mathilde Fontez, rédactrice en chef du magazine scientifique Epsiloon s’intéresse aux spécialistes du Soleil qui sonnent l’alerte  : notre étoile est très active en ce moment.

    franceinfo : L’activité du Soleil est plus intense que prévu ?

    Mathilde Fontez : Oui, et ça commence à se voir sur Terre  : en mars dernier, une tempête solaire a provoqué des aurores boréales dans 30 états américains. Fin février, on avait même pu voir une aurore au Mont-Saint-Michel. Normalement, elles ne se forment seulement qu’aux hautes latitudes. Le fait qu’on puisse en observer jusqu’en Normandie, ça indique des tempêtes solaires très intenses.

    Et il y a aussi les taches à la surface du Soleil, que surveillent les chercheurs, parce qu’elles traduisent l’activité de l’étoile. Elles vont dans le même sens  : il y en avait 159 en juillet, 115 en août, c’est beaucoup, c’est un niveau jamais vu depuis 20 ans. Donc oui, le soleil se réveille. On semble être en train de s’acheminer vers un maximum d’activité, d’ici un an. Voire d’ici la fin de l’année 2023, selon certains chercheurs.

    Un maximum solaire, ça veut dire plus de tempêtes solaires  ?

    Plus d’éruptions solaires oui  : le plasma à la surface du soleil s’agite et propulse des jets de matière et de radiations dans l’espace, qui arrivent parfois jusqu’à la Terre. Ce phénomène est normal  : on sait depuis longtemps que le Soleil suit un cycle d’à peu près 11 ans, où il passe d’un minimum à un maximum d’activité.

    Le premier cycle répertorié, a eu lieu entre 1755 et 1766. Là, nous sommes dans le cycle 25, qui a commencé en 2019. Sauf que les chercheurs s’attendaient à ce que le pic soit atteint en 2025, ça va plus vite que prévu. Ce cycle semble aussi très intense, en particulier par rapport au précédent, qui avait été très doux.

    Qu’est-ce qui se passe  ?

    On ne sait pas. Je vous rassure, personne ne soupçonne que le Soleil se détraque. Ce qu’on voit surtout, c’est que les spécialistes ont encore du mal à prédire l’intensité, le rythme de l’activité du Soleil. On ne comprend pas assez finement la physique de l’étoile, pour faire des prédictions fiables. Même avec les modèles les plus pointus qui cumulent toutes les données un peu comme le font les modèles climatiques, ça ne marche pas.

    Ce maximum qui arrive, va donc être particulièrement scruté par les chercheurs, pour essayer d’améliorer les modèles. En croisant les doigts pour que les plus fortes éruptions ne partent pas vers la Terre. Parce que c’est ça l’enjeu  : ces bouffées de particules peuvent ioniser la haute atmosphère terrestre, et créer des pannes de radio et de satellites à grande échelle. D’où l’importance de les prévoir.

  • Pandémies : l’éternel retour | CNRS Le journal
    https://lejournal.cnrs.fr/articles/pandemies-leternel-retour

    Les conditions restent propices à l’émergence de nouveaux pathogènes capables de causer des #pandémies. La dégradation environnementale et l’accélération des mouvements de personnes et de marchandises s’ajoutent à l’extraordinaire capacité d’adaptation des bactéries, virus et champignons.

    Les épidémiologistes sont à nouveau sur le qui-vive. Au cours des derniers mois, des milliers d’otaries ont été retrouvés mortes sur les plages du Chili et du Pérou. La cause : #H5N1, la grippe aviaire, un virus que l’on surveille comme du lait sur le feu depuis vingt ans. Depuis sa réémergence en Chine en 2003, on craint qu’il ne soit à l’origine d’une pandémie de grande ampleur. Pour ce faire, il ne manque au virus qu’une chose : la capacité à se transmettre d’humain à humain de manière efficace. Jusqu’à présent, la plupart des infections humaines par cette souche provenaient de contacts avec des oiseaux contaminés.

    C’est pourquoi la mort soudaine de tant d’otaries inquiète : une telle mortalité pourrait être le signe que la grippe aviaire s’est propagée d’un individu à l’autre. « Si cela se confirme, ce serait un fait de la plus haute importance, indique Martin Blackledge, directeur adjoint de l’Institut de biologie structurale. Cela voudrait dire que le virus est en train de s’adapter aux mammifères. » Et voilà que nos souvenirs de l’atroce année 2020 reviennent nous hanter.

    La fin de l’optimisme

    Qu’elle semble loin cette époque dorée, les années 1950 et 1960, lorsque les médecins et les autorités sanitaires des pays développés pensaient que la menace des maladies infectieuses serait bientôt du passé. « On voyait les progrès de l’hygiène, de l’infrastructure hospitalière, des vaccins et des antibiotiques. On venait d’un énorme succès contre la polio. C’était bon, on avait tout compris, il était temps de passer à autre chose », ironise Serge Morand, directeur de recherche au laboratoire Maladies infectieuses et vecteurs : écologie, génétique, évolution et contrôle.

    #écologie #zoonoses #épidémies

    • Pour les scientifiques, le Covid-19 a constitué un extraordinaire observatoire de l’évolution d’un pathogène. « On a vu à quel point l’adaptation du virus était fondamentale dans le processus épidémique », explique François Blanquart, chercheur au Centre interdisciplinaire de recherche en biologie. La succession des variants a été particulièrement riche en enseignements. « Avec les variants, on a observé une dynamique de balayage sélectif extraordinaire. Chaque nouveau variant remplaçait les précédents en un temps record. » Ainsi, le variant Alpha, plus virulent et plus transmissible que son prédécesseur, a balayé la souche originale de Wuhan. Peu après, c’est Delta, encore plus virulent et transmissible qu’Alpha, qui a poussé ses concurrents à l’extinction.

      L’arrivée des vaccins a changé le cours de l’évolution du virus. « Omicron a éliminé les variants antérieurs en partie parce qu’il se propageait très bien parmi la population vaccinée », explique François Blanquart. Les scientifiques pensent qu’à l’avenir, ce #coronavirus, comme la grippe, présentera de nombreux #variants en même temps, qui évolueront dans un paysage immunitaire hétérogène . Il sera impossible en tout cas de s’en débarrasser. Homo sapiens est désormais son réservoir naturel.

      #Covid-19 #bactéries #antibiorésistance #virus #champignons #antifongiques #résistance_aux_antifongiques #agriculture #laboratoires_L3 #laboratoires_L4 #one_health

  • Toucher l’énergie du vide | CNRS Le journal
    https://lejournal.cnrs.fr/articles/toucher-lenergie-du-vide

    Selon le philosophe grec Aristote, le vide ne pouvait pas exister. Plus prosaïquement, on serait tenté d’affirmer que le vide est ce qui reste lorsqu’on a tout retiré, c’est-à-dire rien. Mais selon la mécanique quantique, même lorsque l’on a vidé un cube d’espace de tout son contenu matériel, il reste quand même quelque chose… Un concentré d’énergie qui, loin de n’être rien, a même des effets tangibles. L’un d’eux, prédit par Werner Heisenberg, l’un des pères de la théorie quantique, et son ancien doctorant Hans Heinrich Euler, dispose que soumis à un champ magnétique de forte intensité, le vide est susceptible de ralentir et de dévier la lumière… alors même que, dans le vide, la lumière est censée se propager en ligne droite et… à la vitesse de la lumière.

  • Toucher l’énergie du vide | CNRS Le journal
    https://lejournal.cnrs.fr/articles/toucher-lenergie-du-vide

    Selon la théorie quantique, le vide est en réalité plein d’énergie. Une expérience s’apprête à démontrer qu’il peut même ralentir et dévier la lumière.

    Selon le philosophe grec Aristote, le vide ne pouvait pas exister. Plus prosaïquement, on serait tenté d’affirmer que le vide est ce qui reste lorsqu’on a tout retiré, c’est-à-dire rien. Mais selon la mécanique quantique, même lorsque l’on a vidé un cube d’espace de tout son contenu matériel, il reste quand même quelque chose… Un concentré d’énergie qui, loin de n’être rien, a même des effets tangibles. L’un d’eux, prédit par Werner Heisenberg, l’un des pères de la théorie quantique, et son ancien doctorant Hans Heinrich Euler, dispose que soumis à un champ magnétique de forte intensité, le vide est susceptible de ralentir et de dévier la lumière… alors même que, dans le vide, la lumière est censée se propager en ligne droite et… à la vitesse de la lumière.

    Pour déroutante que soit cette prédiction, une équipe de physiciens emmenée par Xavier Sarazin, au Laboratoire de physique des 2 infinis - Irène Joliot-Curie1 (IJCLab), prépare actuellement l’expérience DeLLight dont l’objectif est de mettre en évidence le phénomène. En manifestant l’étrangeté du vide quantique, elle réaffirmera la centralité de ce « milieu » pour avancer sur l’ensemble des questions fondamentales que la physique peine encore à expliquer.
    Une énergie paradoxale

    Dès les premières versions de la mécanique quantique, au début du siècle dernier, les équations de la nouvelle théorie font apparaître des termes mathématiques qui intriguent les physiciens.
    Avec l’avènement de l’électrodynamique quantique, les physiciens comprennent que même vidé de toute substance, l’espace demeure empli de particules dites « virtuelles » qui surgissent sans cesse des recoins de l’espace-temps avant de disparaître sans même s’être matérialisées.

    En 1916, Walther H. Nernst est le premier à comprendre qu’ils correspondent à des situations où, même en l’absence de tout rayonnement, des fluctuations du champ électromagnétique pourtant nul en moyenne, subsistent dans l’espace. Les décennies suivantes, avec l’avènement de l’électrodynamique quantique, les physiciens comprennent que même vidé de toute substance, l’espace demeure empli de particules dites « virtuelles » qui surgissent sans cesse des recoins de l’espace-temps avant de disparaître sans même s’être matérialisées. Pour virtuelles que soient ces particules, une énergie leur est néanmoins associée, l’énergie du vide, dont les effets sont, eux, bien réels.

    À dire vrai, sur le plan théorique, la situation est plus qu’inconfortable. Les calculs montrent en effet que l’énergie du vide est infinie ! Pour autant, expérimentalement, seule compte la différence d’énergie entre deux configurations. Si bien qu’en pratique, il est possible de mettre sous le tapis ce que les spécialistes appellent déjà la « crise du vide », tout simplement en ramenant arbitrairement l’énergie du vide à « 0 ».
    Particules virtuelles, effets tangibles

    Ainsi, dès les années 1940, calculs et expériences démontrent que la valeur du moment magnétique de l’électron est liée à la mer de particules virtuelles dans laquelle baignent les corpuscules matériels. Plus tangible, en 1948, Hendrik Casimir montre qu’entre deux miroirs se faisant face dans un vide intégral, de la même manière qu’une guitare ne vibre qu’à certaines fréquences, seules certaines fluctuations du vide sont possibles. En revanche, une telle limitation n’a pas cours en dehors de la cavité. Conséquence : les miroirs subissent une pression telle qu’ils ont tendance à se rapprocher l’un de l’autre, ce qui a été confirmé dès 1958.
    L’effet du vide prédit par Heisenberg et Euler dès 1936 demeure le plus étonnant : en s’y propageant, la lumière voit sa vitesse ralentir et sa trajectoire déviée, exactement comme si elle passait à travers une lentille.

    Mais c’est sans doute l’effet du vide prédit par Heisenberg et Euler dès 1936 qui demeure le plus étonnant. En présence d’un champ magnétique de très forte intensité, tout se passe comme si le vide acquerrait une forme de matérialité : en s’y propageant, la lumière voit sa vitesse ralentir et sa trajectoire déviée, exactement comme si elle passait à travers une lentille. « De manière imagée, c’est un peu comme si le vide, sous l’effet d’un champ magnétique intense, devenait plus dense », explique Xavier Sarazin.

    Dans le langage de la physique, on dit que son indice optique est modifié. Dans une lentille, c’est le résultat de la présence de charges électriques bien réelles. Dans le cas du vide, c’est une manifestation de la polarisation sous l’effet du champ des particules virtuelles.
    Un laser intense pour surmonter les bruits résiduels

    L’effet dont il est question est néanmoins infinitésimal. Dans les années 1960, le physicien anglais Reginald V. Jones a tenté de le mettre en évidence avec un champ de 1 tesla, sans résultat. « C’était une très belle expérience, mais très exploratoire », commente Xavier Sarazin. À la suite, d’autres expériences ont été menées jusqu’à récemment. Mais à ce jour, les bruits résiduels demeurent dix fois plus intenses que le signal attendu.

    Pour aller plus loin, plutôt que de travailler avec des champs magnétiques continus dont l’intensité demeure limitée, le physicien français et ses collègues de DeLLight proposent d’utiliser le champ magnétique produit par une impulsion lumineuse ultra brève et très énergétique. Précisément, en utilisant les impulsions produites par l’installation Laserix qui délivre des impulsions de 50 femtosecondes et de 2 joules, et en les focalisant dans un volume d’une dizaine de microns de côté, les calculs montrent qu’il est possible d’engendrer un champ magnétique de 105 teslas. Si on parvient alors à y faire passer juste au bon moment une autre impulsion, cette dernière verra sa trajectoire déviée, comme si elle traversait une minuscule lentille.

    Minuscule, c’est peu dire : la déviation attendue est de 10-10 mètre (la taille d’un atome) après 1 kilomètre de propagation. Impossible à mettre en œuvre et à mesurer ! D’où la seconde idée des expérimentateurs : amplifier le signal en faisant interférer une impulsion déviée avec une autre qui ne l’aura pas été. Ce faisant, on réalise une expérience de franges d’interférence dont les caractéristiques sont reliées à la déviation originelle. De cette manière, « l’intensité du signal doit être multipliée par un facteur 250, de quoi engendrer une déviation d’un centième de nanomètre sur une distances de quelques dizaines de centimètres », détaille l’expérimentateur. C’est peu, mais en répétant l’expérience toute une journée, à raison de dix impulsions par seconde, les estimations montrent que l’on doit pouvoir accumuler assez de signal pour l’extirper du bruit expérimental.
    Le vide supraconducteur ?

    Pour l’heure, l’expérience est en cours de préparation. « Entre 2019 et 2022, nous avons réalisé les premiers prototypes de notre interféromètre, et après avoir caractérisé l’ensemble des bruits expérimentaux, nous avons observé une déviation telle qu’attendue dans l’air, explique Xavier Sarazin qui ajoute : nous devons désormais installer notre interféromètre dans une salle dédiée afin de diminuer encore les vibrations, et par ailleurs augmenter la focalisation des impulsions. » Objectif : acquérir de premières données dans le vide en 2025.

    Pour Maxim Chernodub, à l’Institut Denis Poisson2, à Orléans, « dans le cas du moment magnétique de l’électron, la mise en évidence des effets du vide est indirecte. Par ailleurs, dans le cas de l’effet Casimir3, on met en jeu un élément matériel à travers les plaques réfléchissantes. Mais là, il n’y a que de la lumière et du vide, ce qui confère à cette expérience une très grande profondeur. En cas de succès, elle nous placerait face à toute l’étrangeté du vide quantique ». En l’occurrence face au fait que le vide, sous certaines conditions, acquiert des propriétés qui sont normalement celles de la matière.

    Plus étrange encore, Maxim Chernodub a calculé il y a une dizaine d’années que sous l’effet d’un champ magnétique d’environ de 1 020 teslas, le vide devrait se comporter comme un solide supraconducteur, c’est-à-dire un matériau dans lequel un courant électrique se propage sans aucune résistance. « C’est déroutant, commente le théoricien. Car en même temps, le vide n’a rien d’un objet ordinaire. En particulier, lorsqu’on se déplace dans le vide, celui-ci demeure d’une certaine manière immobile, ce qui a pour conséquence que la vitesse de la lumière dans le vide est la même pour tous les observateurs, quel que soit leur vitesse, un constat aux fondements de la théorie de la relativité d’Einstein. »
    Le vide, ombre de notre ignorance

    Sans que cela interdise que la vitesse de la lumière puisse varier quand on fait interagir deux impulsions de lumière se propageant en sens inverse, ce que Xavier Sarazin s’apprête justement à démontrer… « Notre objectif est de montrer à quel point, dès lors que l’on s’intéresse au vide, on touche aux fondements de même qu’aux limites de notre compréhension de l’univers matériel », prolonge l’expérimentateur.

    Et pour cause, si l’on se souvient que la valeur de l’énergie du vide donnée par la théorie quantique est infinie, « c’est un signe de l’incomplétude de cette dernière », analyse Maxim Chernodub. Et de fait, les physiciens savent depuis des décennies qu’elle est notamment incompatible avec la relativité générale, théorie qui décrit l’évolution de l’Univers à grande échelle. La crise a même pris en 1998 une tournure quasi dramatique.
    En 1998, deux équipes indépendantes d’astrophysiciens ont montré que l’expansion de l’Univers accélère. On ne sait pas pourquoi, si ce n’est que tout se passe comme si le vide lui-même était le moteur de cette accélération.

    Cette année-là, deux équipes indépendantes d’astrophysiciens ont montré que l’expansion de l’Univers accélère. On ne sait pas pourquoi, si ce n’est que tout se passe comme si le vide lui-même était le moteur de cette accélération. À ceci près que la valeur de l’énergie du vide déduite des observations astrophysiques est au minimum 10 115 ordres de grandeur plus faible que celle obtenue théoriquement dans le cadre de la théorie quantique, dès lors qu’on parvient à régulariser en partie la catastrophe des infinis. Comme si l’infiniment petit d’un côté, et l’infiniment grand de l’autre renvoyaient chacun à des réalités totalement irréconciliables.

    Ainsi, le vide est bien le signe que de l’univers matériel, quelque chose nous échappe complètement. Il y a une quinzaine d’années, Álvaro de Rujula, au service de physique théorique du Cern, à Genève, nous avait confié en plaisantant que la crise du vide est à ce point sévère que « chaque physicien qui ne consacre pas au moins une heure par jour à ce problème devrait être jeté en prison ! » De leur côté, les physiciens de DeLLight s’apprêtent à explorer l’un des interstices d’où pourrait surgir une piste permettant de sortir de l’ornière. Une chose est certaine, contre Aristote, il est définitivement impossible d’affirmer que le vide n’existe pas, bien au contraire.♦

    Notes

    1. Unité CNRS/Université Paris-Saclay.
    2. Unité CNRS/Université d’Orléans/Université de Tours.
    3. L’effet Casimir, tel que prédit par le physicien néerlandais Hendrik Casimir en 1948, est une force attractive entre deux plaques parallèles conductrices et non chargées.

    • la déviation attendue est de 10-10 mètre (la taille d’un atome) après 1 kilomètre de propagation.

      Exercice 1 : Calculez les sinus et cosinus de l’angle de la déviation linéaire résultante à 1 année lumière du point d’émission.

      Exercice 2 : La suite U(n) crée par l’ensemble des valeurs de sinus pour des déviations calculées à la distance de 10^n Km est elle intégrable au sens de Neyman dans l’intervale 1-n ?
      spoiler : https://www.youtube.com/watch?v=vEZcqVF6JbI

      Exercice 3 : à quelle distance de la cage des buts devrait on placer le photon lors d’un penalty pour atteindre la lucarne ?

  • Au Svalbard, une expédition pour sauver la mémoire des glaciers
    https://lejournal.cnrs.fr/articles/au-svalbard-une-expedition-pour-sauver-la-memoire-des-glaciers

    « Nous sommes un peu comme le moine franciscain du Nom de la Rose, Guillaume de Baskerville, qui essaie de sauver quelques ouvrages dans une bibliothèque en feu  », confie Jérôme Chappellaz, président de la Fondation Ice Memory. Celle-ci ambitionne de sauvegarder des carottes des #glaciers du monde entier, qui contiennent la mémoire de l’environnement et des #climats passés. Le sanctuaire Ice Memory sera constitué en 2024-2025, près de la station franco-italienne Concordia, à 1 100 kilomètres à l’intérieur du continent #antarctique.

    Son principe est le suivant : il s’agit, à 3 200 mètres d’altitude, de creuser une cave à 10 mètres de profondeur puis de créer une arche en neige fraisée pour la recouvrir, en vue d’y stocker les carottes de glace du monde entier. « Cette #carothèque pour les générations futures » sera localisée là où l’on trouve «  le meilleur congélateur du monde », assure Jérôme Chappellaz. À la surface, la température moyenne est de -55 °C, n’atteignant que les -20 °C au plus chaud de l’été.

    [...] Alors que l’urgence devient criante de sauvegarder ces archives mondiales en voie de disparition, huit scientifiques s’apprêtent justement à installer leur camp de forage, durant la deuxième quinzaine du mois d’avril 2023, au sommet du glacier Holtedahlfonna, à 1 150 mètres d’altitude dans l’archipel norvégien du #Svalbard, à 40 kilomètres du village scientifique international Ny-Ålesund.

    [...] Avec le programme Sentinel, qui vise in fine à étudier l’impact de la disparition de la banquise sur les cycles climatiques et biogéochimiques de l’Atlantique Nord supérieur, les chercheurs n’étudient plus seulement les bulles d’air. Ils ont développé au cours des dix dernières années de nouvelles techniques d’investigation, notamment le séquençage du génome des micro-organismes de la glace, pour mieux comprendre comment ces #micro-organismes sont liés aux changements des conditions environnementales et comment ils peuvent être utilisés comme sentinelles pour mesurer l’impact de ces changements.

    #ice_core_science

  • « L’origine humaine du #réchauffement fait officiellement consensus depuis au moins 15 ans » | CNRS Le journal
    https://lejournal.cnrs.fr/articles/lorigine-humaine-du-rechauffement-fait-officiellement-consensus-depui

    À l’occasion de la parution prochaine de la synthèse du sixième rapport d’évaluation du #Giec, Hélène Guillemot, historienne des sciences, retrace l’évolution des connaissances sur le climat depuis le XIXe siècle et la manière dont se sont forgées les certitudes sur le dérèglement en cours.

  • Climatosceptiques : sur Twitter, enquête sur les mercenaires de l’intox | CNRS Le journal
    https://lejournal.cnrs.fr/articles/climatosceptiques-sur-twitter-enquete-sur-les-mercenaires-de-lintox

    Au sein du projet Climatoscope, David Chavalarias et ses collègues étudient la structure, les tactiques et les arguments des réseaux climatosceptiques sur Twitter. Des réseaux bien organisés, particulièrement actifs depuis quelques mois, dont l’objectif est de semer le doute sur la réalité du changement climatique, et de ralentir toutes les actions visant à réduire l’empreinte de l’humanité sur le climat.

    #CNRS #climatoscepticisme #réseaux_sociaux #Twitter

  • « L’humain a créé les conditions de la surpopulation de sangliers » | CNRS Le journal
    https://lejournal.cnrs.fr/articles/lhumain-a-cree-les-conditions-de-la-surpopulation-de-sangliers

    À la fin des années 1960, la chasse était devenue une véritable activité de loisirs et ne comptait pas moins de 2 millions de pratiquants, un record. Mais la disparition du petit gibier, cible de prédilection des chasseurs, menaçait la pérennité de l’activité. L’idée est alors apparue de développer les populations de grand gibier, tout particulièrement de sangliers, afin de proposer de nouvelles proies aux chasseurs.

    Pour ce faire, plusieurs mesures ont été mises en place. Tout d’abord l’élevage, qui a permis de faire des lâchers d’individus dans des milieux où le sanglier n’était pas ou plus présent, mais aussi le nourrissage des animaux : du grain et des légumes abîmés ont été mis à leur disposition, ainsi que de l’eau pour s’abreuver. Une chasse dite « conservatrice » s’est aussi mise en place, qui évitait de tuer les mâles reproducteurs et les laies dominantes, garantes de la cohésion des compagnies (groupes) de sangliers.

    Dans le livre, vous évoquez également l’hybridation volontaire de sangliers avec des cochons domestiques...

    R. M. En effet. Pour augmenter la capacité reproductive des populations de sangliers, on a encouragé l’hybridation de sangliers mâles avec des porcs domestiques femelles – produisant ce qu’on appelle communément des « cochongliers ». La truie, la femelle du porc domestique, met en effet bas de 8 à 10 petits, contre 4 à 6 seulement pour la laie... À travers toutes ces pratiques, le sanglier a été pour ainsi dire « cynégétisé » : on a fait de lui, non plus une espèce sauvage, mais une espèce-gibier transformée par la chasse et pour la chasse.

    C’est marrant (non), parce que justement à Montpellier, ce sont régulièrement des cochongliers qui sont aperçus en ville (notamment à la Mosson).

    Et lorsque la nouvelle mairie (alliance socialistes et écolos) a annoncé qu’elle n’autoriserait plus la chasse sur les terrains municipaux, en rétorsion les chasseurs ont fait savoir qu’ils cesseraient de « réguler » les sangliers et qu’on verrait bien la catastrophe (dont cet article du CNRS explique qu’elle a donc été créée… par les chasseurs eux-mêmes). Ici aussi on a donc affaire à un lobby de salopards.

  • « C’est une injonction contradictoire : on nous demande d’être sobres dans une société qui est tout entière organisée autour de l’abondance. »
    https://lejournal.cnrs.fr/articles/la-sobriete-ne-peut-pas-reposer-seulement-sur-les-individus

    Sophie Dubuisson-Quellier, sociologue, membre du Haut conseil pour le climat, revient pour CNRS Le Journal sur le concept de sobriété, ses objectifs et ses verrous.

    Qu’est-ce que la sobriété dont on nous parle beaucoup depuis quelques mois ? Comment la définir ?

    Sophie Dubuisson-Quellier . Tout dépend sous quel angle on envisage la notion. L’arrivée du concept de « sobriété » dans le discours public est très récente et très rapide. Il y a quelques mois encore, le terme était considéré comme tabou car il évoquait l’écologie punitive. La sobriété à laquelle les Français sont appelés aujourd’hui, et les Européens plus largement, s’est imposée dans un contexte particulier, qui est un contexte de crise énergétique lié à la guerre en Ukraine ; il s’agit d’une modération des consommations d’énergie, qui vise surtout le consommateur final et repose sur la responsabilisation des individus.

    Mais en réalité, la notion de sobriété existe dans la recherche en sciences sociales depuis une vingtaine d’années déjà. Elle a fait l’objet de nombreux travaux, principalement chez les chercheurs anglo-saxons, sous le terme de « sufficiency » – un concept repris par le rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) pour la toute première fois en 2022, et qu’on pourrait traduire par « ce qui est suffisant », « ce qui suffit ».

  • « Il n’y a pas de santé sans santé mentale » | CNRS Le journal
    https://lejournal.cnrs.fr/articles/il-ny-a-pas-de-sante-sans-sante-mentale

    Près d’un Français sur cinq a souffert ou souffrira de troubles psychiatriques, en particulier de dépressions. Entre 15 et 20 % de la population de notre pays, soit 10 à 13,5 millions de personnes, grossissent en effet les statistiques sur la santé mentale. Ce qui fait de cette catégorie de pathologies la première cause de handicap en France – elle l’est aussi à l’échelle mondiale –, la première cause d’absentéisme au travail, la première cause de décès chez les jeunes adultes – avec dix mille suicides par an –, et la première cause de mort prématurée1, principalement en raison de comorbidités mal prises en charge.