• Logements vacants : chiffres froids pour territoires morts - Projet Arcadie
    https://projetarcadie.com/logements-vacants-chiffres-froids

    Les causes de vacance sont connues, mais mal hiérarchisées. Dans certaines zones, les logements ne trouvent ni acheteur, ni locataire. Dans d’autres, les biens sont devenus des épaves, proposés à des prix attractifs, mais dont les travaux de rénovation excèdent la valeur du bien.

    Les situations de succession non réglée ou d’indivision paralysée sont fréquentes. Un logement dont le propriétaire est décédé ou placé en établissement médico-social a entre quatre et cinq fois plus de chances de rester vacant.

    La Cour se contente de citer cette donnée sans chercher à en expliquer les causes. Dès lors, le lecteur – qui peut être un journaliste ou un député – en est réduit à des conjectures.

    #politique_du_logement (absence de) #immobilier #pénurie

  • Face à la pénurie de psychotropes, des patients atteints de troubles psychiques confient leur désarroi | Blanche Ribault
    https://www.streetpress.com/sujet/1748954819-penurie-psychotropes-patients-maladies-mentales-temoignages-

    Depuis janvier, des milliers de patients atteints de maladies psychiques sont en rupture de traitement forcée. Entre crise de panique et trouble de l’anxiété, ils racontent les conséquences de ces pénuries et le manque d’alternatives. Source : StreetPress

  • La #France va-t-elle manquer d’#eau ?

    Face aux nombreuses inconnues qui entourent l’évolution des #précipitations dans les décennies à venir, cinquante scientifiques ont décidé de multiplier les simulations hydrologiques. Une certitude : il y aura moins d’eau l’été.

    Zoomer sur la carte de France pour choisir une rivière et regarder l’évolution de son débit dans cinquante ans sous l’effet du réchauffement climatique. Le Gers, par exemple, qui coule à Layrac. Les #cartes_Méandre dessinent quatre #scénarios possibles pour cette rivière, du plus optimiste, avec une diminution du débit de 10 % par rapport au niveau actuel, au pire, avec une baisse de plus d’un tiers.

    Cette impressionnante visualisation, disponible pour 4 000 points d’eau répartis sur tout le territoire, est le résultat du projet Explore2, piloté par l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae) et l’Office international de l’eau (OiEau). Entre 2021 et 2024, une équipe de cinquante scientifiques a travaillé à mettre à jour les projections hydroclimatiques françaises pour anticiper les évolutions futures.

    L’observation des #cours_d’eau préservés des activités humaines annonce déjà les tendances. Une autre #carte_interactive, qui a reçu fin novembre le prix Science ouverte des données de la recherche pour son interface de visualisation proposée au public, dessine une France de l’eau coupée en deux.

    Dans la moitié sud, l’eau a manifestement diminué depuis le milieu du XXe siècle. « Il y a une baisse de l’ordre d’un tiers de la ressource en eau sur une très grande moitié sud de la France pendant les cinquante dernières années », précise Jean-Philippe Vidal, hydroclimatologue à l’Inrae. Mais dans la moitié nord, les hydrologues peinent à identifier des tendances claires depuis le début des mesures, en 1968.

    Ce contraste se retrouve dans les projections. Autour de la Méditerranée, celles du climat sont formelles : il y aura moins d’eau d’ici la fin du siècle. Mais dès qu’on remonte un peu au nord, les modélisations donnent des résultats divergents. « Pour la plupart des régions au nord de la Loire, il n’y a pas de signal clair : on ne sait pas si elles seront plus ou au contraire moins arrosées dans les décennies à venir », indique Jean-Philippe Vidal.

    De fait, si les modèles de climat convergent sur l’élévation des températures sous l’effet de l’augmentation des gaz à effet de serre, ils ne s’accordent pas sur l’évolution des précipitations. Pour s’en convaincre, il suffit de regarder la carte du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) concernant les projections des précipitations à la fin du siècle en France : la majorité de nos régions est grisée – autrement dit sans résultats – parce que les modèles livrent des simulations trop divergentes pour en tirer des conclusions.
    La pluie, difficile à modéliser

    Les projections du climat futur reposent en effet sur une modélisation du système climatique global croisée avec des modèles climatiques régionaux pour représenter plus finement le climat localement. Mais une bonne partie de la France se trouve dans une zone d’incertitude, entre le nord de l’Europe qui sera plus arrosé et le sud de celle-ci qui sera plus sec. « Certains modèles mettent la zone de transition au sud de l’Angleterre, d’autres au milieu de la France », détaille Jean-Philippe Vidal, une des chevilles ouvrières d’Explore2. En bref, selon le climat régional choisi, les tendances s’inversent.

    Autre obstacle, la pluie est plus difficile à extrapoler que la température : « La pluie est un phénomène du tout ou rien : il pleut ou il ne pleut pas. Ce processus non linéaire est différent de celui de la température, qui varie plus progressivement. Une température à un moment donné dépend de celle une heure avant. »

    Traduire la pluie en quantité d’eau à la surface terrestre n’est pas non plus une sinécure. « Pour Explore2, on a travaillé avec des modèles hydrologiques différents pour essayer d’avoir une vue d’ensemble sans rater des possibles. Certains transforment assez simplement une précipitation en un débit. D’autres représentent tous les processus physiques tels que le captage des pluies par la végétation, l’infiltration dans le sol, l’évaporation… », explique Jean-Philippe Vidal.

    Dernière difficulté à surmonter : l’étape de validation des modèles. En temps normal, les scientifiques testent les résultats de leurs modélisations avec des mesures réelles pour s’assurer de leur validité. Ici, cela implique d’avoir accès à des mesures de débit ou de hauteur de nappe qui ne soient influencées que par les variations climatiques, ce qui n’est évidemment pas simple tellement pompages, barrages, drainages, urbanisation et autres artificialisations modifient largement les niveaux d’eau. Les chercheurs ont néanmoins identifié 600 stations préservées parmi les 4 000 pour valider leurs modèles.
    « Commencer à se préparer »

    Une fois toutes ces précautions prises, l’équipe d’Explore2 a multiplié les projections. À partir d’une quinzaine de modèles de climat mondiaux ou focalisés sur l’Europe, faisant consensus à l’échelle de la communauté scientifique, elle a obtenu un champ des possibles des tendances de précipitations. Informations ensuite rentrées dans neuf modèles hydrologiques pour transformer les données sur les pluies en informations sur le niveau des nappes et le débit des cours d’eau. En définitive, les chercheurs et chercheuses se retrouvent avec quelque 200 projections...

    « La simulation par de nombreux modèles différents augmente la confiance sur certains résultats », explique Agnès Ducharne, climatologue au CNRS, qui a également participé à Explore2. Plus une même projection va se répéter, plus elle a de chances d’être juste, selon les statisticien·nes du climat. « Cette approche multimodèle fait largement consensus, renchérit Ludovic Oudin, hydrologue à Sorbonne-Université, qui n’a pas participé au projet. Toutes ces simulations, en permettant de regarder comment les modèles divergent, donnent une bonne idée de l’incertitude. »

    Ensuite, il a fallu justement représenter l’incertitude puisque, selon les modèles climatiques utilisés, les débits annuels moyens augmentent ou baissent. Jean-Philippe Vidal explique le choix de distinguer quatre horizons possibles à la fin du siècle « pour dégager des futurs auxquels on pourrait être confrontés et pour lesquels il faut commencer à se préparer ». Pour ne pas se limiter à des moyennes, au risque d’amoindrir les évolutions, les scientifiques ont aussi voulu tenir compte des extrêmes.

    Autre parti pris dans la présentation finale des résultats : celui de se limiter à un seul scénario d’émission de gaz à effet de serre du Giec, le RCP 8.5, qui table sur la poursuite du niveau actuel d’émissions dans les décennies à venir. Deux autres scénarios plus optimistes avaient été explorés. Mais le manque d’ambition des politiques climatiques laisse penser que le scénario RGP 8.5, qualifié autrefois de pessimiste, est aujourd’hui une hypothèse réaliste de travail... Qui cadre d’ailleurs avec la demande du gouvernement français de se préparer à une augmentation de 4 °C à la fin du siècle.

    Les quatre scénarios, représentés sur une carte intégrative accessible au grand public, ont chacun autant de chances d’advenir. Ils cachent par contre d’autres futurs possibles, puisque les incertitudes caractérisées dans le projet sont uniquement celles considérées aujourd’hui. Le dépassement de « points de bascule » par exemple pourrait conduire à d’autres évolutions inattendues, soulignent les chercheurs et chercheuses.

    Finalement, Explore2 confirme la baisse des précipitations en été sur toute la France. Une autre tendance se dessine fortement : la hausse des précipitations en hiver sur la moitié nord. « Nos conclusions montrent aussi pour la première fois l’intensification dans tout l’Hexagone des extrêmes hydrologiques, sécheresses et pluies intenses. Des résultats avec des implications importantes pour les gestionnaires de l’eau, dont la tâche va être plus difficile », souligne Agnès Ducharne.

    Un autre signal est très clair : il y aura de moins en moins d’eau l’été dans les rivières. Mais pour le reste… difficile d’en tirer des conclusions. Les débits annuels moyens augmentent ou baissent selon les projections, tout comme les niveaux des nappes.

    « Nos résultats scientifiques, avec un gros effort mis sur la qualité et la lisibilité des données livrées, sont nécessaires pour que les acteurs de l’eau enclenchent des actions d’adaptation. De nombreux acteurs de l’eau se saisissent déjà de nos travaux », se réjouit Jean-Philippe Vidal, qui insiste : « Les quatre futurs envisagés demandent tous d’une manière ou d’une autre de revoir nos choix de société sur la demande en eau tout en assurant les besoins des milieux aquatiques. »

    Et le chercheur d’espérer que chacun·e en tire les enseignements nécessaires en regardant le scénario qui affectera le plus son activité : que les gestionnaires de crues se préparent dès maintenant au scénario le plus arrosé et les agriculteurs et agricultrices au scénario le plus sec.

    https://www.mediapart.fr/journal/ecologie/220225/la-france-va-t-elle-manquer-d-eau

    #pénurie #pénurie_d'eau #pluie #modélisation

    ping @reka

  • « Un gros risque de rechute » pour les patients : un antipsychotique souvent prescrit introuvable en pharmacie - Le Parisien
    https://www.leparisien.fr/societe/sante/un-gros-risque-de-rechute-pour-les-patients-un-antipsychotique-souvent-pr

    Psychiatres et pharmaciens s’inquiètent de « ruptures » de stocks de quétiapine, un traitement utilisé contre la schizophrénie, les troubles bipolaires et la dépression sévère. L’Agence du médicament reconnaît de « fortes tensions d’approvisionnement » et annonce plusieurs mesures.

    Comme tous les matins depuis des semaines, le pharmacien parisien Patrick Ryziger a regardé si ses grossistes avaient des stocks de quétiapine ce jeudi. « Et encore une fois, il n’y avait rien », souffle-t-il. Prescrit notamment pour des patients atteints de schizophrénie, de troubles bipolaires ou encore de dépression sévère, cet antipsychotique est en « fortes tensions d’approvisionnements », alerte l’Agence nationale de sécurité du médicament (ANSM) ce jeudi.

    La situation dure depuis des mois mais elle tend à s’aggraver récemment. « Je me suis réveillé lundi en découvrant qu’il m’en restait juste pour trois jours, et j’ai dû faire cinq pharmacies pour trouver une boîte », raconte Arnaud, un quinquagénaire francilien qui en prend quotidiennement depuis deux ans.

    Comme lui, « beaucoup de patients risquent d’être en rupture ! » alerte le Pr Antoine Pelissolo, chef du service de psychiatrie à l’hôpital Henri-Mondor (Créteil). Depuis « quelques semaines », le psychiatre Hugo Baup voit arriver dans son hôpital de Périgueux (Dordogne) « des patients qui, du jour au lendemain, ne trouvent plus de quétiapine et sont très inquiets, ainsi que leur famille ». Il raconte : « On appelle toutes les pharmacies du coin pour en trouver une qui a toujours quelques boîtes, et sinon on doit revoir en urgence le traitement, au cas par cas ».
    « On sent les patients en détresse, mais on ne peut pas les accompagner »

    La quétiapine, qui fait partie des antipsychotiques les plus prescrits, permet de stabiliser l’état de nombreux malades. « Il est souvent donné sur une très longue durée, voire à vie. Et tout sevrage doit être mené de façon extrêmement progressive et encadrée », décrit Fabienne Blain, du « Collectif schizophrénies ». « Un jour sans médicament n’est pas dramatique, mais si un patient ne prend rien pendant une ou deux semaines, il y a un gros risque de rechute », complète Antoine Pelissolo.

    Ce médicament est vendu par le laboratoire Cheplapharm France sous l’appellation Xéroquel, mais aussi par d’autres groupes sous d’autres noms, ainsi qu’en générique. Tous les fabricants sont concernés par ces « tensions ». « Depuis novembre, on voit toutes les références et tous les dosages disparaître progressivement, comme des dominos », décrit le pharmacien Patrick Ryziger. Ce dernier s’est retrouvé contraint, ces dernières semaines, de renvoyer des patients en leur disant : « On n’a plus rien. » « On les sent en détresse, mais on ne peut pas les accompagner. C’est extrêmement frustrant », regrette-t-il.

    Reste à comprendre pourquoi. Les laboratoires ne nous ont pas répondu, mais l’ANSM évoque « un problème de production » rencontré par un fabricant commun à différents labos. De leur côté, les hôpitaux ont souvent conservé suffisamment de stocks pour « tenir » encore.
    Livraisons restreintes et exportations interdites

    En septembre dernier, l’agence du médicament a mis en place un « contingentement quantitatif ». Le nombre de boîtes livrées à chaque pharmacie est limité, afin d’éviter que certaines d’entre elles ne fassent de gros stocks et que d’autres se retrouvent à sec. Les exportations sont désormais interdites, le « mécanisme européen de solidarité volontaire » a été activé et des alternatives sont recherchées, annonce l’ANSM ce jeudi. Dans l’immédiat, les médecins ne doivent plus prescrire de quétiapine à de nouveaux patients, « sauf à ceux présentant un épisode dépressif caractérisé dans le cadre d’un trouble bipolaire ».

    « Déjà que ces malades sont souvent oubliés, les tensions d’approvisionnement sont un problème récurrent avec les antipsychotiques », se désole Fabienne Blain, qui alerte depuis des années les autorités à ce sujet. « On a déjà eu des craintes pour certaines autres molécules, mais avec la quétiapine c’est la première fois que cela dure autant », prévient Antoine Pelissolo. Hugo Baup, lui, soupire : « C’est déjà tellement difficile de stabiliser les gens, alors on n’a pas besoin de ça… ».

  • « Derrière vos décisions, ce sont des gens qui vont mourir » / extraits du livre-enquête « Les Juges et l’Assassin » sur la gestion du Covid-19

    Dans leur livre à paraître mercredi 22 janvier chez Flammarion, les journalistes du « Monde » Gérard Davet et Fabrice Lhomme reviennent, éléments inédits à l’appui, sur la façon dont l’exécutif a géré la crise engendrée en 2020 par l’épidémie. Nous en publions des extraits.
    Par Gérard Davet et Fabrice Lhomme

    [Le récit de Gérard Davet et Fabrice Lhomme, auteurs de Les Juges et l’Assassin (Flammarion, 448 pages, 23 euros), s’appuie notamment sur une documentation très abondante, extraite en partie de la procédure judiciaire ouverte devant la Cour de justice de la République (CJR). Ainsi, les échanges mentionnés entre les différents protagonistes proviennent d’e-mails, de SMS ou de notes figurant au dossier des juges chargés de l’enquête.]

    Le 22 janvier 2020, une patiente chinoise originaire de Wuhan est hospitalisée à l’hôpital Bichat, à Paris. Elle souffre d’une forte fièvre. Avenue de Ségur [le ministère de la santé], la température monte aussi. « C’est exponentiel, non ? », s’inquiète [Agnès] Buzyn [la ministre]. Fausse alerte : apparemment, la touriste venue de Chine souffre d’une autre affection. Ouf… Malgré tout, il est temps de déployer des dispositifs pour prendre la température des passagers dans les aéroports. « Il faut s’assurer que nous avons des détecteurs… pas gagné », s’irrite [Jérôme] Salomon [le directeur général de la santé]. « Je sais, on a raison scientifiquement, mais on aura tort politiquement », lui répond Buzyn. Un tel arsenal a été mis en place pour le virus Ebola, en 2014, mais dans le cas présent, l’amplitude est bien plus large (au moins trois vols directs hebdomadaires entre Wuhan et Paris), et surtout le matériel manque. « Peut-être prendre les devants et dire pourquoi on ne le fera jamais », préconise d’ailleurs Buzyn.

    Quoi qu’il en soit, avenue de Ségur, on s’organise : Jérôme Salomon décrète le passage du Corruss, le fameux Centre de régulation et de réponse aux urgences sanitaires et sociales, en alerte de phase 2, dite renforcée.
    Le 23 janvier, la ministre de la santé s’impatiente. Tout est trop lent, trop lourd. Il y a tellement d’instances, de structures, de textes et de personnes impliqués… « Bonjour Edouard [Philippe], écrit-elle au premier ministre. Puis-je te parler un instant de la gestion de crise du coronavirus ? J’ai besoin qu’on nous voie à l’œuvre sans attendre une décision de l’OMS et surtout que les douanes, la police, ne se mettent pas à porter des #masques dans leur coin (…). Il faut une coordination. » Le même jour, l’OMS s’est résolue à ne pas lancer immédiatement le processus d’alerte internationale, ce que l’organisation appelle, dans son jargon, l’Usppi (urgence de santé publique de portée internationale). Dommage, cela aurait pu mobiliser les exécutifs de tous les pays. (…)

    Un chiffre préoccupant

    « Le 23 janvier, on est déjà en “Task Force Covid-19” et c’est la première fois qu’est faite, par l’Inserm, une analyse du risque d’importation en Europe », se souvient, de son côté, Jérôme Salomon. Qui reçoit le jour même une très mauvaise nouvelle.

    Dans un courriel, Lionel de Moissy, le pharmacien responsable des stocks d’équipements de protection, lui communique un chiffre préoccupant : il ne reste plus que 65,9 millions de masques chirurgicaux à disposition, à la plateforme de Marolles, gérée par Santé publique France (SPF), dans le département de la Marne. C’est un chiffre dérisoire, il devrait y en avoir au moins dix fois plus… A une interlocutrice qui lui demande confirmation sur le passage en « alerte renforcée », la directrice Alerte et crise de SPF, Nicole Pelletier, répond par l’affirmative. Avec cette petite explication de texte : « Ça évite le mot “crise”, c’est plus soft… »

    [...]

    « Le pire est à venir, je te l’ai toujours dit. Vous ne pourrez pas maintenir les élections (…). Nos hôpitaux vont déborder. » [Buzyn, 5 mars 2020]
    https://www.lemonde.fr/idees/article/2025/01/21/derriere-vos-decisions-ce-sont-des-gens-qui-vont-mourir-decouvrez-les-extrai

    https://justpaste.it/br9hj

    #Covid-19 #santé_publique #pénurie

  • #Santé : Des médecins camerounais pour faire face à la pénurie de médecins dans le Pas-de-Calais

    La désertification médicale touche de nombreuses communes de la région. Dans la commune de Haisnes, la mairie a tenté d’anticiper les départs en retraite. Après plusieurs échecs de recrutement, une piste est envisagée au Cameroun. Quatre médecins africains se disent intéressés.

    À Haisnes, la maison de santé est flambant neuve. Ouverte à l’été 2024, elle abrite d’ores et déjà infirmiers, ostéopathe, podologue, cabinet dentaire. Problème : seuls deux médecins y exercent depuis le départ à la retraite de quatre autres généralistes. Il en faudrait au moins deux de plus pour faire face aux besoins.
    . . . . .
    Malgré les efforts, le recrutement de généralistes est à la peine. « Je suis allé sur des cellules de recrutement dans des pays de l’Est et notamment la Roumanie », nous explique Frédéric Wallet. « Mais ça n’a pas marché ». L’élu s’est donc tourné vers une « piste sérieuse » au Cameroun. Un psychiatre, lui-même d’origine camerounaise et qui exerce près de Haisnes, a fait le lien.
    . . . . .
    Source et suite : https://france3-regions.francetvinfo.fr/hauts-de-france/pas-calais/lens/sante-des-medecins-camerounais-pour-faire-face-a-la-pen

    #France #désertification #pénurie #médecins Hors Paris, point de #salut

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • Olivier Hamant, chercheur en #biologie et #biophysique :

    « Dans la question socio-écologique ce qui domine c’est le climat. On a réduit la #complexité_écologique à une molécule, le #CO2, c’est une aberration.

    Du coup les solutions qu’on apporte c’est pour réduire la quantité de CO2 dans l’atmosphère. Cet été en Islande on a construit la première grande usine de capture CO2.

    Un enfant de 5 ans comprendrait que ça n’a aucun sens, c’est bcp d’énergie et de métaux et c’est une opération financière. On a privatisé le CO2.

    Le #climat c’est le pire levier, il faut commencer par la #biodiversité. Notre #performance est une #guerre_à_la_vie.

    La #biodiversité ça coute rien, on peut le faire à toutes les échelles et c’est positif pour le #climat et les #pénuries »

    Eloquente prise de parole d’Olivier Hamant qui rappelle que la révolution à accomplir est avant tout culturelle et non une question d’#innovation technologique.

    Pour faire de la robustesse, il nous faut aller contre la performance et sortir du #capitalisme en s’inspirant des pratiques naissantes à la marge telles les #coopératives et l’#économie_de_la_fonctionnalité & de l’usage."

    https://x.com/GabrielMalek9/status/1847973387106152647

    Survie dans le Chaos : La #robustesse à l’épreuve ? #Olivier_Hamant
    https://www.youtube.com/watch?v=JPW_m8JBl2Q

    #CO2 #économie_de_l'usage #imprévisibilité #fluctuation #compétition #colonisation #mécanisation #grande_accélération #culte_de_la_performance #délire_de_la_performance #agriculture_circulaire #basculement #interactions #crises

  • Mal-logement : un déménagement et des inquiétudes pour un squat de Seine-Saint-Denis
    https://www.lemonde.fr/societe/article/2024/08/24/mal-logement-un-demenagement-et-des-inquietudes-pour-un-squat-de-seine-saint


    Le bâtiment de la rue de Stalingrad occupé par le Collectif Gambetta, à Montreuil (Seine-Saint-Denis), le 22 août 2023. VICTORIA LEMAIRE/LE MONDE

    Le 22 août, le Collectif de Gambetta a annoncé l’occupation d’un bâtiment vide de Montreuil après s’être vu refuser un délai supplémentaire dans son squat précédent. Un début d’occupation sous tension avec la crainte d’une expulsion à effet immédiat.

    Devant un bâtiment a priori abandonné à la façade ornée de street art, rue de Stalingrad à Montreuil (Seine-Saint-Denis), une cinquantaine de personnes s’étaient rassemblées en fin d’après-midi, jeudi 22 août. De la musique, une table avec des rafraîchissements, des enfants qui jouent… Malgré les apparences joyeuses, l’inquiétude se faisait sentir. Une partie des quarante familles du Collectif de Gambetta occupait alors cet immeuble désaffecté depuis le 14 août, après la notification par la justice qu’aucun délai d’occupation supplémentaire ne leur était accordé dans le squat de la rue Gambetta qu’ils occupaient depuis deux ans. Dans les deux cas, il s’agit de « bâtiments vides d’usage depuis longtemps. Ce sont des gens qui luttent pour avoir un toit, mais ils n’enlèvent pas leur toit à d’autres », précise une habitante membre du collectif de soutien, qui a souhaité conserver son anonymat.

    Les habitants et leurs soutiens ont décidé, après une semaine d’occupation de ce nouveau squat rue de Stalingrad, de se montrer. « Ici, nous ne voulons pas détruire, voler ou casser, nous avons de bonnes intentions et souhaitons entretenir ce bâtiment où nous sommes installés depuis une semaine », explique l’une des habitantes du squat, qui a refusé de donner son nom. Le collectif a tenté d’entrer en contact avec le propriétaire, le promoteur immobilier Sopic, afin de négocier une convention d’occupation temporaire qui leur permettrait de rester.

    Ce type de contrat consiste à « occuper le bâtiment sur une période donnée, en prendre soin, et le restituer au propriétaire dès lors qu’il a un projet dans le lieu concerné », explique Célia Mougel, juriste et chargée d’études à l’observatoire des expulsions des lieux de vie informels. Elle déplore que ce dispositif ne soit pas davantage connu : « Il y a tellement de bâtiments vides qui concernent de grands promoteurs ou des collectivités, ce genre de contractualisation est l’une des voies pour pallier le manque de logements et la grande précarité des personnes qui sont contraintes de se retrouver en squat. »

    Un nouveau délit avec la loi « antisquat »
    Les membres du Collectif de Gambetta, qui comprend beaucoup de femmes enceintes ou avec des enfants, craignent avant tout d’être visés par une expulsion immédiate, sans passage devant un juge. Une membre du collectif de soutien explique : « Soit [les autorités] attendent qu’il y ait une procédure judiciaire, soit [elles] se saisissent du biais criminalisant de la loi Kasbarian-Bergé, qui permet à la police d’entrer dans le bâtiment » et de procéder à une expulsion immédiate.

    La loi Kasbarian-Bergé du 27 juillet 2023, dite « antisquat », crée un délit relatif à l’introduction sans autorisation du propriétaire dans un bâtiment à usage commercial, agricole, professionnel ou d’habitation, ne se limitant donc pas aux seuls locaux à usage d’habitation, comme cela était le cas auparavant. Pour constituer le délit prévu et réprimé par le nouvel article 315-1 du code pénal, l’introduction dans le local doit être effectuée « à l’aide de manœuvres, de menaces, de voie de fait ou de contraintes ».

    Ce critère n’est cependant pas toujours respecté dans les procédures d’expulsion, selon Matteo Bonaglia, avocat spécialisé en droit du logement. Il explique : « Informées de l’occupation d’un bâtiment, [les autorités] ne cherchent pas à savoir comment les gens sont entrés, si le délit est caractérisé ou pas, elles y vont et interpellent tout le monde. Le temps de la garde à vue, le bâtiment est restitué au propriétaire et, après, il n’y a, en général, pas de procédure pénale, car le délit n’est pas caractérisé, mais le mal est fait. »

    L’avocat craint « qu’en ayant créé ce délit on finisse par se dispenser complètement de la voie de droit naturelle qui est celle du contrôle d’une mesure aussi grave que l’expulsion par un juge indépendant et impartial », puisque les personnes visées n’auraient ni moyen de se défendre en étant entendues par un juge ni délai de prévenance. Contactée, la Préfecture de police de Paris n’a pas donné suite.

    « L’effet domino » du manque de logements sociaux
    Les membres du Collectif de Gambetta, pour la plupart en situation irrégulière, redoutent ce type de procédure accélérée, pouvant les amener en garde à vue, puis en centre de rétention administrative et éventuellement jusqu’à une expulsion hors du territoire. L’Observatoire des expulsions collectives de lieux de vie informels recense un nombre d’expulsions de squats en hausse de 54 % en France, passant de 132, entre juillet 2022 et juillet 2023, à 203 sur la même période l’année suivante.

    La perspective d’une convention avec le propriétaire du bâtiment constitue une lueur d’espoir pour les membres du Collectif de Gambetta, qui ont, pour la plupart, connu la rue avant de rejoindre le squat. Plusieurs racontent avoir tenté pendant longtemps, et parfois encore aujourd’hui, de trouver un hébergement d’urgence avec le 115. Maxence Delaporte, directeur général adjoint d’Interlogement93, l’association qui gère le numéro vert destiné aux sans-abri (le 115) en Seine-Saint-Denis, explique que celui du département est « l’un des plus saturés de France, le deuxième après Paris en volume ».

    En 2023, l’association a comptabilisé une hausse de 36 % par rapport à 2022 des demandes de mise à l’abri, et une hausse de 54 % des demandes non pourvues. Plaidant pour une augmentation des moyens alloués à l’hébergement d’urgence, il ajoute : « Bien sûr, c’est mieux d’être à l’hôtel qu’à la rue, mais nous aspirons à une augmentation du nombre de logements sociaux pour loger tout ce monde. »

    Une ligne tenue également par la Fondation Abbé Pierre, qui agit contre l’exclusion. Marie Rothhahn, responsable de la lutte contre la privation des droits, dénonce « l’effet domino » du manque de logements sociaux : « Si on avait construit assez de logements sociaux, ils serviraient aux personnes en situation régulière, et l’hébergement d’urgence à celles en situation irrégulière. » Elle estime, par ailleurs, que l’« on entend parler insuffisamment du logement dans le discours public », alors qu’il y avait, en 2023, 4,1 millions de personnes privées de logement personnel ou vivant dans des conditions très difficiles.

    A côté d’une banderole « Solidarité avec l’occupation, un toit c’est un droit », les membres du Collectif de Gambetta ont affiché une souscription à un contrat d’électricité et des photos prouvant l’occupation, espérant ainsi se prémunir d’une expulsion sans délai et trouver un peu de stabilité.

    Le #macronisme en actes #expulsion #logement #pénurie #anti-pauvres

  • Les Padhue, ces milliers de médecins étrangers précaires | StreetPress
    https://www.streetpress.com/sujet/1722506275-padhue-milliers-medecins-etrangers-precaires-hopital-sante-p

    Face à l’imposant bâtiment du ministère de la Santé, une poignée de médecins étrangers manifestent à bas bruit en ce mois de mai 2024. « On est à peine 30 alors que nous sommes des milliers dans la précarité ? », s’exaspère Mehdi (1), un diabétologue. L’homme né et diplômé en Algérie est ce qu’on appelle un « Padhue » : un praticien à diplôme hors Union européenne. Après dix ans d’expérience en Algérie, il exerce depuis quatre ans en France avec des responsabilités importantes puisqu’il forme des internes dans son hôpital en Normandie. Pourtant, comme de nombreux Padhue, il ne gagne guère plus que ces derniers, avec un salaire de 1.450 euros bruts par mois, loin des 4.500 euros bruts des praticiens hospitaliers français en début de carrière – un salaire qui évolue jusqu’à 9.200 euros bruts.

    #santé_publique #pénuries #colonialisme #précariat

  • La pénurie de Ventoline vient s’ajouter aux autres ruptures de stock de médicaments, voici pourquoi
    https://www.huffingtonpost.fr/life/article/la-penurie-de-ventoline-vient-s-ajouter-aux-autres-ruptures-de-stock-

    Alors que l’ANSM assure à nos confrères que des « mesures de gestions » ont été prises, les causes de cette tension peuvent s’expliquer par le prix - trop bas pour être un marché attractif pour les laboratoires par rapport aux pays voisins - et par une hausse de la demande.

  • Agro-business

    Parmi les mesures annoncées en réponse aux mobilisations d’agriculteurs en janvier 2024, l’une a consisté en l’ajout de professions agricoles à la liste des métiers « en tension ». L’exécution de la promesse ne s’est pas fait attendre : un arrêté du 1er mars a « mis à jour » cette liste en y introduisant, pour l’ensemble du territoire métropolitain, quatre familles professionnelles de salariés : #agriculteurs, #éleveurs, #maraîchers et #horticulteurs, #viticulteurs et #arboriculteurs. D’autres secteurs d’activité peuvent déplorer de n’avoir pas les moyens de pression que représentent des centaines de tracteurs capables de bloquer des autoroutes, des jours durant...

    La #FNSEA a aussitôt affiché sa satisfaction. La reconnaissance de l’agriculture comme « #secteur_en_tension » est une revendication que le syndicat majoritaire d’exploitants agricoles portait en fait depuis plusieurs mois, et qu’il avait, entre autres, présentée à la Première ministre Élisabeth Borne en octobre 2023, assurant que l’obtention de ce statut « favorisera l’embauche directe et limitera le recours aux prestataires [1] ».

    On se frotte les yeux pour comprendre… #Embauche_directe ? Recours aux #prestataires ? En quoi l’inscription de métiers de l’agriculture dans la liste des métiers en tension serait à même de résoudre les difficultés de recrutement de #saisonniers dont le secteur dit souffrir ? Les listes de métiers en tension servent à l’instruction des demandes d’autorisation de travail déposées par les employeurs, soit pour ce qu’on nomme « introduction » de #main-d’œuvre, soit pour l’embauche d’étrangers déjà présents sur le territoire. Est-ce à dire que les agriculteurs voudraient se charger eux-mêmes de faire venir des saisonniers ? Ou pouvoir employer comme saisonniers des étrangers résidant en France ?

    On se souvient qu’au moment où le Covid avait imposé la fermeture des frontières, avait été lancée une campagne [2] afin de recruter des personnels pour les récoltes, et que la FNSEA avait parlé de cette main-d’œuvre autochtone comme décevante : ne sachant pas travailler, trop revendicatrice… avant d’obtenir que des saisonniers du sud de la Méditerranée, malgré les risques sanitaires, soient acheminés dans les champs en France… Alors ?

    Le secteur agricole bénéficie depuis des décennies d’un dispositif spécifique pour faire venir la main-d’œuvre étrangère qu’il souhaite, les ex-« #contrats_OMI » désormais gérés par l’#Office_français_de_l’immigration_et_de_l’intégration (#Ofii). L’office se charge de recruter ces employé·es, des démarches administratives nécessaires à leur venue, de leur faire signer un engagement à quitter la France après la saison – de 6 mois maximum, le cas échéant pour revenir les années suivantes.

    Est-ce que le souhait des exploitants agricoles est de se passer de ces contrats Ofii ?

    Le #dispositif présente manifestement des contraintes jugées excessives par les exploitants agricoles puisqu’ils ont de plus en plus recours à d’autres formules : l’#intérim, l’emploi de #sans-papiers, le #détachement... Ce dernier a ainsi connu une croissance considérable dans le secteur, y compris via des systèmes contournant les règles européennes sur le #travail_détaché. Les procès des entreprises espagnoles #Terra_Fecundis ou #Laboral_Terra ont mis au jour les montages opérés. Ces grosses entreprises de travail temporaire ont été condamnées à de lourdes peines – et avec elles des chefs d’exploitation en France – pour avoir fait travailler des milliers d’ouvriers et ouvrières agricoles, essentiellement sud-américain·es, sous contrat espagnol, donc en payant en #Espagne, et aux tarifs espagnols, les cotisations sociales correspondant à ces emplois, de surcroît dans des conditions d’exploitation insupportables. L’importance des condamnations et le retentissement de ces procès ont quelque peu refroidi l’enthousiasme pour l’usage du détachement. À nouveau trop de contraintes.

    Mais en fait, de quelles difficultés de #recrutement exactes souffrent donc les exploitants agricoles ?

    L’argument de la #pénurie de main-d’œuvre est dénoncé par divers travaux de sociologie [3]. Nicolas Jounin, à propos du secteur du bâtiment, dans lequel la même plainte est récurrente, parle de cette pénurie comme d’une #fiction : « Ou, plutôt, ni vraie ni fausse, la pénurie est recréée périodiquement (et toujours compensée) par un système de dévalorisation de la main-d’œuvre dont elle est l’argument [4]. » Les travailleurs saisonniers dans l’agriculture, de même que les manœuvres dans le BTP, sont considérés comme des bouche-trous, des pis-aller.

    Pendant que se déroulait, en début d’année, ce scénario d’une revendication enfin satisfaite, l’inscription de métiers de l’agriculture dans la liste des métiers en tension, un nouveau montage était, beaucoup plus discrètement, mis en place.

    La FNSEA, toujours elle, a présenté au Salon de l’agriculture, le 28 février, dans une réunion fermée au public, le nouveau service de recrutement de travailleurs saisonniers qu’elle vient de créer. La prestation, rendue possible par des accords passés avec la Tunisie et le Maroc, donc avec l’aval du gouvernement, ne coûtera à l’exploitant agricole que 600 € par saisonnier. Dans une note de cadrage sur ce service, la fédération recommande d’éviter d’employer le terme « migrant », et de lui préférer « saisonnier hors Union européenne ».

    Là, on comprend mieux : la mesure « métiers en tension » est certes de nature à faciliter le recours à cette main-d’œuvre introuvable ! Pour les employeurs, finis les contrôles et tracasseries de l’Ofii – pourtant bien peu protecteurs, dans les faits, des travailleurs agricoles immigrés. Finis aussi les ennuis que peut causer un usage abusif du détachement. Enfin libres d’employer des travailleurs, d’ici ou d’ailleurs, toujours plus précarisés !

    http://www.gisti.org/article7242

    #métiers_en_tension #agriculture #migrations #France

  • Des universités françaises au bord de l’#asphyxie : « Ça craque de partout »

    Locaux vétustes, #sous-financement structurel, #pénurie d’enseignants, inégalités sociales et scolaires… Les universités de Créteil, Villetaneuse ou encore Montpellier-III cumulent les difficultés. Le fossé se creuse encore entre les établissements prestigieux et les autres.

    A l’#université_Sorbonne-Paris_Nord, sur le campus de Villetaneuse, en Seine-Saint-Denis, la visite guidée se transforme immanquablement en un passage en revue du #délabrement. Tel couloir ou telle salle, inondés à chaque forte pluie, cumulent vétusté et moisissures sur les murs. Des amphithéâtres aux sièges cassés, des prises abîmées depuis des années, et des vidéoprojecteurs qui, régulièrement, ne fonctionnent pas. Les filets de fortune qui retiennent des bouts de plafond qui s’écroulent au-dessus d’une passerelle reliant plusieurs bâtiments. Cet ascenseur, également, en panne depuis la rentrée, rendant le deuxième étage du département des lettres inaccessible aux étudiants à mobilité réduite.

    De façon moins visible, une grande partie des bâtiments contient encore de l’#amiante, plus ou moins bien protégée. « Là ou encore là, le sol est abîmé, montre Stéphane Chameron, maître de conférences en éthologie, membre du comité social d’administration, encarté SUD-Education, en désignant des dalles usées dans des couloirs ou des escaliers. Donc il peut arriver que de la poussière amiantée soit en suspension dans l’air. C’est une #mise_en_danger. »

    Selon la Cour des comptes, 80 % du bâti de l’université Sorbonne-Paris Nord est aujourd’hui vétuste. Mais le constat national n’est guère réjouissant non plus, avec un tiers du #patrimoine_universitaire jugé dans un état peu ou pas satisfaisant. « Honnêtement, on a honte de faire travailler les étudiants dans ces conditions » , souligne une des enseignantes de l’établissement qui, comme beaucoup, a demandé à rester anonyme.

    En matière d’#encadrement aussi, « la situation est critique », alerte Marc Champesme, chargé du département d’informatique de Paris Nord, membre du syndicat Snesup-FSU. Dans sa composante, le nombre d’étudiants en première année a été multiplié par plus de trois entre 2010 et 2022, et par deux sur les trois années de licence. Dans le même temps, le nombre d’enseignants titulaires n’a pas bougé. « On est maintenant contraints de faire des travaux dirigés en amphi avec soixante étudiants parce qu’on manque de professeurs , réprouve-t-il. Alors même que les pouvoirs publics ne cessent de dire qu’il faut former plus d’informaticiens et de spécialistes de l’IA [intelligence artificielle] , que c’est l’avenir. »

    « Sans l’État, ce ne sera pas possible »

    Ici, comme dans d’autres facultés, les personnels ont été désespérés par le signal envoyé, en février, avec l’annonce de coupes budgétaires de près de 1 milliard d’euros dans l’enseignement supérieur – en contradiction avec la volonté affichée, fin 2023 par Emmanuel Macron, de « donner plus de moyens » pour la recherche. « On nous disait que l’université serait une priorité, mais cela a vite été oublié. C’est un #délaissement total. Et les premiers à trinquer, ce sont nous, universités de banlieue populaire ou de petites villes déjà en mauvaise forme » , s’exaspère un autre enseignant-chercheur de Sorbonne-Paris Nord.

    Cette réalité s’impose comme le signe d’une université française en crise, qui maintient sa mission de service public en poussant les murs, colmatant les brèches et serrant les dents. La conséquence de décennies pendant lesquelles les établissements ont absorbé une augmentation significative de la #population_étudiante, sans que les moyens aient suivi. Entre 2008 et 2021, le nombre d’étudiants a augmenté de 25 %, quand le #budget de l’enseignement supérieur a progressé de moins de 10 %. Quant aux fonds versés par l’Etat liés spécifiquement au #bâti, ils stagnent depuis plus de dix ans.

    Désormais, « ça craque de partout » , résume un enseignant dans un Baromètre des personnels réalisé en 2023 par la Conférence des praticiens de l’enseignement supérieur et de la recherche. A Villetaneuse, « on essaie de mettre les bouchées doubles depuis trois ans pour les travaux urgents. On a investi 6 millions d’euros sur fonds propres. Mais on ne dispose pas de ressources infinies. Sans l’Etat, ce ne sera pas possible » , souligne son président, Christophe Fouqueré. Sur tout le territoire, la pression budgétaire contraint les établissements à se contenter de rafistoler un bâti vieillissant plutôt que d’entamer des travaux de #rénovation nécessaires, ou encore à geler les embauches de #titulaires et à avoir recours à des #vacataires précaires – à présent majoritaires au sein des personnels enseignants dans les universités.

    Mais, à l’image de Sorbonne-Paris Nord, certaines se trouvent plus en difficulté que d’autres en matière de conditions d’études. « La question du bâti et de son délabrement éclaire en fait toutes les #inégalités entre élèves, et entre établissements du supérieur : d’abord entre universités et grandes écoles type Sciences Po, mieux loties, et désormais entre universités elles-mêmes, analyse la sociologue Annabelle Allouch, qui mène un projet de recherche sur le #bâti_universitaire. Mais elle renforce aussi ces inégalités, en encourageant des étudiants à adopter des stratégies d’évitement de certains campus. »

    De fait, des #écarts se sont creusés. Si certains campus ont bénéficié de belles rénovations, comme de moyens plus conséquents pour l’enseignement, d’autres universités, moins subventionnées, décrochent. « On a été oubliés du #plan_Campus de 2008, qui a permis à d’autres universités, y compris voisines, de se remettre à niveau » , regrette le président de Sorbonne-Paris Nord. « L’Etat avait fait le choix de porter les efforts sur 21 sites seulement. Cela a créé un premier différentiel, qui n’a cessé de s’accentuer puisque ces universités lauréates ont été, par la suite, mieux placées, aussi, pour répondre à des appels à projet sur le patrimoine » , explique Dean Lewis, vice-président de France Universités.

    Se sont ajoutées les diverses politiques d’ « #excellence », mises en œuvre durant la dernière décennie, et notamment les labels #Initiative_d’excellence, décernés à certains établissements prestigieux, avec des moyens supplémentaires correspondants. « On a été face à des politiques qui ont décidé de concentrer les moyens sur un petit nombre d’établissements plutôt que de les distribuer à tout le monde » , résume la sociologue Christine Musselin.

    #Violence_symbolique

    Une situation qui laisse de plus en plus apparaître une université à plusieurs vitesses. « Quand je passe de mon bureau de recherche de l’ENS [Ecole normale supérieure] aux locaux où j’enseigne, la différence me frappe à chaque fois », témoigne Vérène Chevalier, enseignante en sociologie à l’#université_Paris_Est-Créteil (#UPEC), qui subit aussi, avec ses élèves, un environnement dégradé. Dans certains bâtiments de cette université, comme celui de la Pyramide, les cours ont dû être passés en distanciel, cet hiver comme le précédent, en raison d’une défaillance de #chauffage, la #température ne dépassant pas les 14 0C. En avril, le toit d’un amphi, heureusement vide, s’est effondré sur un site de Fontainebleau (Seine-et-Marne) – en raison d’une « malfaçon », explique la présidence.

    Plongée dans une #crise_financière, avec un #déficit abyssal, l’UPEC est dans la tourmente. Et la présidence actuelle, critiquée en interne pour sa mauvaise gestion des finances. « Mais lorsqu’on voit arriver 10 000 étudiants en cinq ans, on se prend de toute façon les pieds dans le tapis : cela veut dire des heures complémentaires à payer, des locations ou l’installation de préfabriqués très coûteuses » , défend le président, Jean-Luc Dubois-Randé.

    Au sein d’un même établissement, des fossés peuvent se former entre campus et entre disciplines. « Quand mes étudiants vont suivre un cours ou deux dans le bâtiment plus neuf et entretenu de l’IAE [institut d’administration des entreprises] , dont les jeunes recrutés sont aussi souvent plus favorisés socialement, ils reviennent dans leur amphi délabré en disant : “En fait, ça veut dire que, nous, on est les pauvres ?” » , raconte Vérène Chevalier, qui y voit une forme de violence symbolique.

    Ce sont des étudiants « qu’on ne voit pourtant pas se plaindre », constate l’enseignant Stéphane Chameron. « Pour beaucoup issus de classes moyennes et populaires, ils sont souvent déjà reconnaissants d’arriver à la fac et prennent sur eux » , a-t-il observé, comme d’autres collègues.

    Dans le bâtiment Pyramide, à Créteil, une dizaine d’étudiants en ergothérapie préparent leurs oraux collectifs de fin d’année, assis au sol dans le hall, faute de salles disponibles. « Les conditions, cela nous paraît normal au quotidien. C’est quand on met tout bout à bout qu’on se rend compte que cela fait beaucoup » , lâche Charlotte (qui a souhaité rester anonyme, comme tous les étudiants cités par leur prénom), après avoir égrené les #dysfonctionnements : les cours en doudoune cet hiver, l’impossibilité d’aérer les salles, l’eau jaunâtre des robinets ou l’absence de savon dans les toilettes… « Ça va » , répondent de leur côté Amina et Joséphine, en licence d’éco-gestion à Villetaneuse, citant la bibliothèque récemment rénovée, les espaces verts et l’ « ambiance conviviale », malgré « les poubelles qu’il faut mettre dans les amphis pour récupérer l’eau qui tombe du plafond quand il pleut » .

    Dans l’enseignement supérieur, les dynamiques récentes ont renforcé un phénomène de #polarisation_sociale, et les étudiants les plus favorisés se retrouvent aussi souvent à étudier dans les établissements les mieux dotés. La sociologue Leïla Frouillou y a documenté l’accélération d’une #ségrégation_scolaire – qui se recoupe en partie avec la #classe_sociale. Favorisées par #Parcoursup, les universités « parisiennes » aspirent les bacheliers avec mention très bien des autres académies. « Se pose la question du maintien de la #mixité dans nos universités » , souligne-t-elle.

    En l’occurrence, un campus en partie rénové ne protège pas nécessairement ni d’une situation financière délétère, ni de difficultés sociales plus importantes que la moyenne du territoire. L’un des lauréats du plan Campus de 2008, l’#université_Montpellier-III, présente en majesté l’#Atrium. Une bibliothèque universitaire (BU) tout de verre vêtue, un bijou architectural de 15 000 m2 financé par l’Etat, la région et la métropole, et livré en avril à la porte de l’établissement. L’ouvrage masque un campus quinquagénaire arboré et aussi quelques classes en préfabriqué posées provisoirement à proximité du parking… il y a vingt et un ans. Montpellier-III reste l’une des universités les moins bien dotées de France.

    Un peu plus loin, derrière le bâtiment S, Jade attend patiemment son tour. En première année de licence de cinéma et boursière, comme 48 % des étudiants de son université (quand la moyenne nationale est de 36 %), elle s’apprête à remplir un panier de vivres à l’#épicerie_solidaire de l’établissement. Une routine hebdomadaire pour cette étudiante qui a fait un saut dans la #précarité en rejoignant l’université.

    « Nous avons des étudiants qui ne mangent pas à leur #faim » , regrette Anne Fraïsse, présidente de l’université. Ils sont, par ailleurs, ceux qui auraient le plus besoin d’encadrement. Quand, en 2022, l’#université_Gustave-Eiffel, implantée dans différentes régions, reçoit une subvention pour charge de service public de 13 195 euros par étudiant, Montpellier-III en reçoit 3 812. Les universités de lettres, de droit et de sciences humaines et sociales sont traditionnellement moins bien dotées que les universités scientifiques, dont les outils pédagogiques sont plus onéreux.

    Mais dans les établissements d’une même spécialité, les écarts sont considérables. Nanterre, la Sorbonne-Nouvelle, à Paris, Bordeaux-Montaigne ou Toulouse-Jean-Jaurès : toutes ces universités de #sciences_humaines ont une dotation supérieure de plus de 30 % à celle de Montpellier-III. « Si nous étions financés à la hauteur de ce que reçoit Toulouse-II, c’est 30 millions de budget annuel supplémentaire que l’on recevrait, calcule Florian Pascual, élu CGT au conseil scientifique de l’université Montpellier-III. Nous pourrions cesser de gérer la pénurie, embaucher des enseignants. »

    « Un poids pédagogique »

    En février, le conseil d’administration de l’université a voté un budget affichant un déficit prévisionnel de 5 millions d’euros. Alors que l’établissement a augmenté ses effectifs étudiants (+ 7 % sur la période 2018-2021) pour répondre au #boom_démographique, la #dotation de l’Etat par étudiant a, pour sa part, dégringolé de 18,6 % entre 2016 et 2022. Un rapport rendu en juin 2023 par l’inspection générale de l’éducation, du sport et de la recherche, reconnaît « une situation de #sous-financement_chronique et un état de #sous-encadrement_structurel » . L’université doit néanmoins répondre à l’injonction du gouvernement de se serrer la ceinture. « C’est ne pas tenir compte des grandes inégalités entre établissements » , répond Anne Fraïsse.

    « Ce que nous répète l’Etat, c’est de fermer des postes, en réduisant l’administration et en remplaçant des professeurs par des contractuels ou des enseignants du secondaire. Pourtant, dans treize départements, la moitié des cours ne sont plus assurés par des professeurs titulaires, rappelle la présidente de l’université . Cela a un poids pédagogique pour les étudiants. Pour augmenter les taux de réussite, il faut créer des heures d’enseignement et mettre des professeurs devant les étudiants. »

    La pression démographique absorbée par ces universités amène avec elle une autre difficulté insoupçonnée. « Chez nous, le taux d’utilisation des amphis est de 99 %, on n’a quasiment plus le temps de les nettoyer. Alors si on devait faire des chantiers, on n’aurait tout simplement plus d’endroit pour faire cours, et c’est le cas partout » , soulève Julien Gossa, enseignant à l’université de Strasbourg. « Mais plus on attend, plus ça se dégrade et plus ce sera cher à rénover » , souligne Dean Lewis, de France Universités.

    Or, dans certaines facultés, comme en Seine-Saint-Denis et dans le Val-de-Marne, la démographie étudiante ne devrait pas ralentir. « Nous ne sommes pas sur un reflux démographique comme d’autres, en raison d’un phénomène d’installation des classes moyennes en grande couronne. On envisage une trajectoire d’augmentation de deux mille étudiants par an durant encore un moment. Il va falloir trouver une façon de les accueillir dignement » , souligne Jean-Luc Dubois-Randé, de l’UPEC. D’autant que, malgré les difficultés matérielles, « les profs sont passionnés et les cours très bons », assure une étudiante, en licence de psychologie à Villetaneuse.

    Conscients de cette valeur des cours dispensés et des diplômes délivrés, les enseignants contactés marchent sur des œufs. En mettant en lumière les points de craquage de l’université, ils craignent d’accélérer la fuite vers l’#enseignement_privé, qui capitalise sur l’image dégradée du public. Pourtant, « former la jeunesse est une mission de l’Etat, baisser les dépenses en direction de l’enseignement, au profit du privé, c’est compromettre notre avenir » , rappelle Anne Fraïsse.

    Le nombre de #formations_privées présentes sur Parcoursup a doublé depuis 2020, et elles captent plus d’un quart des étudiants. « Mais même si elles peuvent se payer des encarts pub dans le métro avec des locaux flambant neufs, elles sont loin d’avoir toutes la qualité d’enseignement trouvée à l’université, qui subsiste malgré un mépris des pouvoirs publics » , souligne l’enseignant Stéphane Chameron.

    La fatigue se fait néanmoins sentir parmi les troupes, essorées. « Comme à l’hôpital, on a des professionnels attachés à une idée du #service_public, gratuit, accessible à tous et adossé à une recherche de haute volée , observe le président de l’UPEC, ancien cadre hospitalier. Mais le sentiment d’absence de #reconnaissance pèse, et on observe de plus en plus de #burn-out. » De la même manière que, dans les couloirs des urgences hospitalières, les équipes enseignantes interrogent : souhaite-t-on laisser mourir le service public ?

    https://www.lemonde.fr/campus/article/2024/05/11/des-universites-francaises-au-bord-de-l-asphyxie-ca-craque-de-partout_623255
    #ESR #France #université #facs #enseignement_supérieur #recherche

  • Le blues des médecins étrangers en France : « Pourquoi on ne me juge pas sur mon expérience ici ? » - InfoMigrants
    https://www.infomigrants.net/fr/post/55272/le-blues-des-medecins-etrangers-en-france--pourquoi-on-ne-me-juge-pas-

    Le blues des médecins étrangers en France : « Pourquoi on ne me juge pas sur mon expérience ici ? »
    Par Bahar Makooi Publié le : 19/02/2024
    La situation de plusieurs milliers de médecins étrangers venus prêter main forte dans les services hospitaliers français se complique depuis la fin d’un régime dérogatoire accordé durant la période du Covid-19. Près de 1 900 ont perdu le droit d’exercer, un manque criant pour les hôpitaux. Certains d’entre eux ont accepté de témoigner.
    Pour Karima*, 39 ans, la dernière visite à la préfecture a viré au cauchemar. Son titre de séjour n’a pas été prolongé. « Je n’ai qu’un récépissé », se désole-t-elle. Pourtant, cette chirurgienne orthopédique pédiatrique exerce depuis deux ans dans un hôpital de banlieue parisienne, y compris aux urgences où elle effectue au moins quatre nuits de garde par mois. « Mes collègues de chirurgie générale m’ont demandé de venir en renfort pour les soulager un peu », explique la praticienne originaire du Maghreb*. « Je ne vais pas les laisser tomber », dit-elle sans savoir combien de temps encore elle pourra exercer.L’hôpital a accepté de la faire travailler, mais Karima redoute l’échéance de son contrat, renouvelé tous les six mois. Elle fait partie des quelque 4 000 praticiens diplômés en dehors de l’Union européenne (appelés Padhue), qui exercent dans les hôpitaux français depuis des années sous divers statuts précaires, comme celui de « faisant fonction d’interne » (FFI).
    « Les tâches que j’occupe sont des tâches de responsabilité, des tâches de praticien, même si je suis considérée comme une interne avec un contrat à 1 400 euros net à renouveler tous les six mois. Si la préfecture a refusé de prolonger mon titre de séjour c’est à cause de ces ruptures de contrats » regrette la médecin, qui jongle en permanence avec l’administration pour tenter de stabiliser sa situation. « Cette fois, la préfecture me demande une autorisation de travail fournie par l’Agence régionale de santé (ARS), qui ne veut plus la donner parce que la loi a changé ».
    En cause, l’expiration au 31 décembre d’un régime dérogatoire qui permettait aux établissements d’embaucher des Padhue sous divers statuts précaires, rendant désormais impossible leur maintien en poste. Depuis le 1er janvier 2024, ces médecins doivent réussir un concours très sélectif appelé « épreuves de vérification des connaissances » (EVC), pour pouvoir être réintégrés. Mais les places sont chères : 2 700 postes pour plus de 8 000 candidats en 2023, dont une partie tente sa chance depuis l’étranger. Résultat, une majorité des Padhue s’est retrouvée sur le carreau cette année.
    Après une levée de boucliers des syndicats, l’exécutif a finalement promis de « régulariser nombre de médecins étrangers », et décidé de prolonger d’un an leurs autorisations temporaires de travail, jusqu’à ce qu’ils passent la session 2024 des EVC.
    Mais pour Karima, diplômée en chirurgie générale, le problème est loin d’être réglé. Elle a bien tenté de passer l’EVC de chirurgie orthopédique pédiatrique en 2023, sauf que son dossier a été refusé. « On me dit que je n’ai pas le bon diplôme, qu’il me faut celui d’orthopédie pédiatrique, mais il n’existe pas ce diplôme dans mon pays ! Je ne comprends pas pourquoi on ne me juge pas sur mon expérience ici. J’opère seule, je consulte, j’ai mes propres patients », affirme la praticienne.
    Lorsqu’elle est arrivée en France en 2020, elle n’avait pas prévu de s’installer de ce côté de la Méditerranée. « J’avais obtenu un détachement du travail pour venir effectuer un perfectionnement en chirurgie orthopédique en France, parce que j’avais constaté des lacunes dans le service où je travaillais au Maghreb », explique-t-elle. Mais après presque deux années à un poste de stagiaire associée dans un CHU de Nice, Karima s’est retrouvée coincée dans l’Hexagone à cause de la pandémie de Covid-19 et la fermeture des frontières avec son pays. Elle a perdu son poste au Maghreb.
    À Nice, elle se souvient de cette période où elle a lutté sur le front du Covid-19, aux côtés des soignants français, en prêtant main forte en réanimation. « On a sauvé des vies. Et on continuera à le faire. C’est notre travail. Parfois aux urgences, je me retrouve dans une situation où il faut réagir dans la fraction de seconde, faire les bons gestes, prendre la bonne décision pour sauver quelqu’un ».
    Rentrer au Maghreb ? La chirurgienne y songe parfois : « Je me pose la question, je me demande si je peux tenir encore dans cette situation. Mais j’exerce un travail que j’aime beaucoup, surtout auprès des enfants. Je suis attachée à mes patients. Quand je vois dans leurs yeux qu’ils sont satisfaits, je me sens utile ». Pourtant, l’idée de partir fait son chemin à défaut de pouvoir se projeter, au quotidien. « Il m’arrive régulièrement de faire mes valises. J’hésite même à commander de nouveaux meubles ». Alors ses proches lui soufflent de postuler en Allemagne. « Des collègues sont partis là-bas. Ils ont été acceptés sur dossier et ont pris des cours de langue allemande », raconte-t-elle.
    Dans un contexte de surcharge de son système de santé, la France, qui a pourtant un besoin criant de renforts, risque de voir ces milliers de médecins lui préférer d’autres États européens.

    Le Dr Aristide Yayi, originaire du Burkina Faso et diplômé en médecine légale à Dakar, au Sénégal, exerce, lui, depuis trois ans en médecine polyvalente dans l’Ephad de l’hôpital de Commercy dans la Meuse. Un secteur qui manque cruellement de médecins. « Mon contrat court jusqu’en juillet 2024. Après je ne connais pas la suite », regrette le jeune médecin, car il souhaite développer un service de prise en charge de la douleur pour les personnes âgées de l’Ephad. Un projet qui pourrait ne jamais voir le jour si sa situation n’est pas régularisée. « J’enchaîne les formations et les contrats de six mois en tant que ‘faisant fi d’interne’. C’est toujours de l’incertitude et de la précarité. J’ai le sentiment qu’on me considère comme un sous-médecin », estime-t-il.
    Plusieurs chefs de service, notamment en Île-de-France, ont prévenu qu’ils seraient « contraints de fermer » leur service sans la présence de ces Padhue. Lors de sa conférence de presse du 16 janvier, le président français, Emmanuel Macron, a admis que la France avait besoin de ces praticiens, affirmant vouloir « régulariser nombre de médecins étrangers, qui tiennent notre système à bout de bras ». Une promesse rappelée par le Premier ministre, Gabriel Attal, dans son discours de politique générale fin janvier.
    Un discours qui doit être suivi de faits, exigent désormais les syndicats. Reçus jeudi par le ministère de la Santé, ils ont salué la publication, la veille, du décret prolongeant les autorisations temporaires de travail pour les médecins étrangers qui s’engagent à passer la session 2024 des EVC. « Un premier pas » qui « ne fait que reporter le problème d’un an », dénonce Olivier Varnet, secrétaire général du Syndicat national des médecins hospitaliers FO.
    En attendant, les médecins étrangers trinquent. Ils sont près de 1 900 à ne pas pouvoir exercer en ce moment. « Mon ancien service cherche désespérément quelqu’un pour me remplacer. Ils sont vraiment dans la galère. Moi j’étais responsable de deux unités avec vingt patients chacune. On marche sur la tête… », s’indigne Mostapha, qui exerçait dans un service de soins de suite et de réadaptation en Normandie. Son contrat de « praticien attaché associé » a été suspendu le 1er janvier, puisqu’il n’a pas été admis aux épreuves de vérification de connaissances. « L’hôpital a voulu me retenir mais l’ARS n’a pas accordé l’autorisation », raconte le quadragénaire.Diplômé de la faculté d’Alger en médecine physique et réadaptation, il a suivi sa femme, de nationalité française, en France il y a trois ans. « Je n’ai pas de problème de papiers j’ai une carte de résident de 10 ans », poursuit-il.
    Mostapha espère que son cas sera examiné de plus près, et que la nouvelle circulaire lui permettra de retrouver son poste. Mais la validation de son parcours par l’EVC, il n’y croit plus trop : « Je compte bien le repasser puisque pour le moment il n’y a pas de solution, quoique les chances de l’avoir soient de plus en plus réduites à cause du nombre de postes. C’est pire que sélectif ».
    De nombreux syndicats, comme le collectif médecins de la CGT, estiment que cet examen s’apparente à un numerus clausus plutôt qu’à une « épreuve de vérification des connaissances ». « Des candidats ont été recalés avec plus de 15 de moyenne », dénonce Laurent Laporte, secrétaire général de l’Union fédérale des médecins, ingénieurs, cadres et techniciens de la CGT. « Trop académique », « aléatoire », « opaque » et « discriminant pour des médecins qui bossent soixante heures par semaine », accusent encore les syndicats, à qui le ministère de la Santé a promis, le 15 février, une « reformulation de l’EVC » avec des modalités plus adaptées à la réalité.

    #Covid-19#migrant#migration#france#sante#PADHUE#systemesante#personnelmedical#penurie

  • Sécheresse à Barcelone : après le déni, un réveil brutal
    https://www.lemonde.fr/planete/article/2024/02/14/secheresse-a-barcelone-apres-le-deni-un-reveil-brutal_6216431_3244.html

    Le gouvernement catalan a jusqu’alors tout fait pour éviter un rationnement strict de l’eau, au risque de minimiser le problème. L’agglomération doit désormais prendre des mesures plus drastiques.

    #sécheresse #eau #pénurie #tourisme

    Un tout petit peu plus au sud, aussi :
    https://seenthis.net/messages/1041358

  • #Université, service public ou secteur productif ?

    L’#annonce d’une “vraie #révolution de l’Enseignement Supérieur et la Recherche” traduit le passage, organisé par un bloc hégémonique, d’un service public reposant sur des #carrières, des #programmes et des diplômes à l’imposition autoritaire d’un #modèle_productif, au détriment de la #profession.

    L’annonce d’une « #vraie_révolution » de l’Enseignement Supérieur et la Recherche (ESR) par Emmanuel Macron le 7 décembre, a pour objet, annonce-t-il, d’« ouvrir l’acte 2 de l’#autonomie et d’aller vers la #vraie_autonomie avec des vrais contrats pluriannuels où on a une #gouvernance qui est réformée » sans recours à la loi, avec un agenda sur dix-huit mois et sans modifications de la trajectoire budgétaire. Le président sera accompagné par un #Conseil_présidentiel_de_la_science, composé de scientifiques ayant tous les gages de reconnaissance, mais sans avoir de lien aux instances professionnelles élues des personnels concernés. Ce Conseil pilotera la mise en œuvre de cette « révolution », à savoir transformer les universités, en s’appuyant sur celles composant un bloc d’#excellence, et réduire le #CNRS en une #agence_de_moyen. Les composantes de cette grande transformation déjà engagée sont connues. Elle se fera sans, voire contre, la profession qui était auparavant centrale. Notre objet ici n’est ni de la commenter, ni d’en reprendre l’historique (Voir Charle 2021).

    Nous en proposons un éclairage mésoéconomique que ne perçoit ni la perspective macroéconomique qui pense à partir des agrégats, des valeurs d’ensemble ni l’analyse microéconomique qui part de l’agent et de son action individuelle. Penser en termes de mésoéconomie permet de qualifier d’autres logiques, d’autres organisations, et notamment de voir comment les dynamiques d’ensemble affectent sans déterminisme ce qui s’organise à l’échelle méso, et comment les actions d’acteurs structurent, elles aussi, les dynamiques méso.

    La transformation de la régulation administrée du #système_éducatif, dont nombre de règles perdurent, et l’émergence d’une #régulation_néolibérale de l’ESR, qui érode ces règles, procède par trois canaux : transformation du #travail et des modalités de construction des #carrières ; mise en #concurrence des établissements ; projection dans l’avenir du bloc hégémonique (i.e. les nouveaux managers). L’action de ces trois canaux forment une configuration nouvelle pour l’ESR qui devient un secteur de production, remodelant le système éducatif hier porté par l’État social. Il s’agissait de reproduire la population qualifiée sous l’égide de l’État. Aujourd’hui, nous sommes dans une nouvelle phase du #capitalisme, et cette reproduction est arrimée à l’accumulation du capital dans la perspective de #rentabilisation des #connaissances et de contrôle des professionnels qui l’assurent.

    Le couplage de l’évolution du système d’ESR avec la dynamique de l’#accumulation, constitue une nouvelle articulation avec le régime macro. Cela engendre toutefois des #contradictions majeures qui forment les conditions d’une #dégradation rapide de l’ESR.

    Co-construction historique du système éducatif français par les enseignants et l’État

    Depuis la Révolution française, le système éducatif français s’est déployé sur la base d’une régulation administrée, endogène, co-construite par le corps enseignant et l’État ; la profession en assumant de fait la charge déléguée par l’État (Musselin, 2022). Historiquement, elle a permis la croissance des niveaux d’éducation successifs par de la dépense publique (Michel, 2002). L’allongement historique de la scolarité (fig.1) a permis de façonner la force de travail, facteur décisif des gains de productivité au cœur de la croissance industrielle passée. L’éducation, et progressivement l’ESR, jouent un rôle structurant dans la reproduction de la force de travail et plus largement de la reproduction de la société - stratifications sociales incluses.

    À la fin des années 1960, l’expansion du secondaire se poursuit dans un contexte où la détention de diplômes devient un avantage pour s’insérer dans l’emploi. D’abord pour la bourgeoisie. La massification du supérieur intervient après les années 1980. C’est un phénomène décisif, visible dès les années 1970. Rapidement cela va télescoper une période d’austérité budgétaire. Au cours des années 2000, le pilotage de l’université, basé jusque-là sur l’ensemble du système éducatif et piloté par la profession (pour une version détaillée), s’est effacé au profit d’un pilotage pour et par la recherche, en lien étroit avec le régime d’accumulation financiarisé dans les pays de l’OCDE. Dans ce cadre, l’activité économique est orientée par l’extraction de la valeur financière, c’est à dire principalement par les marchés de capitaux et non par l’activité productive (Voir notamment Clévenot 2008).
    L’ESR : formation d’un secteur productif orienté par la recherche

    La #massification du supérieur rencontre rapidement plusieurs obstacles. Les effectifs étudiants progressent plus vite que ceux des encadrants (Piketty met à jour un graphique révélateur), ce qui entrave la qualité de la formation. La baisse du #taux_d’encadrement déclenche une phase de diminution de la dépense moyenne, car dans l’ESR le travail est un quasi-coût fixe ; avant que ce ne soit pour cette raison les statuts et donc la rémunération du travail qui soient visés. Ceci alors que pourtant il y a une corrélation étroite entre taux d’encadrement et #qualité_de_l’emploi. L’INSEE montre ainsi que le diplôme est un facteur d’amélioration de la productivité, alors que la productivité plonge en France (voir Aussilloux et al. (2020) et Guadalupe et al. 2022).

    Par ailleurs, la massification entraine une demande de différenciation de la part les classes dominantes qui perçoivent le #diplôme comme un des instruments de la reproduction stratifiée de la population. C’est ainsi qu’elles se détournent largement des filières et des établissements massifiés, qui n’assurent plus la fonction de « distinction » (voir le cas exemplaire des effectifs des #écoles_de_commerce et #grandes_écoles).

    Dans le même temps la dynamique de l’accumulation suppose une population formée par l’ESR (i.e. un niveau de diplomation croissant). Cela se traduit par l’insistance des entreprises à définir elles-mêmes les formations supérieures (i.e. à demander des salariés immédiatement aptes à une activité productive, spécialisés). En effet la connaissance, incorporée par les travailleurs, est devenue un actif stratégique majeur pour les entreprises.

    C’est là qu’apparaît une rupture dans l’ESR. Cette rupture est celle de la remise en cause d’un #service_public dont l’organisation est administrée, et dont le pouvoir sur les carrières des personnels, sur la définition des programmes et des diplômes, sur la direction des établissements etc. s’estompe, au profit d’une organisation qui revêt des formes d’un #secteur_productif.

    Depuis la #LRU (2007) puis la #LPR (2020) et la vague qui s’annonce, on peut identifier plusieurs lignes de #transformation, la #mise_en_concurrence conduisant à une adaptation des personnels et des établissements. Au premier titre se trouvent les instruments de #pilotage par la #performance et l’#évaluation. À cela s’ajoute la concurrence entre établissements pour l’#accès_aux_financements (type #Idex, #PIA etc.), aux meilleures candidatures étudiantes, aux #labels et la concurrence entre les personnels, pour l’accès aux #dotations (cf. agences de programmes, type #ANR, #ERC) et l’accès aux des postes de titulaires. Enfin le pouvoir accru des hiérarchies, s’exerce aux dépens de la #collégialité.

    La généralisation de l’évaluation et de la #sélection permanente s’opère au moyen d’#indicateurs permettant de classer. Gingras évoque une #Fièvre_de_l’évaluation, qui devient une référence définissant des #standards_de_qualité, utilisés pour distribuer des ressources réduites. Il y a là un instrument de #discipline agissant sur les #conduites_individuelles (voir Clémentine Gozlan). L’important mouvement de #fusion des universités est ainsi lié à la recherche d’un registre de performance déconnecté de l’activité courante de formation (être université de rang mondial ou d’université de recherche), cela condensé sous la menace du #classement_de_Shanghai, pourtant créé dans un tout autre but.

    La remise en question du caractère national des diplômes, revenant sur les compromis forgés dans le temps long entre les professions et l’État (Kouamé et al. 2023), quant à elle, assoit la mise en concurrence des établissements qui dépossède en retour la profession au profit des directions d’établissement.

    La dynamique de #mise_en_concurrence par les instruments transforme les carrières et la relation d’#emploi, qui reposaient sur une norme commune, administrée par des instances élues, non sans conflit. Cela fonctionne par des instruments, au sens de Lascoumes et Legalès, mais aussi parce que les acteurs les utilisent. Le discours du 7 décembre est éloquent à propos de la transformation des #statuts pour assurer le #pilotage_stratégique non par la profession mais par des directions d’établissements :

    "Et moi, je souhaite que les universités qui y sont prêtes et qui le veulent fassent des propositions les plus audacieuses et permettent de gérer la #ressource_humaine (…) la ministre m’a interdit de prononcer le mot statut. (…) Donc je n’ai pas dit qu’on allait réformer les statuts (…) moi, je vous invite très sincèrement, vous êtes beaucoup plus intelligents que moi, tous dans cette salle, à les changer vous-mêmes."

    La démarche est caractéristique du #new_management_public : une norme centrale formulée sur le registre non discutable d’une prétérition qui renvoie aux personnes concernées, celles-là même qui la refuse, l’injonction de s’amputer (Bechtold-Rognon & Lamarche, 2011).

    Une des clés est le transfert de gestion des personnels aux établissements alors autonomes : les carrières, mais aussi la #gouvernance, échappent progressivement aux instances professionnelles élues. Il y a un processus de mise aux normes du travail de recherche, chercheurs/chercheuses constituant une main d’œuvre qui est atypique en termes de formation, de types de production fortement marqués par l’incertitude, de difficulté à en évaluer la productivité en particulier à court terme. Ce processus est un marqueur de la transformation qui opère, à savoir, un processus de transformation en un secteur. La #pénurie de moyen public est un puissant levier pour que les directions d’établissement acceptent les #règles_dérogatoires (cf. nouveaux contrats de non titulaires ainsi que les rapports qui ont proposé de spécialiser voire de moduler des services).

    On a pu observer depuis la LRU et de façon active depuis la LPR, à la #destruction régulière du #compromis_social noué entre l’État social et le monde enseignant. La perte spectaculaire de #pouvoir_d’achat des universitaires, qui remonte plus loin historiquement, en est l’un des signaux de fond. Il sera progressivement articulé avec l’éclatement de la relation d’emploi (diminution de la part de l’emploi sous statut, #dévalorisation_du_travail etc.).

    Arrimer l’ESR au #régime_d’accumulation, une visée utilitariste

    L’État est un acteur essentiel dans l’émergence de la production de connaissance, hier comme commun, désormais comme résultat, ou produit, d’un secteur productif. En dérégulant l’ESR, le principal appareil de cette production, l’État délaisse la priorité accordée à la montée de la qualification de la population active, au profit d’un #pilotage_par_la_recherche. Ce faisant, il radicalise des dualités anciennes entre système éducatif pour l’élite et pour la masse, entre recherche utile à l’industrie et recherche vue comme activité intellectuelle (cf. la place des SHS), etc.

    La croissance des effectifs étudiants sur une période assez longue, s’est faite à moyens constants avec des effectifs titulaires qui ne permettent pas de maintenir la qualité du travail de formation (cf. figure 2). L’existence de gisements de productivité supposés, à savoir d’une partie de temps de travail des enseignants-chercheurs inutilisé, a conduit à une pénurie de poste et à une recomposition de l’emploi : alourdissement des tâches des personnels statutaires pour un #temps_de_travail identique et développement de l’#emploi_hors_statut. Carpentier & Picard ont récemment montré, qu’en France comme ailleurs, le recours au #précariat s’est généralisé, participant par ce fait même à l’effritement du #corps_professionnel qui n’a plus été à même d’assurer ni sa reproduction ni ses missions de formation.

    C’est le résultat de l’évolution longue. L’#enseignement est la part délaissée, et les étudiants et étudiantes ne sont plus au cœur des #politiques_universitaires : ni par la #dotation accordée par étudiant, ni pour ce qui structure la carrière des universitaires (rythmée par des enjeux de recherche), et encore moins pour les dotations complémentaires (associées à une excellence en recherche). Ce mouvement se met toutefois en œuvre en dehors de la formation des élites qui passent en France majoritairement par les grandes écoles (Charle et Soulié, 2015). Dès lors que les étudiants cessaient d’être le principe organisateur de l’ESR dans les universités, la #recherche pouvait s’y substituer. Cela intervient avec une nouvelle convention de qualité de la recherche. La mise en œuvre de ce principe concurrentiel, initialement limité au financement sur projets, a été élargie à la régulation des carrières.

    La connaissance, et de façon concrète le niveau de diplôme des salariés, est devenu une clé de la compétitivité, voire, pour les gouvernements, de la perspective de croissance. Alors que le travail de recherche tend à devenir une compétence générale du travail qualifié, son rôle croissant dans le régime d’accumulation pousse à la transformation du rapport social de travail de l’ESR.

    C’est à partir du système d’#innovation, en ce que la recherche permet de produire des actifs de production, que l’appariement entre recherche et profit participe d’une dynamique nouvelle du régime d’accumulation.

    Cette dynamique est pilotée par l’évolution jointe du #capitalisme_financiarisé (primauté du profit actionnarial sur le profit industriel) et du capitalisme intensif en connaissance. Les profits futurs des entreprises, incertains, sont liés d’une part aux investissements présents, dont le coût élevé repose sur la financiarisation tout en l’accélérant, et d’autre part au travail de recherche, dont le contrôle échappe au régime historique de croissance de la productivité. La diffusion des compétences du travail de recherche, avec la montée des qualifications des travailleurs, et l’accumulation de connaissances sur lequel il repose, deviennent primordiaux, faisant surgir la transformation du contenu du travail par l’élévation de sa qualité dans une division du travail qui vise pourtant à l’économiser. Cela engendre une forte tension sur la production des savoirs et les systèmes de transmission du savoir qui les traduisent en connaissances et compétences.

    Le travail de recherche devenant une compétence stratégique du travail dans tous les secteurs d’activité, les questions posées au secteur de recherche en termes de mesure de l’#efficacité deviennent des questions générales. L’enjeu en est l’adoption d’une norme d’évaluation que les marchés soient capables de faire circuler parmi les secteurs et les activités consommatrices de connaissances.

    Un régime face à ses contradictions

    Cette transformation de la recherche en un secteur, arrimé au régime d’accumulation, suppose un nouveau compromis institutionnalisé. Mais, menée par une politique néolibérale, elle se heurte à plusieurs contradictions majeures qui détruisent les conditions de sa stabilisation sans que les principes d’une régulation propre ne parviennent à émerger.

    Quand la normalisation du travail de recherche dévalorise l’activité et les personnels

    Durant la longue période de régulation administrée, le travail de recherche a associé le principe de #liberté_académique à l’emploi à statut. L’accomplissement de ce travail a été considéré comme incompatible avec une prise en charge par le marché, ce dernier n’étant pas estimé en capacité de former un signal prix sur les services attachés à ce type de travail. Ainsi, la production de connaissance est un travail entre pairs, rattachés à des collectifs productifs. Son caractère incertain, la possibilité de l’erreur sont inscrits dans le statut ainsi que la définition de la mission (produire des connaissances pour la société, même si son accaparement privé par la bourgeoisie est structurel). La qualité de l’emploi, notamment via les statuts, a été la clé de la #régulation_professionnelle. Avec la #mise_en_concurrence_généralisée (entre établissements, entre laboratoires, entre Universités et grandes écoles, entre les personnels), le compromis productif entre les individus et les collectifs de travail est rompu, car la concurrence fait émerger la figure du #chercheur_entrepreneur, concerné par la #rentabilisation des résultats de sa recherche, via la #valorisation sous forme de #propriété_intellectuelle, voire la création de #start-up devenu objectifs de nombre d’université et du CNRS.

    La réponse publique à la #dévalorisation_salariale évoquée plus haut, passe par une construction différenciée de la #rémunération, qui rompt le compromis incarné par les emplois à statut. Le gel des rémunérations s’accompagne d’une individualisation croissante des salaires, l’accès aux ressources étant largement subordonné à l’adhésion aux dispositifs de mise en concurrence. La grille des rémunérations statutaires perd ainsi progressivement tout pouvoir organisationnel du travail. Le rétrécissement de la possibilité de travailler hors financements sur projet est indissociable du recours à du #travail_précaire. La profession a été dépossédée de sa capacité à défendre son statut et l’évolution des rémunérations, elle est inopérante à faire face à son dépècement par le bloc minoritaire.

    La contradiction intervient avec les dispositifs de concurrence qui tirent les instruments de la régulation professionnelle vers une mise aux normes marchandes pour une partie de la communauté par une autre. Ce mouvement est rendu possible par le décrochage de la rémunération du travail : le niveau de rémunération d’entrée dans la carrière pour les maîtres de conférences est ainsi passé de 2,4 SMIC dans les années 1980 à 1,24 aujourd’hui.

    Là où le statut exprimait l’impossibilité d’attacher une valeur au travail de recherche hors reconnaissance collective, il tend à devenir un travail individualisable dont le prix sélectionne les usages et les contenus. Cette transformation du travail affecte durablement ce que produit l’université.

    Produire de l’innovation et non de la connaissance comme communs

    Durant la période administrée, c’est sous l’égide de la profession que la recherche était conduite. Définissant la valeur de la connaissance, l’action collective des personnels, ratifiée par l’action publique, pose le caractère non rival de l’activité. La possibilité pour un résultat de recherche d’être utilisé par d’autres sans coût de production supplémentaire était un gage d’efficacité. Les passerelles entre recherche et innovation étaient nombreuses, accordant des droits d’exploitation, notamment à l’industrie. Dans ce cadre, le lien recherche-profit ou recherche-utilité économique, sans être ignoré, ne primait pas. Ainsi, la communauté professionnelle et les conditions de sa mise au travail correspondait à la nature de ce qui était alors produit, à savoir les connaissances comme commun. Le financement public de la recherche concordait alors avec la nature non rivale et l’incertitude radicale de (l’utilité de) ce qui est produit.

    La connaissance étant devenue un actif stratégique, sa valorisation par le marché s’est imposée comme instrument d’orientation de la recherche. Finalement dans un régime d’apparence libérale, la conduite politique est forte, c’est d’ailleurs propre d’un régime néolibéral tel que décrit notamment par Amable & Palombarini (2018). Les #appels_à_projet sélectionnent les recherches susceptibles de #valorisation_économique. Là où la #publication fait circuler les connaissances et valide le caractère non rival du produit, les classements des publications ont pour objet de trier les résultats. La priorité donnée à la protection du résultat par la propriété intellectuelle achève le processus de signalement de la bonne recherche, rompant son caractère non rival. La #rivalité exacerbe l’effectivité de l’exclusion par les prix, dont le niveau est en rapport avec les profits anticipés.

    Dans ce contexte, le positionnement des entreprises au plus près des chercheurs publics conduit à une adaptation de l’appareil de production de l’ESR, en créant des lieux (#incubateurs) qui établissent et affinent l’appariement recherche / entreprise et la #transférabilité à la #valorisation_marchande. La hiérarchisation des domaines de recherche, des communautés entre elles et en leur sein est alors inévitable. Dans ce processus, le #financement_public, qui continue d’endosser les coûts irrécouvrables de l’incertitude, opère comme un instrument de sélection et d’orientation qui autorise la mise sous contrôle de la sphère publique. L’ESR est ainsi mobilisée par l’accumulation, en voyant son autonomie (sa capacité à se réguler, à orienter les recherches) se réduire. L’incitation à la propriété intellectuelle sur les résultats de la recherche à des fins de mise en marché est un dispositif qui assure cet arrimage à l’accumulation.

    Le caractère appropriable de la recherche, devenant essentiel pour la légitimation de l’activité, internalise une forme de consentement de la communauté à la perte du contrôle des connaissances scientifiques, forme de garantie de sa circulation. Cette rupture de la non-rivalité constitue un coût collectif pour la société que les communautés scientifiques ne parviennent pas à rendre visible. De la même manière, le partage des connaissances comme principe d’efficacité par les externalités positives qu’il génère n’est pas perçu comme un principe alternatif d’efficacité. Chemin faisant, une recherche à caractère universel, régulée par des communautés, disparait au profit d’un appareil sous doté, orienté vers une utilité de court terme, relayé par la puissance publique elle-même.

    Un bloc hégémonique réduit, contre la collégialité universitaire

    En tant que mode de gouvernance, la collégialité universitaire a garanti la participation, et de fait la mobilisation des personnels, car ce n’est pas la stimulation des rémunérations qui a produit l’#engagement. Les collectifs de travail s’étaient dotés d’objectifs communs et s’étaient accordés sur la #transmission_des_savoirs et les critères de la #validation_scientifique. La #collégialité_universitaire en lien à la définition des savoirs légitimes a été la clé de la gouvernance publique. Il est indispensable de rappeler la continuité régulatrice entre liberté académique et organisation professionnelle qui rend possible le travail de recherche et en même temps le contrôle des usages de ses produits.

    Alors que l’université doit faire face à une masse d’étudiants, elle est évaluée et ses dotations sont accordées sur la base d’une activité de recherche, ce qui produit une contradiction majeure qui affecte les universités, mais pas toutes. Il s’effectue un processus de #différenciation_territoriale, avec une masse d’établissements en souffrance et un petit nombre qui a été retenu pour former l’élite. Les travaux de géographes sur les #inégalités_territoriales montrent la très forte concentration sur quelques pôles laissant des déserts en matière de recherche. Ainsi se renforce une dualité entre des universités portées vers des stratégies d’#élite et d’autres conduites à accepter une #secondarisation_du_supérieur. Une forme de hiatus entre les besoins technologiques et scientifiques massifs et le #décrochage_éducatif commence à être diagnostiquée.

    La sectorisation de l’ESR, et le pouvoir pris par un bloc hégémonique réduit auquel participent certaines universités dans l’espoir de ne pas être reléguées, ont procédé par l’appropriation de prérogatives de plus en plus larges sur les carrières, sur la valorisation de la recherche et la propriété intellectuelle, de ce qui était un commun de la recherche. En cela, les dispositifs d’excellence ont joué un rôle marquant d’affectation de moyens par une partie étroite de la profession. De cette manière, ce bloc capte des prébendes, assoit son pouvoir par la formation des normes concurrentielles qu’il contrôle et développe un rôle asymétrique sur les carrières par son rôle dominant dans l’affectation de reconnaissance professionnelle individualisée, en contournant les instances professionnelles. Il y a là création de nouveaux périmètres par la norme, et la profession dans son ensemble n’a plus grande prise, elle est mise à distance des critères qui servent à son nouveau fonctionnement et à la mesure de la performance.

    Les dispositifs mis en place au nom de l’#excellence_scientifique sont des instruments pour ceux qui peuvent s’en emparer et définissant les critères de sélection selon leur représentation, exercent une domination concurrentielle en sélectionnant les élites futures. Il est alors essentiel d’intégrer les Clubs qui en seront issus. Il y a là une #sociologie_des_élites à préciser sur la construction d’#UDICE, club des 10 universités dites d’excellence. L’évaluation de la performance détermine gagnants et perdants, via des labels, qui couronnent des processus de sélection, et assoit le pouvoir oligopolistique et les élites qui l’ont porté, souvent contre la masse de la profession (Musselin, 2017).

    Le jeu des acteurs dominants, en lien étroit avec le pouvoir politique qui les reconnait et les renforce dans cette position, au moyen d’instruments de #rationalisation de l’allocation de moyens pénuriques permet de définir un nouvel espace pour ceux-ci, ségrégué du reste de l’ESR, démarche qui est justifié par son arrimage au régime d’accumulation. Ce processus s’achève avec une forme de séparatisme du nouveau bloc hégémonique composé par ces managers de l’ESR, composante minoritaire qui correspond d’une certaine mesure au bloc bourgeois. Celles- et ceux-là même qui applaudissent le discours présidentiel annonçant la révolution dont un petit fragment tirera du feu peu de marrons, mais qui seront sans doute pour eux très lucratifs. Toutefois le scénario ainsi décrit dans sa tendance contradictoire pour ne pas dire délétère ne doit pas faire oublier que les communautés scientifiques perdurent, même si elles souffrent. La trajectoire choisie de sectorisation déstabilise l’ESR sans ouvrir d’espace pour un compromis ni avec les personnels ni pour la formation. En l’état, les conditions d’émergence d’un nouveau régime pour l’ESR, reliant son fonctionnement et sa visée pour la société ne sont pas réunies, en particulier parce que la #rupture se fait contre la profession et que c’est pourtant elle qui reste au cœur de la production.

    https://laviedesidees.fr/Universite-service-public-ou-secteur-productif
    #ESR #facs #souffrance

  • La sequía pone en jaque al turismo de la Costa del Sol | España | EL PAÍS
    https://elpais.com/espana/2024-02-12/la-sequia-pone-en-jaque-al-turismo-de-la-costa-del-sol.html

    Comment « accueillir » plus de 14 millions de touristes quand plus de 250 000 habitants n’ont déjà plus assez d’eau, sachant que plus un touriste dépense d’argent en hôtel, plus il dépense d’eau ? Une question à 19 milliards d’euros pour Malaga...

    La Costa del Sol afronta este 2024 un año paradójico. Por un lado, busca superar los 14 millones de turistas que llegaron en 2023, su récord histórico. Por otro, no dispone de agua ni para su población. Los datos indican que unas 250.000 personas del litoral de Málaga ya tienen restricciones, de las que 100.000 sufren cortes nocturnos en 15 municipios. Y, claro, surgen las preguntas. ¿Se podrá atender al turismo? ¿Seguirán llegando viajeros? ¿Aceptarán no poder ducharse a ciertas horas o que la piscina de la casa de alquiler esté vacía? Las dudas sobrevuelan a un sector que afronta un verano espinoso y que es indispensable para la economía malagueña: durante el año pasado creó más de 128.000 empleos y dejó más de 19.000 millones de ingresos, según los datos de la Diputación provincial. La incertidumbre rodea a una zona sedienta de turistas, pero que se atraganta ante la persistente falta de lluvia.

    Enrique Navarro, director del Instituto Andaluz de Turismo en su sede malagueña, explica que el consumo de agua turístico varía mucho según el tipo de alojamiento. Las cifras más bajas corresponden a hoteles de una o dos estrellas y las más altas a los de lujo, que cuentan con piscinas, spas o grandes jardines. Hay pocos estudios con datos concretos, pero en la Universidad de Baleares aprovecharon la pandemia para analizar la demanda de los residentes en las islas. Lo compararon con años de turismo y calcularon así el gasto de los visitantes: hay municipios donde apenas el 40% es consumido por residentes. Los cálculos de la investigación indican que en un hotel de cinco estrellas cada persona gasta unos 500 litros al día, “pero pueden ser incluso 700″, explica el profesor Cels García, catedrático de Geografía Física de dicha universidad, quien señala que en un tres o cuatro estrellas baja hasta rondar los 300 litros por día. Sea como sea, el consumo medio de un turista siempre es mayor que el de la población local. Según el Instituto Nacional de Estadística, cada habitante de España gasta 133 litros diarios de media, a los que sumar un 25% más por las pérdidas en la red de abastecimiento.

  • #Pénuries : des grains de sable dans la machine

    Depuis le 17 janvier, on trouve dans toutes les bonnes librairies le dernier #livre de notre contributeur #Renaud_Duterme. #Mondialisation, réseaux d’#approvisionnement, goulots d’étranglement… Voici, en quelques paragraphes, un aperçu du contenu de « Pénuries. Quand tout vient à manquer » (éd. Payot).

    Pénurie. Un mot que l’on croyait appartenir au passé. Mais que plusieurs événements (pandémie de Covid-19, blocage du canal de Suez, guerre en Ukraine) ont fait revenir sur le devant de l’actualité. Énergie, matières premières, denrées alimentaires, médicaments, matériaux de construction, pièces automobiles, puces électroniques, main d’œuvre, aucun secteur ne semble épargné par cette tendance préoccupante.

    Un approvisionnement sous tension

    La quasi-totalité des biens que nous achetons et utilisons nous parviennent via des #chaînes_d’approvisionnement aussi longues que complexes. Elles sont composées de multiples maillons, allant de l’extraction de matières premières (minerais, produits agricoles, énergie) et leur transformation, jusqu’à l’acheminement vers les rayons des supermarchés, en passant par la fabrication, l’entreposage et, bien sûr, le transport. Le tout fonctionnant en #flux_tendu (la logique de stock ayant laissé la place à un acheminement quotidien), principalement grâce au développement de la #conteneurisation et du #transport routier. Le maître mot de cette #logistique est la #fluidité. Le moindre grain de sable peut gripper toute la machine, a fortiori s’il n’est pas résorbé rapidement.

    Car mondialisation capitaliste oblige, les différentes étapes de ces chaînes d’approvisionnement ont été de plus en plus éloignées les unes des autres, augmentant les risques de #perturbations par #effet_domino. Conflits, catastrophes naturelles, aléas climatiques, grèves, attentats, cyber-attaques, épidémies, autant d’événements pouvant « gripper » un maillon de la chaîne (voire plusieurs) et par là provoquer des goulots d’étranglement remettant en question le fonctionnement même de l’#économie. Ces #goulots semblent se multiplier depuis quelques années et il est fort probable que cela ne soit qu’un début, tant de nombreuses ruptures se dessinent, causées par des limites géophysiques (épuisement des ressources), des dérèglements climatiques (sécheresses et inondations), la chute des rendements agricoles, des tensions socio-économiques (mouvements sociaux, grèves, manque de main d’œuvre, vieillissement de la population, montée des replis identitaires) ou encore géopolitiques (guerres et conflits divers).

    Rien que ces derniers mois, on peut évoquer l’assèchement du canal de Panama engendrant une réduction du nombre de navires pouvant l’emprunter quotidiennement ; les attaques des Houthis en mer Rouge contre des navires commerciaux, ce qui a contraint de nombreux armateurs à faire contourner l’Afrique à leurs navires ; ou encore les grèves et les blocages émanant du monde agricole qui, s’ils accentuaient, pourraient priver certains territoires d’approvisionnement divers. Rappelons que les cent premières villes de France ont seulement trois jours d’autonomie alimentaire, avec 98% de leur nourriture importée[1].

    Jusqu’ici, les tensions ont été en partie surmontées et n’ont pas débouché sur des ruptures majeures, matérialisées par des pénuries durables. Mais leur multiplication est un phénomène inquiétant et l’analyse objective des risques laisse supposer une aggravation et surtout une interconnexion entre des phénomènes a priori distincts les uns des autres. C’est d’autant plus vrai qu’un couac peut engendrer des perturbations bien plus longues que le problème en tant que tel, les retards s’accumulant à chaque étape, le redémarrage de la machine pouvant mettre plusieurs mois, voire années, pour retrouver la fluidité qui fait sa raison d’être.

    Ironie du sort, ces tensions impactent de nombreux éléments sans lesquels la logistique elle-même serait impossible. Les palettes, conserves, conteneurs, véhicules, emballages et cartons sont aussi fabriqués de façon industrielle et nécessitent des composants ou des matières souvent issus de pays lointains et dont le transport et les procédés de fabrication impliquent de grandes quantités d’énergie et de ressources (métaux, bois, eau, etc.).

    Idem pour la main d’œuvre nécessaire au bon fonctionnement des infrastructures qui nous entourent. La colère des agriculteurs est là pour nous rappeler que ces dernières dépendent in fine de travailleurs agricoles, de chauffeurs (deux professions qui ont bien du mal à trouver une relève auprès des jeunes générations), mais aussi d’employés de supermarché, d’exploitants forestiers, d’ouvriers du bâtiment, de magasiniers d’entrepôts logistiques, etc.

    Le ver était dans le fruit

    Ces #vulnérabilités sont loin d’être une fatalité et découlent d’une vision de la mondialisation au sein de laquelle les forces du marché jouissent d’une liberté quasi-totale, ce qui a engendré une multinationalisation des entreprises, la création de zones de libre-échange de plus en plus grandes et la mainmise de la finance sur les grands processus productifs. Des principes se sont peu à peu imposés tels que la spécialisation des territoires dans une ou quelques productions (particulièrement visible en ce qui concerne l’agriculture) ; la standardisation à outrance permettant des économies d’échelles ; la liberté des mouvements de capitaux, engendrant des phénomènes spéculatifs à l’origine de la volatilité des prix de nombreuses matières premières ; la mise en concurrence de l’ensemble des territoires et des travailleurs ; et bien sûr l’interdépendance mutuelle.

    Ces principes entrainent des conséquences dramatiques chez un nombre croissant de personnes, entraînant une perte de légitimité du système en place, ce qui risque également d’alimenter des tensions sociales et géopolitiques déjà existantes, perturbant un peu plus ces chaînes logistiques. À titre d’exemple, les politiques de fermeture des frontières prônées par de plus en plus de gouvernements national-populistes priveraient les pays qui les appliquent de milliers de travailleurs, conduisant à des pénuries de main d’œuvre dans de nombreux secteurs.

    Démondialiser les risques

    En outre, avoir un regard global sur nos systèmes d’approvisionnement permet de (re)mettre certaines réalités au cœur des analyses. Il en est ainsi de cycles de production concernant les différents objets qui nous entourent. De l’origine des composants nécessaires à leur fabrication. Des impacts écologiques et sociaux présents à toutes les étapes de ces cycles. Des limites du recyclage. De la fable que constitue le découplage[2], cette idée selon laquelle il serait possible de croître économiquement tout en baissant les impacts environnementaux. Des limites physiques et sociales auxquelles va se heurter la poursuite de notre consommation.

    Pour ce faire, il importe de populariser de nombreux concepts tels que l’#empreinte_matière (qui tente de calculer l’ensemble des ressources nécessaires à la fabrication d’un bien), l’#énergie_grise et l’#eau_virtuelle (respectivement l’énergie et l’eau entrant dans les cycles d’extraction et de fabrication d’un produit), le #métabolisme (qui envisage toute activité humaine à travers le prisme d’un organisme nécessitant des ressources et rejetant des déchets), la #dette_écologique (qui inclut le pillage des autres pays dans notre développement économique) ou encore l’#extractivisme (qui conçoit l’exploitation de la nature d’une façon comptable).

    Et par là aller vers plus d’#autonomie_territoriale, en particulier dans les domaines les plus élémentaires tels que l’#agriculture, l’#énergie ou la #santé (rappelons qu’environ 80% des principes actifs indispensables à la plupart des médicaments sont produits en Chine et en Inde)[3].

    Dans le cas contraire, l’#anthropocène, avec ses promesses d’abondance, porte en lui les futures pénuries. Le monde ne vaut-il pas mieux qu’un horizon à la Mad Max ?

    https://blogs.mediapart.fr/geographies-en-mouvement/blog/300124/penuries-des-grains-de-sable-dans-la-machine

    #pénurie #mondialisation #globalisation

    • Pénuries. Quand tout vient à manquer

      Comment s’adapter aux ruptures qui nous attendent dans un monde en contraction

      Saviez-vous que la plupart des villes ne survivraient que deux à trois jours sans apport extérieur de nourriture ? Qu’un smartphone nécessite des métaux rares issus des quatre coins du monde ? Et que 80% des principes actifs nécessaires à la fabrication de nos médicaments sont produits en Chine et en Inde ? La quasi-totalité des biens que nous achetons parviennent jusqu’à nous via des chaînes d’approvisionnement aussi complexes que lointaines, de l’extraction et la transformation de matières premières (minerais, produits agricoles, énergie) à l’acheminement de produits finis vers nos supermarchés. Ce qui, mondialisation capitaliste oblige, augmente les risques de vulnérabilité de ces chaînes par effet domino.
      Nous expérimentons déjà ces pénuries que nous vivons mal, habitués à une société de flux ininterrompu. Or elles vont s’aggraver du fait de l’épuisement des ressources, des dérèglements climatiques, des tensions socio-économiques et géopolitiques. Demain, nous allons manquer de riz, de cuivre, de pétrole... Il est donc urgent de nous y préparer et d’envisager un autre système économique afin de rendre nos villes et nos vies plus autonomes et résilientes.

      https://www.payot-rivages.fr/payot/livre/p%C3%A9nuries-9782228934930

  • Terre : aux racines du capitalisme

    L’élément terre, dans son acception économique peut s’entendre de deux manières : la terre à exploiter, dont on peut tirer des ressources et du profit, et la Terre à préserver et à “sauver” d’un #capitalisme_prédateur qui l’épuise. L’idée de parler de capital Terre reprend deux notions incluses dans le terme Terre, à savoir comprendre la Terre à la fois comme notre planète et à la fois comme une ressource foncière. On ressent bien l’ambivalence dans l’expression capital Terre : la Terre est à la fois notre espace de vie, un espace commun et un bien précieux à préserver, mais elle est aussi une ressource dans laquelle puiser des richesses et dont on peut retirer des profits.
    Du 12ème au 19ème siècle : comment la croissance se fonde-t-elle sur le travail de la terre ?

    Selon Alessandro Stanziani, l’histoire économique de la terre comme capital commence au 12ème siècle, il précise "selon Fernand Braudel et Werner Sombart le capitalisme commence au 12ème siècle. Le capitalisme selon Braudel est identifié par le monopole, plutôt que la concurrence, et par la finance. Je complète cette définition avec la notion que les ressources sont uniquement à exploiter et non pas à préserver pour le futur et surtout que le travail doit être soumis à des contraintes sévères au long de plusieurs siècles. De ce point de vue-là, je n’associe pas, comme Marx, le travail et le capitalisme au travail salarié et au prolétaires, au contraire, j’associe les formes multiples du capitalisme aux formes différentes du travail contraint. D’où la possibilité d’inclure les régimes qui commencent au 12ème siècle sous le nom de capitalisme". Par ailleurs, du 12e au 19e, la hausse de la production agricole correspond à une augmentation des surfaces cultivées, en effet les déforestations n’ont cessé d’être présentes du néolithique au haut Moyen-Âge et elles s’accélèrent fortement entre le 8e et le 13e siècle. Cependant, même au 12ème siècle des contestations contre le déboisement et l’exploitation de la terre à des fins productives agraires existaient déjà, Alessandro Stanziani ajoute "les résistances sont importantes, plusieurs acteurs se rendent compte de la nécessité de préserver les forêts afin d’avoir de bonnes récoltes à côté, mais aussi pour des intérêts économiques, politiques et sociaux. Cette résistance est celle d’un capitalisme que j’appelle foncier, agraire et quasi industriel, qui va du 12ème au 19ème siècle".
    De 1870 à 1970 : vers un modèle productiviste et une surexploitation de l’élément terre

    Pendant ces décennies, l’exploitation des ressources de la terre et le système capitaliste connaissent des changements majeurs, marqués par une intensification remarquable. Alessandro Stanziani précise "dans l’agriculture et dans le pays du Nord, la mécanisation est très lente, mais on constate un changement significatif avec les semences. Après la crise de 29, aux Etats-Unis, on s’intéresse aux semences hybrides. Il y a des investissements massifs, on donne des semences hybrides aux fermiers américains et ensuite, on vend ces mêmes semences à l’Europe avec l’aide du plan Marshal et on impose aux agriculteurs européens d’avoir recours aux semences hybrides. L’avantage des semences hybrides, ce sont des rendements faramineux, ça commence par le maïs, la plante des plaines américaines, et de fait on arrive à nourrir de plus en plus de population à l’échelle mondiale. L’inconvénient c’est que les semences hybrides ont une durée de vie très courte, de un ou deux ans, pour qu’elles soient rentables il faut beaucoup de fertilisants chimiques. Les producteurs de semences produisent aussi le fertilisants chimiques, ils sont gagnants des deux côtés. Par ailleurs, ces producteurs ont le monopole et l’exclusivité de ce marché. Enfin, les rendements des hybrides commencent à décroître après 20 ans".
    De 1970 à 2050 : spéculer sur le capital Terre : la terre face à la libéralisation des marchés

    Les bouleversements majeurs ont lieu pendant les années 1970 : la fin du système de Bretton Woods, les chocs pétroliers, le déclin du keynésianisme et de l’État social en Occident et le début des réformes en Chine.
    Par ailleurs, la spéculation sur les produits agricoles s’élargit aux terres elles-mêmes : il ne s’agit pas seulement d’échanger des produits virtuels dont la plupart ne verront jamais le jour, mais de contrôler ces flux hypothétiques à l’échelle mondiale. Selon Alessandro Stanziani "avec le néolibéralisme des années 80 et surtout dans les années 1990, on assiste à la libéralisation totale des Bourses de marchandises, avec les spéculations sur les matières premières et sur le blé, et on arrive jusqu’aux crises de 2008/2010 et jusqu’au crise de nos jours sur la vie chère. C’est-à-dire que c’est une pénurie qui est provoquée, non pas par de mauvaises récoltes, mais surtout par les spéculations".

    https://www.radiofrance.fr/franceculture/podcasts/entendez-vous-l-eco/terre-aux-racines-du-capitalisme-8719942

    #capitalisme #terre #agriculture #histoire #économie_capitaliste #terres #Alessandro_Stanziani #capital_terre #spéculation #exploitation #foncier #ressource_foncière #à_écouter #ressources_pédagogiques #croissance #déforestation #forêts #déboisement #mécanisation #semences #semences_hybrides #plan_Marshal #maïs #rendements #industrie_agro-alimentaire #fertilisants #néolibéralisme #blé #matières_premières #pénurie #podcast #audio

    • Capital Terre. Une histoire longue du monde d’après (XIIe-XXIe siècle)

      Et si le cœur du problème de la faim dans le monde n’était pas la hausse de la population mais plutôt les modalités de la production agricole et surtout de la distribution au profit des plus riches ? Dans cet essai engagé pour des sociétés plus solidaires et plus justes, qui retrace l’histoire longue du capitalisme, Alessandro Stanziani propose de renouer avec le contrat social cher à J.-J. Rousseau et de faire de la démocratie, de l’égalité sociale et de l’environnement les trois piliers du monde d’après. Défenseur d’une politique publique conciliant croissance économique et démographique, droits du travail, lutte contre les inégalités et protection de la planète, il plaide pour la fin des spéculations sur les denrées alimentaires, de l’accaparement des terres et de la propriété industrielle, en particulier sur les semences, véritable « patrimoine de l’humanité », et prône une refonte plus égalitaire de la fiscalité et des finances publiques.
      Une pensée économique globale, qui se préoccupe autant de l’avenir de l’Asie et de l’Afrique que de celui de l’Europe, par un brillant historien reconnu à l’international et fort de décennies de recherches sur le terrain dans le monde entier.

      https://www.payot-rivages.fr/payot/livre/capital-terre-9782228929257
      #livre

  • Crise du logement : face à la pénurie de locations, les dossiers falsifiés deviennent monnaie courante
    https://www.lemonde.fr/societe/article/2023/12/28/crise-du-logement-face-a-la-penurie-de-locations-les-dossiers-falsifies-devi

    Dans les zones tendues, là où le fossé entre l’offre et la demande s’est creusé, trafiquer ses fiches de paie est souvent perçu comme le seul moyen de décrocher un appartement. Un phénomène qui touche désormais des personnes disposant d’un #revenu confortable.

    La législation interdisant la mise en location des logements les plus mal isolés et énergivores (« passoires thermiques ») et la vague de transformations d’appartements en #meublés_touristiques, alimentée par le succès d’#Airbnb, participent au grippage du marché. Si bien que, en septembre, le site immobilier Particulier à Particulier (PAP) a vu ses offres de locations chuter de 15 % au niveau national (− 17 % en Ile-de-France), tandis que la demande progressait de 17 % (et de 20 % en région parisienne). Les agences Guy Hoquet reçoivent encore aujourd’hui plus de cent appels dans l’heure lorsqu’elles affichent une nouvelle annonce en Ile-de-France.

    Chez Guy Hoquet, on expérimente aujourd’hui dans les agences volontaires la solution Vialink, qui, par le biais d’un outil d’intelligence artificielle, permet de vérifier plus d’une centaine de points de contrôle en croisant les bulletins de salaire, l’avis d’imposition, la pièce d’identité ou encore les données publiques disponibles, comme celles de Societe.com. Pour rétablir la confiance entre #locataires et #propriétaires, une start-up d’Etat, dénommée DossierFacile, offre également aux propriétaires une vérification de certaines pièces, notamment l’authentification de l’avis d’imposition. A chaque fois, il s’agit aussi bien de lutter contre les faux dossiers vendus clés en main sur Internet par des escrocs pour quelque 180 euros que de pister les retouches artisanales sur Word ou sur Photoshop.

    https://archive.is/htBUy

    #logement #pénurie #loyer #agences-immobilières #IDF #Paris #faux_dossiers #falsification #IA

    • Dans les #palaces, les nouvelles frontières de l’hyperluxe
      https://www.lemonde.fr/economie/article/2023/12/27/dans-les-palaces-les-nouvelles-frontieres-de-l-hyperluxe_6207865_3234.html

      .... les taux d’occupation des chambres restent faibles : en moyenne 53 % en 2022, contre 59 % en 2018, selon les chiffres de KPMG, qui a mené une étude sur les palaces parue en septembre.

      https://archive.is/eUjkk
      #luxe #logements_vacants

    • Les tarifs des hôtels explosent pour les JO de Paris
      https://www.journaldeleconomie.fr/Les-tarifs-des-hotels-explosent-pour-les-JO-de-Paris_a13086.html

      L’association de consommateurs UFC-Que Choisir tire la sonnette d’alarme dans une étude sur les tarifs des hôtels à Paris en vue des Jeux olympiques, prévus entre le 26 juillet et le 11 août 2024. L’étude révèle une augmentation de 226% du prix moyen d’une chambre d’hôtel pour la nuit du 26 au 27 juillet 2024, comparé à la même période en juillet 2023. La comparaison des prix de 80 hôtels proches du lieu de la cérémonie d’ouverture met en évidence une augmentation significative de 317 euros à 1.033 euros en moyenne par nuit.

      Ces hausses tarifaires ne sont pas un phénomène nouveau pour des événements d’envergure en France, comme l’a signalé l’UFC-Que Choisir, en rappelant les augmentations observées lors de l’Euro de football en 2016 et de la Coupe du monde 1998.

      Outre l’augmentation des prix, les #hôtels imposent également des conditions de réservation plus strictes. Selon l’UFC-Que Choisir, environ 30% des hôtels exigent un séjour minimum de deux nuitées, voire jusqu’à cinq pour certains. De plus, seulement la moitié des hôtels interrogés confirment avoir encore des chambres disponibles pour la période de l’événement. L’incertitude demeure quant à la disponibilité réelle des chambres restantes.

      #JO

    • En plus, ils passent totalement à côté du sujet (quelle surprise !) : la loi Boutin de 2009 qui adosse à la possibilité d’être remboursé des impayés de loyers l’obligation de recourir à une assurance.
      Ce qui revient à dire que pour contrer un risque faible (il y a très peu de loyers non recouvrés en France, même si les inégalités galopantes tendent à augmenter le phénomène), on a entré les critères des assurances dans les locations.
      À savoir qu’il faut avoir un salaire fixe (exit les autres forme de revenus) et dont le montant représente 3× le montant du loyer. Ce qui exclut de la location… pratiquement 95% de la population des non propriétaires. Car le montant des loyers est totalement décorrélé de celui des salaires qui sont à la traine depuis des décennies (merci Delors pour la désindexation des salaires !).

      Aujourd’hui, en gros, tout Paris ne veut plus louer qu’à un couple de polytechniciens… lequel a préféré acheter dans la ceinture.

      Même en province, c’est chaud, surtout dans le métropoles régionales qui concentrent tous les emplois bien rémunérés.

      Sans compter qu’il n’y a plus rien pour les familles d’ouvriers et employés, nulle part, sauf dans le social… auquel est éligible 80% de la population.

      Et tout en bas de cette pyramide de merdes, il y a les mères isolées qui doivent loger une famille avec des bouts de SMIC.

      Alors ta police de fausses candidatures, con de Ténardier, elle ne va vraiment servir à rien parce que le problème est que l’offre est totalement décorrélée de la demande.

    • Aujourd’hui, en gros, tout Paris ne veut plus louer qu’à un couple de polytechniciens… lequel a préféré acheter dans la ceinture.

      Je dirais même « ne peut plus louer », du fait de ladite loi Boutin. Et c’est la même chose un peu partout, hors campagnes isolées probablement. Sur Angers par exemple, le moindre studio (ou même chambre en colocation) se retrouve à 500€/mois, voire plus, ce qui fait qu’il devient impossible de se loger avec un SMIC si on veut respecter cette loi, en sachant que les APL ne sont pas prises en compte non plus dans le fameux calcul « votre revenu = 3 x le loyer ».

  • « Le manque d’immigration de travail handicape la France »

    Les économistes #Madeleine_Péron et #Emmanuelle_Auriol constatent, dans une tribune au « Monde », que le pays se prive d’une immigration nécessaire à sa croissance et soulignent que le débat se concentre sur des aspects identitaires et sécuritaires, omettant que les arrivées d’étrangers en France se situent sous la moyenne européenne.

    A l’occasion du projet de loi déposé par le gouvernement, le débat sur l’immigration a resurgi dans l’actualité. Sans surprise, les volets sécuritaire et identitaire y tiennent une place prépondérante, éclipsant certaines réalités économiques qu’il faudrait pourtant prendre en compte pour permettre un véritable débat démocratique. Car l’immigration pour motif économique est portion congrue en France, et notre pays se prive, pour de mauvaises raisons, d’un fort potentiel de croissance à long terme et, à court terme, de substantiels bénéfices économiques et sociaux.

    Contrairement à une idée reçue, la France est un pays de faible immigration ! Le flux annuel d’immigrés entrants était de 316 174 personnes en 2022, selon le ministère de l’intérieur, soit environ 0,45 % de la population française. En dehors des regroupements familiaux, les possibilités d’une immigration de travail sont réduites pour les ressortissants extracommunautaires.

    De ce fait, l’immigration pour motif économique est négligeable dans notre pays : en 2022, elle représentait seulement 16 % des nouveaux visas délivrés, souvent au prix de batailles administratives à l’issue incertaine pour le candidat à l’immigration et pour son potentiel employeur. Et ce, alors même que, selon l’enquête « Besoins en main-d’œuvre 2023 » de Pôle emploi, 61 % des recrutements sont jugés difficiles, principalement par manque de candidats et de compétences adéquates.

    Les #bienfaits d’une immigration de travail sont considérables à court terme, pour répondre à des tensions fortes et persistantes dans certains secteurs cruciaux tant pour notre économie que pour notre vie quotidienne. Les métiers dits « en tension » s’observent ainsi à tous les niveaux de qualification : il nous manque aussi bien des ouvriers spécialisés que des médecins, des cuisiniers, des infirmiers, des banquiers ou encore des informaticiens. Dès lors, la faible immigration de travail en France est un #problème_économique majeur. Faute de personnels, des services d’urgences ferment, des citoyens âgés dépendants sont privés de soins, des entreprises renoncent à créer de l’activité, voire ferment ou se délocalisent.

    Pourtant, les études réalisées par le Conseil d’analyse économique montrent que l’immigration de travail a, à court terme, un impact négligeable sur les #finances_publiques, dans la mesure où les immigrés travaillent, cotisent et paient des impôts. A long terme, l’#immigration_de_travail, en particulier qualifiée, stimule la #croissance en favorisant l’#innovation, l’#entrepreneuriat et l’insertion dans l’économie mondiale. Comment imaginer que les politiques de #réindustrialisation et d’adaptation au #changement_climatique pourront se faire dans une économie fermée, notamment à la recherche internationale ? Les idées et les innovations ne circulent pas dans l’éther, elles sont portées par des personnes.

    Confusion générale

    La France n’a pas de politique d’immigration, notamment économique. Notre pays subit de plein fouet une #pénurie de main-d’œuvre et se prive des bienfaits à long terme de l’immigration de travail. A l’instar de ce qu’ont fait des pays comme le Canada, l’Australie ou l’Allemagne, il est grand temps de changer nos législations et de mettre en œuvre une véritable politique d’immigration économique. Le Conseil d’analyse économique avait déjà, en novembre 2021, formulé plusieurs recommandations visant à mettre en place une politique migratoire ambitieuse au service de la croissance.

    On peut citer la poursuite des efforts destinés à numériser, centraliser et systématiser le traitement des #visas de travail émanant des entreprises avec des critères d’admissibilité clairs et prévisibles, une évaluation du dispositif « #Passeport_talent » afin de renforcer son efficacité et d’intensifier son octroi, et la facilitation de la transition études-emploi en fluidifiant et en étendant l’accès à des titres de séjour pour les étudiants, sans y adjoindre de critères de salaire minimum, ni d’adéquation du travail aux qualifications.

    Le débat sur l’immigration est monopolisé par des partis politiques qui ont fait de la lutte contre l’immigration leur fonds de commerce. En faisant des amalgames entre immigration, perte d’identité, délinquance et terrorisme, ils laissent à penser que l’immigration est un #fardeau. Le faible volume d’immigration de travail et l’absence d’un discours politique clair sur le sujet contribuent à la confusion générale. Il est, de ce point de vue, frappant de constater que le nouveau projet de loi sur l’immigration aborde pêle-mêle accueil des réfugiés, expulsion de délinquants, immigrés en situation irrégulière et tension sur le marché du travail.

    En abandonnant le débat à des partis politiques dont l’objectif n’est pas, de toute évidence, la croissance, on projette l’image d’une opinion publique uniformément hostile à toute forme d’immigration. Or les Français ne sont pas dupes : ils sont même favorables à l’immigration intracommunautaire et n’ont pas de problème avec l’immigration de travail. Ainsi, dans le baromètre 2022 de la Commission nationale consultative des droits de l’homme, 83 % des personnes interrogées affirment que les immigrés de travail doivent être considérés comme chez eux en France.

    On manque de bras et de compétences partout sur le territoire. Cette situation constitue un frein à notre économie et, quand il s’agit de médecins et d’infirmiers, un péril pour la sécurité et la santé des Français. Alors que même la Hongrie de Viktor Orban s’organise pour accueillir des travailleurs étrangers, et que l’Italie de Giorgia Meloni prévoit d’accorder 122 705 visas extracommunautaires en 2023, la classe politique française est paralysée. Il est grand temps que l’Etat reprenne la main sur la #politique_migratoire. Les enjeux, tant de court terme pour les #secteurs_en_tension que de long terme pour la croissance et l’innovation, sont vitaux pour notre pays.

    https://www.lemonde.fr/idees/article/2023/11/17/le-manque-d-immigration-de-travail-handicape-la-france_6200707_3232.html
    #travail #immigration #migrations #France #économie #main_d'oeuvre

    ping @karine4 @isskein

  • Les #voitures_électriques assoiffent les #pays_du_Sud

    Pour extraire des #métaux destinés aux voitures électriques des pays les plus riches, il faut de l’eau. Au #Maroc, au #Chili, en #Argentine… les #mines engloutissent la ressource de pays souffrant déjà de la sécheresse.

    #Batteries, #moteurs… Les voitures électriques nécessitent des quantités de métaux considérables. Si rien n’est fait pour limiter leur nombre et leur #poids, on estime qu’elles pourraient engloutir plusieurs dizaines de fois les quantités de #cobalt, de #lithium ou de #graphite que l’on extrait aujourd’hui.

    Démultiplier la #production_minière dans des proportions aussi vertigineuses a une conséquence directe : elle pompe des #ressources en eau de plus en plus rares. Car produire des métaux exige beaucoup d’eau. Il en faut pour concentrer le métal, pour alimenter les usines d’#hydrométallurgie, pour les procédés ultérieurs d’#affinage ; il en faut aussi pour obtenir les #solvants et les #acides utilisés à chacun de ces stades, et encore pour simplement limiter l’envol de #poussières dans les mines. Produire 1 kilogramme de cuivre peut nécessiter 130 à 270 litres d’eau, 1 kg de nickel 100 à 1 700 l, et 1 kg de lithium 2 000 l [1].

    Selon une enquête de l’agence de notation étatsunienne Fitch Ratings, les investisseurs considèrent désormais les #pénuries_d’eau comme la principale menace pesant sur le secteur des mines et de la #métallurgie. Elle estime que « les pressions sur la ressource, comme les pénuries d’eau localisées et les #conflits_d’usage, vont probablement augmenter dans les décennies à venir, mettant de plus en plus en difficulté la production de batteries et de technologies bas carbone ». Et pour cause : les deux tiers des mines industrielles sont aujourd’hui situées dans des régions menacées de sécheresse [2].

    L’entreprise anglaise #Anglo_American, cinquième groupe minier au monde, admet que « 75 % de ses mines sont situées dans des zones à haut risque » du point de vue de la disponibilité en eau. La #voiture_électrique devait servir à lutter contre le réchauffement climatique. Le paradoxe est qu’elle nécessite de telles quantités de métaux que, dans bien des régions du monde, elle en aggrave les effets : la sécheresse et la pénurie d’eau.

    Au Maroc, la mine de cobalt de #Bou_Azzer exploitée par la #Managem, qui alimente la production de batteries de #BMW et qui doit fournir #Renault à partir de 2025, prélèverait chaque année l’équivalent de la consommation d’eau de 50 000 habitants. À quelques kilomètres du site se trouvent la mine de #manganèse d’#Imini et la mine de #cuivre de #Bleida, tout aussi voraces en eau, qui pourraient bientôt alimenter les batteries de Renault. Le groupe a en effet annoncé vouloir élargir son partenariat avec Managem « à l’approvisionnement de #sulfate_de_manganèse et de cuivre ».

    Importer de l’eau depuis le désert

    Importer du cobalt, du cuivre ou du manganèse depuis la région de Bou Azzer, cela revient en quelque sorte à importer de l’eau depuis le désert. Les prélèvements de ces mines s’ajoutent à ceux de l’#agriculture_industrielle d’#exportation. À #Agdez et dans les localités voisines, les robinets et les fontaines sont à sec plusieurs heures par jour en été, alors que la température peut approcher les 45 °C. « Bientôt, il n’y aura plus d’eau, s’insurgeait Mustafa, responsable des réseaux d’eau potable du village de Tasla, lors de notre reportage à Bou Azzer. Ici, on se sent comme des morts-vivants. »

    Un des conflits socio-environnementaux les plus graves qu’ait connus le Maroc ces dernières années s’est produit à 150 kilomètres de là, et il porte lui aussi sur l’eau et la mine. Dans la région du #Draâ-Tafilalet, dans la commune d’Imider, la Managem exploite une mine d’#argent, un métal aujourd’hui principalement utilisé pour l’#électricité et l’#électronique, en particulier automobile. D’ailleurs, selon le Silver Institute, « les politiques nationales de plus en plus favorables aux véhicules électriques auront un impact positif net sur la demande en argent métal ». À Imider, les prélèvements d’eau croissants de la mine d’argent ont poussé les habitants à la #révolte. À partir de 2011, incapables d’irriguer leurs cultures, des habitants ont occupé le nouveau réservoir de la mine, allant jusqu’à construire un hameau de part et d’autre des conduites installées par la Managem. En 2019, les amendes et les peines d’emprisonnement ont obligé la communauté d’Imider à évacuer cette #zad du désert, mais les causes profondes du conflit perdurent.

    « Ici, on se sent comme des morts-vivants »

    Autre exemple : au Chili, le groupe Anglo American exploite la mine de cuivre d’#El_Soldado, dans la région de #Valparaiso. Les sécheresses récurrentes conjuguées à l’activité minière entraînent des #coupures_d’eau de plus en plus fréquentes. Pour le traitement du #minerai, Anglo American est autorisé à prélever 453 litres par seconde, indique Greenpeace, tandis que les 11 000 habitants de la ville voisine d’#El_Melón n’ont parfois plus d’eau au robinet. En 2020, cette #pénurie a conduit une partie de la population à occuper l’un des #forages de la mine, comme au Maroc.

    #Désalinisation d’eau de mer

    L’année suivante, les associations d’habitants ont déposé une #plainte à la Cour suprême du Chili pour exiger la protection de leur droit constitutionnel à la vie, menacé par la consommation d’eau de l’entreprise minière. Face au mouvement de #contestation national #No_más_Anglo (On ne veut plus d’Anglo), le groupe a dû investir dans une usine de désalinisation de l’eau pour alimenter une autre de ses mégamines de cuivre au Chili. Distante de 200 kilomètres, l’usine fournira 500 litres par seconde à la mine de #Los_Bronces, soit la moitié de ses besoins en eau.

    Les entreprises minières mettent souvent en avant des innovations technologiques permettant d’économiser l’eau sur des sites. Dans les faits, les prélèvements en eau de cette industrie ont augmenté de façon spectaculaire ces dernières années : l’Agence internationale de l’énergie note qu’ils ont doublé entre 2018 et 2021. Cette augmentation s’explique par la ruée sur les #métaux_critiques, notamment pour les batteries, ainsi que par le fait que les #gisements exploités sont de plus en plus pauvres. Comme l’explique l’association SystExt, composée de géologues et d’ingénieurs miniers, « la diminution des teneurs et la complexification des minerais exploités et traités conduisent à une augmentation exponentielle des quantités d’énergie et d’eau utilisées pour produire la même quantité de métal ».

    Réduire d’urgence la taille des véhicules

    En bref, il y de plus en plus de mines, des mines de plus en plus voraces en eau, et de moins en moins d’eau. Les métaux nécessaires aux batteries jouent un rôle important dans ces conflits, qu’ils aient lieu au Maroc, au Chili ou sur les plateaux andins d’Argentine ou de Bolivie où l’extraction du lithium est âprement contestée par les peuples autochtones. Comme l’écrit la politologue chilienne Bárbara Jerez, l’#électromobilité est inséparable de son « #ombre_coloniale » : la perpétuation de l’échange écologique inégal sur lequel est fondé le #capitalisme. Avec les véhicules électriques, les pays riches continuent d’accaparer les ressources des zones les plus pauvres. Surtout, au lieu de s’acquitter de leur #dette_écologique en réparant les torts que cause le #réchauffement_climatique au reste du monde, ils ne font qu’accroître cette dette.

    Entre une petite voiture de 970 kg comme la Dacia Spring et une BMW de plus de 2 tonnes, la quantité de métaux varie du simple au triple. Pour éviter, de toute urgence, que les mines ne mettent à sec des régions entières, la première chose à faire serait de diminuer la demande en métaux en réduisant la taille des véhicules. C’est ce que préconise l’ingénieur Philippe Bihouix, spécialiste des matières premières et coauteur de La ville stationnaire — Comment mettre fin à l’étalement urbain (Actes Sud, 2022) : « C’est un gâchis effroyable de devoir mobiliser l’énergie et les matériaux nécessaires à la construction et au déplacement de 1,5 ou 2 tonnes, pour in fine ne transporter la plupart du temps qu’une centaine de kilogrammes de passagers et de bagages », dit-il à Reporterre.

    « C’est un #gâchis effroyable »

    « C’est à la puissance publique de siffler la fin de partie et de revoir les règles, estime l’ingénieur. Il faudrait interdire les véhicules électriques personnels au-delà d’un certain poids, comme les #SUV. Fixer une limite, ou un malus progressif qui devient vite très prohibitif, serait un bon signal à envoyer dès maintenant. Puis, cette limite pourrait être abaissée régulièrement, au rythme de sortie des nouveaux modèles. »

    C’est loin, très loin d’être la stratégie adoptée par le gouvernement. À partir de 2024, les acheteurs de véhicules de plus de 1,6 tonne devront payer un #malus_écologique au poids. Les véhicules électriques, eux, ne sont pas concernés par la mesure.

    LES BESOINS EN MÉTAUX EN CHIFFRES

    En 2018, l’Académie des sciences constatait que le programme de véhicules électriques français repose sur « des quantités de lithium et de cobalt très élevées, qui excèdent, en fait et à technologie inchangée, les productions mondiales d’aujourd’hui, et ce pour satisfaire le seul besoin français ! » En clair : si on ne renonce pas à la voiture personnelle, il faudra, pour disposer d’une flotte tout électrique rien qu’en France, plus de cobalt et de lithium que l’on en produit actuellement dans le monde en une année.

    L’Agence internationale de l’énergie estime que la demande de lithium pour les véhicules électriques pourrait être multipliée par 14 en 25 ans, celle de cuivre par 10 et celle de cobalt par 3,5. Simon Michaux, ingénieur minier et professeur à l’Institut géologique de Finlande, a calculé récemment que si l’on devait électrifier les 1,4 milliard de voitures en circulation sur la planète, il faudrait disposer de l’équivalent de 156 fois la production mondiale actuelle de lithium, 51 fois la production de cobalt, 119 fois la production de graphite et plus de deux fois et demie la production actuelle de cuivre [3]. Quelles que soient les estimations retenues, ces volumes de métaux ne pourraient provenir du recyclage, puisqu’ils seraient nécessaires pour construire la première génération de véhicules électriques.

    https://reporterre.net/Les-voitures-electriques-assoiffent-les-pays-du-Sud
    #eau #sécheresse #extractivisme #résistance #justice #industrie_automobile #métaux_rares

    • #Scandale du « cobalt responsable » de BMW et Renault au Maroc

      Pour la fabrication des batteries de leurs véhicules électriques, BMW et Renault s’approvisionnent en cobalt au Maroc en se vantant de leur politique d’achat éthique. « Cette publicité est mensongère et indécente. L’extraction de cobalt dans la mine de Bou Azzer, au sud du Maroc, se déroule dans des conditions choquantes, au mépris des règles les plus élémentaires de sécurité, du droit du travail et de la liberté d’association », s’insurgent plusieurs responsables syndicaux et associatifs, basés en France et au Maroc.

      Pour la fabrication des batteries de leurs véhicules électriques, BMW et Renault s’affichent en champions de la mine responsable. Depuis 2020, la marque allemande s’approvisionne en cobalt au Maroc auprès de la Managem, grande entreprise minière appartenant à la famille royale. En 2022, Renault l’a imité en signant un accord avec le groupe marocain portant sur l’achat de 5000 tonnes de sulfate de cobalt par an pour alimenter sa « gigafactory » dans les Hauts de France. Forts de ces contrats, les deux constructeurs automobiles ont mené des campagnes de presse pour vanter leur politique d’achat de matières premières éthiques, BMW assurant que « l’extraction de cobalt par le groupe Managem répond aux critères de soutenabilité les plus exigeants » en matière de respect des droits humains et de l’environnement.

      Cette publicité est mensongère et indécente. L’extraction de cobalt dans la mine de Bou Azzer, au sud du Maroc, se déroule dans des conditions choquantes, au mépris des règles les plus élémentaires de sécurité, du droit du travail et de la liberté d’association. Elle est responsable de violations de droits humains, d’une pollution majeure à l’arsenic et menace les ressources en eau de la région, comme l’ont révélé l’enquête de Celia Izoard sur Reporterre et le consortium d’investigation réunissant le quotidien Süddeutsche Zeitung, les radiotélévisions allemandes NDR et WDR et le journal marocain Hawamich (2).

      Une catastrophe écologique

      Les constructeurs automobiles n’ont jamais mentionné que la mine de Bou Azzer n’est pas seulement une mine de cobalt : c’est aussi une mine d’arsenic, substance cancérigène et hautement toxique. Depuis le démarrage de la mine par les Français en 1934, les déchets miniers chargés d’arsenic ont été massivement déversés en aval des usines de traitement. Dans les oasis de cette région désertique, sur un bassin versant de plus de 40 kilomètres, les eaux et les terres agricoles sont contaminées. A chaque crue, les résidus stockés dans les bassins de la mine continuent de se déverser dans les cours d’eau.

      A Zaouit Sidi-Blal, commune de plus de 1400 habitants, cette pollution a fait disparaître toutes les cultures vivrières à l’exception des palmiers dattiers. Les représentants de la commune qui ont mené des procédures pour faire reconnaître la pollution ont été corrompus ou intimidés, si bien que la population n’a fait l’objet d’aucune compensation ou mesure de protection.

      Dans le village de Bou Azzer, à proximité immédiate du site minier, treize familles et une vingtaine d’enfants se trouvent dans une situation d’urgence sanitaire manifeste. Faute d’avoir été relogés, ils vivent à quelques centaines de mètres des bassins de déchets contenant des dizaines de milliers de tonnes d’arsenic, au milieu des émanations d’acide sulfurique, sans argent pour se soigner.

      Depuis vingt ans, la mine de Bou Azzer, exploitée en zone désertique, n’a cessé d’augmenter sa production. Le traitement des minerais consomme des centaines de millions de litres d’eau par an dans cette région durement frappée par la sécheresse. Les nappes phréatiques sont si basses que, dans certains villages voisins de la mine, l’eau doit être coupée plusieurs heures par jour. A l’évidence une telle exploitation ne peut être considérée comme « soutenable ».

      Mineurs sacrifiés

      Les conditions d’extraction à Bou Azzer sont aussi alarmantes qu’illégales. Alors que le recours à l’emploi temporaire pour les mineurs de fond est interdit au Maroc, des centaines d’employés de la mine travaillent en contrat à durée déterminée pour des entreprises de sous-traitance. Ces mineurs travaillent sans protection et ne sont même pas prévenus de l’extrême toxicité des poussières qu’ils inhalent. Les galeries de la mine s’effondrent fréquemment faute d’équipement adéquat, entraînant des décès ou des blessures graves. Les entreprises sous-traitantes ne disposent d’aucune ambulance pour évacuer les blessés, qui sont transportés en camion. Les nombreux mineurs atteints de silicose et de cancer sont licenciés et leurs maladies professionnelles ne sont pas déclarées. Arrivés à la retraite, certains survivent avec une pension de moins de 100 euros par mois et n’ont pas les moyens de soigner les maladies contractées dans les galeries de Bou Azzer.

      Enfin, si la Managem prétend « promouvoir les libertés syndicales et les droits d’association », la situation politique du Maroc aurait dû amener BMW et Renault à s’intéresser de près à l’application de ces droits humains. Il n’existe à Bou Azzer qu’un syndicat aux ordres de la direction, et pour cause ! En 2011-2012, lors de la dernière grande grève sur le site, les tentatives d’implanter une section de la Confédération des travailleurs ont été violemment réprimées. Les mineurs qui occupaient le fond et qui n’exigeaient que l’application du droit du travail ont été passés à tabac, des grévistes ont été torturés et poursuivis pour « entrave au travail », de même que les membres de l’Association marocaine pour les droits humains qui soutenaient leurs revendications.

      Comment, dans ces conditions, les firmes BMW et Renault osent-elles vanter leurs politiques d’achat de « cobalt responsable » ? Au regard ne serait-ce que des lois sur le devoir de vigilance des entreprises, elles auraient dû prendre connaissance de la situation réelle des mineurs et des riverains de Bou Azzer. Elles auraient dû tout mettre en œuvre pour faire cesser cette situation qui découle d’infractions caractérisées au droit du travail, de l’environnement et de la santé publique. Mieux encore, elles devraient renoncer à la production en masse de véhicules qui ne sauraient être ni soutenables ni écologiques. Les luxueuses BMW i7 pèsent 2,5 tonnes et sont équipées de batteries de 700 kg. La justice sociale et l’urgence écologique imposent aux constructeurs automobiles et aux dirigeants de prendre leurs responsabilités : adopter des mesures drastiques pour réduire le poids et le nombre des véhicules qui circulent sur nos routes. La « transition » pseudo-écologique portée par les pouvoirs publics et les milieux économiques ne doit pas ouvrir la voie au greenwashing le plus éhonté, condamnant travailleurs et riverains à des conditions de travail et d’environnement incompatibles avec la santé et la dignité humaines et renforçant des logiques néocoloniales.

      (1) Tous nos remerciements à Benjamin Bergnes, photographe, qui nous cède le droit de disposer de cette photo dans le cadre exclusif de cette tribune.

      Premiers signataires :

      Annie Thébaud-Mony, Association Henri-Pézerat

      Alice Mogwe, présidente de la Fédération internationale pour les droits humains

      Patrick Baudouin, président de la Ligue des droits de l’Homme

      Agnès Golfier, directrice de la Fondation Danielle-Mitterrand

      Lawryn Remaud, Attac France

      Jawad Moustakbal, Attac Maroc/CADTM Maroc

      Hamid Majdi, Jonction pour la défense des droits des travailleurs, Maroc

      Pascale Fouilly, secrétaire générale du syndicat national des mineurs CFDT, assimilés et du personnel du régime minier de sécurité sociale

      Marie Véron, coordinatrice de l’Alliance écologique et sociale (qui réunit les Amis de la Terre, Attac, la Confédération paysanne, FSU, Greenpeace France, Oxfam France et Solidaires)

      –-

      https://reporterre.net/BMW-et-Renault-impliques-dans-un-scandale-ecologique-au-Maroc

      https://reporterre.net/Mines-au-Maroc-la-sinistre-realite-du-cobalt-responsable

      https://reporterre.net/Au-Maroc-une-mine-de-cobalt-empoisonne-les-oasis

      https://www.tagesschau.de/investigativ/ndr-wdr/umweltstandards-bmw-zulieferer-kobalt-marokko-100.html

      https://www.sueddeutsche.de/projekte/artikel/wirtschaft/bou-azzer-arsen-umweltverschmutzung-e-autos-bmw-e972346

      https://www.ndr.de/der_ndr/presse/mitteilungen/NDR-WDR-SZ-Massive-Vorwuerfe-gegen-Zulieferer-von-BMW,pressemeldungndr24278.html

      https://www.br.de/nachrichten/bayern/schmutzige-kobalt-gewinnung-vorwuerfe-gegen-bmw-zulieferer,TvPhd4K

      https://www.dasding.de/newszone/bmw-zulieferer-marokko-verdacht-umwelt-arbeit-kobalt-100.html

      https://hawamich.info/7361

      https://blogs.mediapart.fr/les-invites-de-mediapart/blog/131123/scandale-du-cobalt-responsable-de-bmw-et-renault-au-maroc

    • Scandale du cobalt marocain : lancement d’une enquête sur BMW

      À la suite de l’enquête de Reporterre et de médias internationaux sur l’extraction de « cobalt responsable » au Maroc pour les voitures électriques, l’autorité fédérale allemande de contrôle a engagé une procédure contre BMW.

      La mine de cobalt de Bou Azzer, qui alimente la production de batteries de BMW et qui doit fournir Renault à partir de 2025, intoxique les travailleurs et l’environnement. À la suite de nos enquêtes sur ce scandale, l’Office fédéral allemand du contrôle de l’économie et des exportations (Bafa) a ouvert une enquête sur le constructeur automobile BMW. Le gouvernement a confirmé cette information après une question écrite du groupe parlementaire de gauche Die Linke le 25 novembre, selon le quotidien Der Spiegel.

      L’autorité de contrôle pourrait infliger des sanctions à BMW pour avoir enfreint la loi sur le devoir de vigilance des entreprises. Depuis 2020, BMW fait la promotion de son « approvisionnement responsable » au Maroc sans avoir mené d’audit dans cette mine de cobalt et d’arsenic, comme l’a révélé notre investigation menée conjointement avec le Süddeutsche Zeitung, les chaînes allemandes NDR et WDR et le média marocain Hawamich.
      Les mineurs en danger

      Privés de leurs droits syndicaux, les mineurs y travaillent dans des conditions illégales et dangereuses ; les déchets miniers ont gravement pollué les oasis du bassin de l’oued Alougoum au sud de Ouarzazate, où l’eau des puits et les terres présentent des concentrations en arsenic plus de quarante fois supérieures aux seuils.

      En vigueur depuis janvier 2023, la loi allemande sur le devoir de vigilance vise à améliorer le respect des droits humains et de l’environnement dans les chaînes d’approvisionnement mondiales. Comme dans la loi française, les grandes entreprises ont l’obligation de prévenir, d’atténuer ou de mettre fin à d’éventuelles violations.

      Mais les moyens de contrôle de l’autorité fédérale sont ridiculement insuffisants pour faire appliquer cette loi, estime Cornelia Möhring, députée et porte-parole du parti de gauche Die Linke au Bundestag, interviewée par Reporterre : « Le cas de BMW, qui se vante d’exercer sa responsabilité environnementale et sociale “au-delà de ses usines” et qui a préféré ignorer la réalité de cette extraction, est emblématique, dit-elle. Il montre que le volontariat et l’autocontrôle des entreprises n’ont aucun sens dans un monde capitaliste. Face au scandale du cobalt, le gouvernement fédéral doit maintenant faire la preuve de sa crédibilité en ne se laissant pas piétiner par l’une des plus grandes entreprises allemandes. »

      « L’autocontrôle des entreprises n’a aucun sens »

      Le propriétaire de BMW, Stefan Qandt, est le quatrième homme le plus riche d’Allemagne, souligne Cornelia Möhring. En cas d’infraction avérée au devoir de vigilance, les sanctions maximales prévues par l’autorité de contrôle allemande sont une exclusion des marchés publics pour une durée de trois ans ou une amende allant jusqu’à 2 % du chiffre d’affaires annuel du groupe (celui de BMW était de 146 milliards d’euros en 2022). Le constructeur s’est déclaré prêt à « exiger de son fournisseur des contre-mesures immédiates » pour améliorer la situation à Bou Azzer. De son côté, la députée Cornelia Möhring estime qu’« une action en justice à l’encontre de BMW pour publicité mensongère serait bienvenue ».

      Quid de Renault, qui a signé en 2022 un accord avec l’entreprise Managem pour une fourniture en cobalt à partir de 2025 pour les batteries de ses véhicules ? Il a lui aussi fait la promotion de ce « cobalt responsable » sans avoir enquêté sur place. Interrogé par Reporterre, le constructeur automobile assure qu’« un premier audit sur site mené par un organisme tiers indépendant » sera mené « très prochainement », et qu’« en cas de non-respect des normes et engagements ESG [environnementaux, sociaux et de gouvernance] du groupe, des mesures correctives seront prises pour se conformer aux normes ». Reste à savoir quelles « normes » pourraient protéger les travailleurs et l’environnement dans un gisement d’arsenic inévitablement émetteur de grands volumes de déchets toxiques.

      https://reporterre.net/Scandale-du-cobalt-marocain-l-Etat-allemand-va-enqueter-sur-BMW

  • La “geografia” della speculazione che fa il prezzo dei beni agricoli

    La guerra tra Ucraina e Russia non incide sul prezzo dei cereali, che dipende piuttosto dalla strategia dei grandi fondi che possiedono le aziende produttrici, controllano le Borse merci di tutto e scommettono sui rialzi

    Il prezzo dei cereali e in generale dei beni agricoli non dipende certo dal blocco del Mar Nero, come molto spesso si racconta, e neppure da altre circostanze troppo specifiche. La produzione mondiale di cereali, secondo le stime dell’Agenzia delle Nazioni Unite per l’alimentazione e l’agricoltura (Fao), si avvicina ai tremila milioni di tonnellate, di cui i cereali ucraini rappresentano poco più del 2%. Un’inezia rispetto al totale. Inoltre il grano ucraino si dirige in gran parte verso i Paesi limitrofi che hanno a più riprese minacciato e adottato misure protezionistiche, per evitare la concorrenza nei confronti dei propri grani. Alla luce di ciò i cereali del Mar Nero non sono certo in grado di determinare la fame in Africa né l’aumento dei prezzi.

    Considerazioni analoghe sono possibili per la produzione di patate e legumi che è, in media, vicina ai 500 milioni di tonnellate annue; considerata una popolazione mondiale di quasi otto miliardi, ciò significherebbe una disponibilità di 150 grammi per persona al giorno. Aggiungendo ai cereali, alle patate e ai legumi la produzione di tutto ciò che serve per realizzare pasti completi, tra cui sale, zucchero e semi oleaginosi, si arriva a una dotazione alimentare pro-capite di 1,5 chilogrammi al giorno. Appare chiaro allora che i prezzi non salgono perché esiste una condizione di carenza di offerta alimentare globale.

    Le difficoltà di approvvigionamento di vaste parti della popolazione del Pianeta dipendono invece da altro: dalla distribuzione profondamente diseguale delle produzioni complessive, dalla natura delle diete adottate, rispetto alle quali la carne sottrae un’enorme quantità di risorse, dalle dinamiche del commercio internazionale e soprattutto dalle modalità di determinazione dei prezzi.

    A tale riguardo occorre porsi una domanda ineludibile: da che cosa dipendono le periodiche impennate di prezzo dei generi agricoli che causano poi drammatiche crisi alimentari? Per rispondere a un simile quesito, bisogna in sintesi descrivere proprio come si formano tali prezzi. La loro determinazione avviene nelle grandi Borse merci del Pianeta, in particolare in quelle di Chicago, Parigi e Mumbai. Un primo elemento da tenere ben presente è a chi appartengono queste Borse; non si tratta infatti -a partire dal Chicago mercantile exchange (Cme)- di istituzioni “pubbliche”, ma di realtà private i cui principali azionisti sono i più grandi fondi finanziari globali. Nel caso di Chicago, i pacchetti più rilevanti sono in mano a Vanguard, BlackRock, JP Morgan, State Street Corporation e Capital International Investors.

    A questo dato se ne aggiunge un altro fondamentale. Soprattutto nelle Borse di Chicago e di Parigi la stragrande maggioranza degli operatori non è costituita da soggetti che producono e comprano realmente il grano, ma da grandi fondi finanziari e da quelli specializzati nel settore agricolo che, senza aver alcun contratto di compravendita dei beni, scommettono sull’andamento dei prezzi. In altre parole: per ogni contratto reale nelle Borse merci, i fondi finanziari operano centinaia di migliaia di scommesse che sono in grado di determinare poi i prezzi reali. Se le aspettative sono orientate all’aumento dei prezzi, scommettono al rialzo e trascinano così i prezzi a livelli insostenibili per intere popolazioni.

    All’origine dell’inflazione alimentare e della fame, si pongono quindi gli strumenti finanziari che sono prodotti dai fondi. Se prendiamo in esame chi sono questi “scommettitori”, troviamo di nuovo gli stessi soggetti (a partire da Vanguard e BlackRock) che sono, come appena ricordato, i “proprietari” delle Borse stesse. In estrema sintesi: pochissimi fondi sono azionisti del luogo dello scambio e sono i principali player di prezzo, pur non avendo nulla a che fare con la produzione e il commercio reali dei beni agricoli scambiati. Tuttavia, la finanziarizzazione di tali, vitali, processi di determinazione dei prezzi di beni essenziali per la sopravvivenza di intere comunità presenta un ulteriore elemento sconcertante.

    Come detto, nelle Borse, a fronte di tanti fondi finanziari, ci sono pochi produttori. Ma chi sono questi ultimi? Nel caso dei cereali si tratta di quattro grandi società: Archer-Daniels Midland, Bunge, Cargill e Dreyfus. Le prime due in particolare sono possedute dai grandi fondi, Vanguard, BlackRock e State Street, che sono, appunto, i medesimi operatori finanziari nelle Borse merci di Parigi e Chicago. L’intera dinamica della formazione dei prezzi agricoli, su cui incidono molto poco le retribuzioni del lavoro contadino, strutturalmente molto basse, risulta pertanto nelle mani di colossi finanziari che controllano Borse, scommesse e produzione: un gigantesco monopolio mondiale rispetto al quale ogni altra variabile, persino quella dell’offerta complessiva di beni agricoli, appare decisamente secondaria.

    È superfluo dire che con l’inflazione “impazzita” le sole società di produzione dei beni agricoli hanno distribuito oltre 30 miliardi di dollari di dividendi in meno di due anni, destinati in larga parte ai fondi finanziari che le possiedono e che hanno sommato quei miliardi ai profitti giganteschi maturati dalla finanza delle scommesse. La narrazione costruita sulle chiusure del Mar Nero c’entra davvero poco mentre sarebbe utile ricordare quanto sostenuto a più riprese dalla Fao, secondo cui per ogni punto percentuale di aumento dei prezzi dei beni agricoli si generano dieci milioni di nuovi affamati.

    https://altreconomia.it/la-geografia-della-speculazione-che-fa-il-prezzo-dei-beni-agricoli
    #spéculation #alimentation #biens_agricoles #prix #céréales #Ukraine #blé #alimentation #pénurie #viande #commerce_international #bourses #Chicago_mercantile_exchange (#Cme) #fonds_financiers #inflation #famine #faim #Vanguard #BlackRock #financiarisation #Archer-Daniels_Midland #Bunge #Cargill #Dreyfus #prix_agricoles #dividendes #Mer_Noire

  • La #pénurie de #médicaments essentiels | Le Club
    https://blogs.mediapart.fr/gresea/blog/240123/la-penurie-de-medicaments-essentiels

    En 2012, la compagnie sud-africaine lance une campagne tous azimuts pour augmenter fortement le prix de ses #anticancéreux. Elle cible l’Italie, avec des hausses allant de 300%, 400% et jusqu’à 1.500% pour certains traitements. Le pays est coincé, car certains médicaments sont indispensables et, même s’ils ne sont plus protégés par un brevet, ils n’ont quasiment pas de concurrents.

    Les autorités italiennes ne s’en laissent pas compter. Certes, elles doivent accepter ce qui apparaît nettement comme un #chantage. Mais elles enquêtent officiellement sur ce qui pourrait justifier une telle progression tarifaire. Ce qu’elles découvrent est à la fois sensationnel et révélateur.

    Ainsi, elles découvrent un message de la direction sur la manière de négocier avec les différents États : « Les prix doivent être augmentés (...). C’est à prendre ou à laisser. (...) Si les ministères de la #Santé, dans chaque pays, n’acceptent pas les nouveaux prix, on retire les médicaments de la liste des produits remboursables ou on arrête d’approvisionner. Aucune négociation possible. » [36]
    L’organisme sanitaire italien reçoit un #ultimatum dans une lettre venant de la société sud-africaine : « C’est une priorité pour Aspen d’augmenter rapidement les prix de vente (...). Si aucune décision n’est prise dans la limite de temps indiquée (...) nous procéderons rapidement (...) à la suspension de la commercialisation des produits en Italie, à partir de janvier 2014. » Andrea Pezzoli, le directeur de l’agence de santé italienne, explique que juste avant la négociation la firme fournissait moins de remèdes, arguant des problèmes de production [37]. En septembre 2016, l’entreprise est condamnée à une amende de 5 millions d’euros pour chantage.

    #pourritures