• Un effondrement de la circulation océanique atlantique pourrait entraîner des températures polaires en Europe
    https://www.lemonde.fr/planete/article/2025/06/11/un-effondrement-de-la-circulation-oceanique-atlantique-pourrait-entrainer-de


    Le fjord de Skjoldungen, sur la côte sud-est du Groenland, le 2 janvier 2025. SERGI REBOREDO / VWPICS/SIPA
    Que se passerait-il si la principale circulation océanique de l’Atlantique, qui régule le climat mondial et européen, venait à s’effondrer ? Le Vieux Continent s’en verrait chamboulé : le nord-ouest du territoire plongerait dans un froid mordant, avec des températures hivernales chutant par endroits de 15 °C, tandis que la banquise arctique viendrait lécher les côtes écossaises. Une Europe refroidie dans un monde réchauffé, comme le montre une nouvelle étude théorique et à très long terme, publiée mercredi 11 juin dans Geophysical Research Letters, et accompagnée d’une carte interactive.

    Les deux auteurs néerlandais décortiquent pour la première fois les conséquences de la conjonction de deux maux aux forces opposées : d’une part, le réchauffement climatique, lié aux émissions humaines de gaz à effet de serre ; d’autre part, une très forte réduction de la circulation méridienne de retournement de l’Atlantique (ou AMOC, son acronyme anglais), entraînant un refroidissement régional. Cet ensemble de courants dont fait partie le Gulf Stream, qui transportent de l’eau chaude salée du pôle Sud au pôle Nord, devrait ralentir, voire pourrait s’arrêter, en raison du dérèglement climatique.
    A quelle échéance et à quelle vitesse ? Les scientifiques ne sont pas d’accord sur ce point, ni sur le fait que l’AMOC aurait déjà ralenti ces dernières décennies. Selon le dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat, un effondrement brutal n’aura pas lieu avant 2100. D’autres travaux montrent que la circulation se dirigerait vers un point de bascule. « Etant donné ce potentiel, il fallait étudier les impacts climatiques liés à une AMOC substantiellement plus faible », indique René van Westen, premier auteur de l’étude et chercheur à l’Institut royal météorologique des Pays-Bas.

    https://archive.ph/Ou0pv

    #AMOC #Europe #océan #climat #Gulf_stream

    • European Temperature Extremes Under Different #AMOC Scenarios in the Community Earth System Model

      Recent simulations using the Community Earth System Model (CESM) indicate that a tipping event of the Atlantic Meridional Overturning Circulation (AMOC) would cause Europe to cool by several degrees. This AMOC tipping event was found under constant pre-industrial greenhouse gas forcing, while global warming likely limits this AMOC-induced cooling response. Here, we quantify the European temperature responses under different AMOC regimes and climate change scenarios. A strongly reduced AMOC state and intermediate global warming (C, Representative Concentration Pathway 4.5) has a profound cooling effect on Northwestern Europe with more intense cold extremes. The largest temperature responses are found during the winter months and these responses are strongly influenced by the North Atlantic sea-ice extent. Enhanced North Atlantic storm track activity under an AMOC collapse results in substantially larger day-to-day temperature fluctuations. We conclude that the (far) future European temperatures are dependent on both the AMOC strength and the emission scenario.

      https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2025GL114611
      #modèle #prévisions #scénario #froid #chaud #monde #cartographie #visualisation #Circulation_thermohaline #circulation_océanique_profonde #effondrement #températures #Gulf_Stream

    • Je retrouve ce seen de @kassem avec cette série de six articles désormais « libérés » ...
      https://seenthis.net/messages/1019811

      Les nouveaux liens :

      https://archive.ph/VJgKj

      Histoire du Gulf Stream, courant marin fameux et symbole ambigu de la fragilité des pulsations terrestres
      Enquête|« Les pulsations de la Terre » (1/6). Né dans le golfe du Mexique, le courant marin est censé jouer le rôle de trait d’union entre les continents américain et européen. En réalité, c’est un autre système de courants, menacé, qui réchauffe l’Atlantique nord.

      https://archive.ph/DG4fy

      La folle richesse du courant marin de Humboldt, à l’origine d’une pêche miraculeuse
      Enquête|« Les pulsations de la Terre » (2/6). La bande d’eau froide de 50 à 200 km de largeur qui borde la côte occidentale de l’Amérique du Sud regorge de poissons. Une ressource qui pourrait être fragilisée par le réchauffement climatique.

      https://archive.ph/VAPKl

      El Niño et La Niña, les « enfants terribles » du climat
      Enquête|« Les pulsations de la Terre » (3/6). En se combinant au réchauffement de la planète, les deux phénomènes climatiques pourraient avoir des conséquences encore plus imprévisibles et dévastatrices pour de nombreuses populations.

      https://archive.ph/PLd5m

      La mousson, un phénomène climatique en plein dérèglement
      Enquête|« Les pulsations de la Terre » (4/6). L’agriculture de l’Asie du Sud, et particulièrement de l’Inde, dépend de la manne pluviométrique apportée par la mousson. Une saison des pluies en plein dérèglement.

      https://archive.ph/qlR3G

      Canicule : les jet-streams, ces forts vents d’altitude qui pourraient favoriser les épisodes de chaleur
      Enquête|« Les pulsations de la Terre » (5/6). Les forts vents d’altitude, les courants-jets, inquiètent les spécialistes, qui s’interrogent sur l’effet de leur conjugaison avec le réchauffement climatique.

      https://archive.ph/CdhG1

      La marée, ce cycle immuable et vital qui intrigue les savants depuis l’Antiquité
      Série|« Les pulsations de la Terre » (6/6). Dès Pythéas le Massaliote en 300 avant J.-C., les scientifiques essaient d’expliquer ce phénomène de flux et de reflux de la mer. Il faudra attendre Isaac Newton, au XVIIᵉ siècle, et surtout Pierre Simon de Laplace, un siècle plus tard, pour appréhender ce jeu de relations entre la Terre, le Soleil et la Lune.

    • En revanche, dans un scénario où les émissions de gaz à effet de serre augmenteraient de manière ininterrompue, l’impact du réchauffement climatique l’emporterait sur celui de l’AMOC : l’ensemble de l’Europe se réchaufferait et les extrêmes froids s’avéreraient très rares, même en cas d’arrêt de la circulation atlantique.

      Eh bien parfait, on a déjà trouvé la solution pour contrecarrer la disparition éventuelle de l’AMOC : émettre toujours plus de GES. Pour l’instant on est sur la bonne voie étant donné la tournure des choses dans la plupart des pays.

  • Vers une imposition formalisée⠀ ?
    https://blog.merigoux.fr/fr/2019/12/20/impots-formels.html

    (...)

    Le code #M produit et publié chaque année par la #DGFiP à l’issue du vote de la #loi_fiscale va ainsi pouvoir servir de base à tout une série d’implémentations de tout ou partie du code des impôts insérées dans diverses applications. En effet, #Mlang offre la possibilité de générer à partir du code M et vers divers langages de programmation des programmes calculant une liste de variables de sorties en fonction d’une liste de variables d’entrées et de conditions spécifiques. Concrètement, si LexImpact a besoin d’une implémentation Javascript ou WebAssembly de la fonction qui calcule l’impôt de cas types en fonction des valeurs des tranches d’imposition, Mlang pourra la générer ! Dans ce cas précis, le calcul de l’impôt pourra même se faire dans le navigateur Internet et non sur un serveur.

    Une autre application intéressante serait la traduction du code M vers des langages de #simulation #macro-économique comme #TROLL ou #SAS. En effet, ces langages sont utilisés par l’#Insee afin de réaliser des modèles de l’#économie française qui ont besoin de l’expression #mathématique de l’impôt sur le #revenu. Ces #modèles pourraient donc chaque année se mettre à jour en récupérant la nouvelle version du code M compilée vers TROLL ou SAS, au lieu de devoir refléter eux aussi les changements de législation dans leur code.

    Enfin, Mlang va pouvoir améliorer notre prototype de #prouveur automatique du code des #impôts. En effet, avant de le traduire vers un #solveur #SMT, il est nécessaire de réduire la complexité mathématique de la fonction à sa substantifique moelle pour éviter de faire exploser la consommation de ressources du solveur. Le cadre du compilateur Mlang et la sémantique formelle de M nous permettent de réaliser des optimisations fiables qui vont simplifier le programme sans en changer le sens, avec ou sans conditions supplémentaires. Au delà des optimisations classiques telles que l’élimination de code mort, il est aussi prévu d’utiliser l’outil d’interprétation abstraite #MOPSA afin d’effectuer une analyse plus fine du programme. Raphaël Monat et moi espérons que, combinée à des stratégies de division de requêtes en sous-problème, cette optimisation du code M nous permette de faire passer à l’échelle notre prototype de preuve automatique de théorèmes sur le code des impôts.

    Au delà de l’aventure technique, je pense qu’il y a plusieurs leçons à retirer de cette histoire. Premièrement, c’est le libre accès à la recherche et au code qui permet aux synergies et aux initiatives inhabituelles de se développer. La DGFiP est la première administration au monde à publier ainsi son implémentation du calcul de l’impôt, et je pense que ce projet apportera rapidement à cette administration des retombées positives. Tout mon code est également publié sous licence libre, car il est important qu’un outil qui permette l’analyse fine et automatisée de la fiscalité française soit accessible à toutes et tous, et non pas réservé à un acteur privé qui l’utiliserait pour son propre profit. Deuxièmement, je pense que ce projet montre une fois de plus que l’innovation vient souvent d’un travail de recherche fondamentale mené sur le long terme. Les outils utilisés ici (comme le prouveur Z3) ont des fondements théoriques solides établis sur des dizaines d’années, et je me tiens bien sûr sur les épaules de géants. J’espère que cet exemple d’application des méthodes formelles pourra attirer l’attention sur ce domaine peu marketable en ces temps de course à « l’intelligence artificielle ». Troisièmement et pour terminer, ma volonté avec ce projet est aussi de montrer que l’innovation peut aussi profiter directement au secteur public. Je salue ainsi l’existence du programme des entrepreneurs d’intérêt général dont fait partie l’initiative #LexImpact. Un tel programme ne pourrait selon moi que gagner à se rapprocher de la recherche appliquée menée également pour l’intérêt général dans les laboratoires français. Alors que la perspective d’une carrière dans la recherche publique semble si morose pour nombre de jeunes gens très qualifiés, l’idée de pouvoir utiliser ses connaissances pour améliorer l’action de l’État me semblerait être un moteur puissant à utiliser afin d’éviter la fuite des cerveaux vers un secteur privé dont les activités, surtout dans le domaine de la tech, manquent parfois de sens.

  • L’#Italie et le transfert des migrants en #Albanie : le laboratoire et les cobayes

    Les gouvernements italien et albanais ont collaboré pour ouvrir deux centres, à #Shëngjin et à #Gjadër, destinés au #transfert_forcé, à la #détention et au #rapatriement des migrants arrivés en Italie. Ce laboratoire d’#externalisation des frontières, observé avec intérêt par d’autres pays, a un précédent : les #navires_de_quarantaine utilisés pendant la pandémie de Covid-19.

    En novembre 2023, les gouvernements italien et albanais ont signé un #accord selon lequel que les migrants et migrantes secourues par les autorités italiennes en mer Méditerranée ne sont pas conduits vers un port italien, mais en Albanie, où on a ouvert de centres de détention, d’#identification et d’#expulsion et de rapatriement. Dans les récits et les analyses, y compris les plus critiques, de la création de ces centres, on dit souvent qu’il s’agit d’un #laboratoire : avant tout, un laboratoire pour les politiques répressives et autoritaires d’Europe et d’ailleurs. On pourrait se demander laboratoire pour quoi, laboratoire pour qui, et avec le consentement de qui. Ou plutôt, on pourrait partir d’un postulat fondamental : que les laboratoires supposent généralement des cobayes.

    Le cas des centres extraterritoriaux albanais voulus par le gouvernement de Giorgia Meloni est en train de devenir un « #modèle » pour d’autres pays européens. Pourtant, ils ne sortent pas de nulle part. Ils sont eux aussi issus d’autres laboratoires. Plus précisément, d’autres tentatives d’#externalisation des frontières et de la gestion de ses migrants et demandeurs d’asile. Cependant, tout cela ne doit pas faire oublier que, tandis que les laboratoires procèdent habituellement par hypothèses potentielles, pour les personnes concernées, les mécanismes de #rétention, de #concentration et d’#exclusion sont tout sauf hypothétiques : elles les vivent en ce moment même, en cette heure.

    Du laboratoire au modèle

    En 2006, Ismaïl Kadaré avait intitulé l’un de ses derniers essais « L’identité européenne des Albanais ». On peut se demander si ce grand écrivain albanais, qui avait publié la plupart de ses œuvres sous une dictature si répressive, n’aurait jamais pu imaginer que l’Union européenne et l’Albanie seraient aujourd’hui liées par une tentative ambiguë d’externalisation de ces mêmes frontières européennes que Kadaré a vu changer au cours de sa vie.

    En octobre 2024, le gouvernement italien avait déclaré avoir achevé la construction d’un centre de détention pour migrants à Gjadër, en Albanie. Ce centre avait été ouvert en octobre dernier et était initialement destiné à accueillir des demandeurs d’asile secourus en mer et provenant de pays considérés comme « sûrs » par le gouvernement italien et l’Union Européenne. Mais les centres construits par l’Italie en Albanie n’avaient encore jamais fonctionné, car les tribunaux italiens n’ont jamais confirmé la détention des trois groupes de demandeurs d’asile qui y ont été transférés.

    Pourtant, le 11 avril 2025, alors que plusieurs centaines de migrants débarquaient à Lampedusa, une quarantaine de migrants, transférés depuis différents centres de rétention italiens, sont partis de Brindisi, dans les Pouilles, et arrivés dans le port et « #hotspot » albanais de Shëngjin, avant d’être emmenés au centre de Gjadër. Un mois plus tard, le 15 mai dernier, la Chambre des députés italienne a voté la #loi visant à transformer officiellement les centres albanais en « #centres_de_rapatriement ».

    Pour ces personnes migrantes, le passage du statut de « transféré » à celui de « détenu » a été immédiat et injustifié. Tout s’est déroulé dans l’opacité la plus totale. Selon un communiqué d’un réseau d’associations, des sources gouvernementales ont déclaré que les personnes transférées constituaient un « #danger_social » et avaient commis des délits, mais rien de tout cela n’a été prouvé. Le caractère punitif du projet albanais est donc évident. Certaines de ces personnes ont découvert qu’elles allaient être transférées en Albanie au moment même où elles sont arrivées, souvent menottées. Aucune information, aucun avertissement, aucune mesure officielle. Cela nous ramène à la dimension de modèle : comme le souligne l’Association italienne d’études juridiques sur l’immigration dans son rapport, cette affaire marque en effet un tournant dans les politiques migratoires et de gestion des frontières, ouvrant la voie à des scénarios inédits dans le contexte européen.

    Le précédent des #navires-quarantaine

    Pourtant, ce laboratoire italo-albanais n’est pas sorti de nulle part. Les pratiques d’#externalisation_des_frontières sont une caractéristique récurrente du régime actuel de gestion des migrations qualifiées d’« illégales » – et aussi, de plus en plus souvent, de « légales », comme nous le constatons par exemple aux États-Unis ces derniers mois. Un exemple parmi d’autres, ou plutôt des précurseurs : les centres de détention pour demandeurs d’asile ouverts en 2001 par le gouvernement australien sur les îles de Manus et de #Nauru. Dans le même temps, je pense qu’il est important de se pencher en priorité sur un exemple interne, européen, qui concerne à nouveau le gouvernement italien, avant même l’arrivée du gouvernement de #Giorgia_Meloni : il s’agit des navires de quarantaine mis en service pendant l’épidémie de #Covid-19.

    Le 7 avril 2020 le gouvernement italien publie un #décret dans lequel il déclare que les ports italiens ne devaient plus être considérés comme des « #POS#Place_of_safety ». Peu de jours après ce décret, en collaboration encore une fois avec la Croix-Rouge italienne, le système de navires-quarantaine a été mis en place et rapidement rendu actif, à travers de nombreuses #dérogations et #exceptions légitimées par l’#urgence_sanitaire. Le premier navire a levé l’ancre le 7 mai 2020. Immédiatement après, cinq autres grands navires sont affrétés et immédiatement mis en service.

    Exactement comme dans le cas des centres albanais, il n’y a jamais eu de communication officielle aux individus, qui n’ont même pas eu la possibilité d’un contact avec le monde extérieur. En outre, de nombreuses personnes contraintes d’embarquer sur des navires-quarantaine ont été soumises à l’obligation de quitter le territoire italien immédiatement après la fin de leur période d’isolement sur le navire en question, sans la possibilité de demander l’asile ou le regroupement familial. Les navires-quarantaine devenaient alors non seulement des centres d’expulsion externalisés et informels, mais aussi des espaces de droits suspendus : le confinement sur une base sanitaire se transformait immédiatement en un outil de gestion des frontières profondément ambigu. Ce que le gouvernement italien a pu faire sous prétexte de pandémie et de biosécurité, il tente désormais de le faire plus ouvertement à travers les centres albanais.

    Les #cobayes, c’est nous

    Les politiques migratoires sont classiquement un laboratoire d’expérimentation de pratiques et de normes à vocation autoritaire. Le cas des centres italiens en Albanie accélère ce processus. Tout cela repose avant tout sur le principe du chantage exercé sur les personnes classées comme migrants « illégaux » : désormais, tout migrant faisant l’objet d’un ordre de retour arbitraire et extrajudiciaire pourra être envoyé en Albanie et y être détenu.

    Ce qui est préoccupant dans cette dimension d’exemple ou de laboratoire, et de leur triste efficacité réelle, c’est qu’il ne s’agit ni d’une hypothèse, ni d’un projet lointain dans le temps. Pour revenir aux navires-quarantaine, il faut noter comment, pendant la pandémie, l’exemple italien a effectivement été suivi par certains : le navire #Bibby_Stockholm mis en place à l’été 2023 par le gouvernement britannique pour le confinement des demandeurs·euses d’asile, par exemple ; ou la proposition du maire de New York, Eric Adams, d’utiliser des #navires_de_croisière comme « solution créative » pour les supposées « vagues de migrants » arrivées dans la ville au cours des mois précédents. Et c’est déjà le cas pour les centres albanais. Pendant sa visite récente en Albanie, Keir Starmer, premier ministre britannique, vient de déclarer : « Nous négocions actuellement avec plusieurs pays au sujet des centres de rapatriement, que je considère comme une #innovation vraiment importante. » Il appelle ces centres « #return_hubs ».

    Face à la facilité avec laquelle ces types d’exemples répressifs sont aujourd’hui suivis et se propagent, il est nécessaire de rester vigilant et de se rappeler que, dans des situations où ces droits fondamentaux sont bafoués et où des personnes qui n’ont commis aucun crime sont soumises à des traitements inhumains et dégradants, le terme « laboratoire » s’avère alors pertinent : mais les cobayes de cette expérimentation sont nos démocraties, et nous tous et toutes.

    https://blogs.mediapart.fr/carta-academica/blog/060625/l-italie-et-le-transfert-des-migrants-en-albanie-le-laboratoire-et-l

    sur les #navi_quarantena :
    https://seenthis.net/messages/866072

    –-

    ajouté à la métaliste sur l’#accord entre #Italie et #Albanie pour la construction de #centres d’accueil (sic) et identification des migrants/#réfugiés sur le territoire albanais...

    https://seenthis.net/messages/1043873

  • Merz : Italienisches Albanien-Modell eine Option für Deutschland

    Italiens Rechtsregierung ist bislang mit dem Vorhaben gescheitert, Asylverfahren nach Albanien auszulagern. Für #Kanzler_Merz ist das Thema trotzdem nicht erledigt – trotz mehrerer Gerichtsentscheidungen gegen das italienische Albanien-Modell.

    Bundeskanzler Friedrich Merz kann sich zur Eindämmung irregulärer Migration nach Europa auch Asylverfahren in Staaten außerhalb der EU vorstellen. Mit Blick auf den einstweiligen Stopp entsprechender Pläne Italiens durch die dortige Justiz sagte der CDU-Vorsitzende bei seinem Antrittsbesuch in Rom, er kenne die Entscheidungen der Gerichte. „Aber dies kann natürlich nach wie vor eine Option sein“, fügte er nach einem Treffen mit der rechtskonservativen Ministerpräsidentin Giorgia Meloni hinzu.

    Die Koalition in Rom aus drei rechten und konservativen Parteien will Asylverfahren für im Mittelmeer aufgegriffene Migranten in Albanien abwickeln, was durch die Justiz jedoch mehrfach unterbunden wurde. Derzeit prüft der Europäische Gerichtshof, ob ein solcher Umgang mit Migranten mit europäischem Recht vereinbar ist. Die eigens errichteten Lager in dem Nicht-EU-Land Albanien stehen seit Monaten weitgehend leer. Bislang hat das Modell noch nie funktioniert.

    (#paywall)

    https://www.migazin.de/2025/05/18/merz-italienisches-albanien-modell-option
    #Italie #Allemagne #migrations #réfugiés #modèle_italien #modèle_albanais #Albanie #externalisation

    –-

    ajouté à la métaliste sur les tentatives de différentes pays européens d’#externalisation non seulement des contrôles frontaliers (https://seenthis.net/messages/731749), mais aussi de la #procédure_d'asile dans des #pays_tiers :

    https://seenthis.net/messages/900122

    • RIFIUTI ? UNA RISORSA

      Questo volume rappresenta un riassunto di carattere divulgativo di problematiche ambientali ben note e già studiate in maniera approfondita; vuole essere semplicemente uno strumento di diffusione della cultura ambientale e un aiuto, suggerimento per le Amministrazioni Locali ed i cittadini, affinché possano sensibilizzarsi ulteriormente di fronte alle problematiche sorte con la società consumistica. Questo libretto potrebbe essere uno strumento per i Comuni per realizzare incontri partecipativi estesi alla cittadinanza, in maniera tale da spingere il singolo a dare il proprio contributo nel corretto comportamento riguardo la questione dei rifiuti, generando, sul medio lungo periodo, un beneficio sulla collettività in termine di salute e di risparmio economico. Il problema ambientale è un problema che riguarda tutti, per cui la responsabilità è collettiva e non individuale; a tal proposito la politica in genere ha un ruolo determinante come motore che inneschi e regoli comportamenti virtuosi nei cittadini, che a loro volta devono prendere coscienza di trattare l’ambiente come la propria persona o la propria casa.

      https://libri.editorialedelfino.it/prodotto/rifiuti-una-risorsa

      #livre

  • Alexandra Elbakyan
    https://en.wikipedia.org/wiki/Alexandra_Elbakyan

    Alexandra Asanovna Elbakyan (Russian: Алекса́ндра Аса́новна Элбакя́н, Armenian: Ալեքսանդրա Էլբակյան,[1][2] born 6 November 1988) is a Kazakhstani computer programmer and creator of the website Sci-Hub, which provides free access to research papers without regard for copyright.[3][4][5][6] According to a study published in 2018, Sci-Hub provides access to nearly all scholarly literature.[7]

    Elbakyan has been described as “Science’s Pirate Queen”.[8] In 2016, Nature included her in their list of the top ten “people who mattered” in science.[9] Since 2011, she has been living in Russia.

    #modele_feminin
    #Sci-Hub

  • White House Proposal Could Gut Climate Modeling the World Depends On
    https://www.propublica.org/article/trump-noaa-budget-cuts-climate-change-modeling-princeton-gfdl

    According to the document, NOAA’s overall funding would be slashed by 27%, eliminating “functions of the Department that are misaligned with the President’s agenda and the expressed will of the American people” including almost all of those related to the study of #climate change. The proposal would break up and significantly defund the agency across programs, curtailing everything from ocean research to coastal management while shifting one of #NOAA’s robust satellite programs out of the agency and putting another up for commercial bidding. But its most significant target is the office of Oceanic and Atmospheric Research ⎯ a nerve center of global climate science, data collection and modeling, including the Geophysical Fluid Dynamics Laboratory [#GFDL]⎯ which would be cut by 74%. “At this funding level, OAR is eliminated as a line office,” the memo stated.

    The total loss of OAR and its crown jewel in #Princeton represents a setback for climate preparedness that experts warn the nation may never recover from.

    If we don’t understand what’s happening and why it’s happening, you can’t be adapting, you can’t be resilient. You’re just going to suffer,” Don Wuebbles, an atmospheric scientist who sits on NOAA’s scientific advisory board, told ProPublica. “We’re going to see huge impacts on infrastructure and lives lost in the U.S.

    There are other national climate #models, but they also appear to be in jeopardy of losing funding. The National Science Foundation supports the National Center for Atmospheric Research [#NCAR], but the foundation announced it was freezing all research grants on April 18. NASA’s Goddard Institute for Space Studies [#GISS] has a model, but the institute could see cuts of up to 47%. And the Department of Energy, home to a fourth climate modeling system, is also under budget pressure.

    Without the models, and all the sensor networks and supporting NOAA research programs that feed them, “We’ll go back to the technical and proficiency levels we had in the 1950s,” said Craig McLean, a 40-year veteran of NOAA who, until 2022, was the agency’s top administrator for research and its acting chief scientist. “We won’t have the tools we have today because we can’t populate them by people or by data.”

    #recherche

  • Le robot, copier-coller imparfait ? : épisode 3/4 du podcast L’imitation sans contrefaçon
    https://www.radiofrance.fr/franceculture/podcasts/avec-philosophie/le-robot-copier-coller-imparfait-7636246

    L’imitation est une première étape, mais elle ne suffit pas. L’intelligence implique la création puis l’ajustement d’un modèle mental sous-jacent, lequel est circonstancié à notre expérience subjective et notamment à notre corporéité que, par ailleurs, elle mobilise.

    -- Permalink

    #intelligenceartificielle #robots #imitation #mimétisme #connaissance #apprentissage #modèlemental #mentalmodels #conscience #incarnation #deepfakes #cognition #ACS #naccache #bestof

  • L’#IA va-t-elle nous rendre crétins ?

    Les effets du recours à l’#intelligence_artificielle sur les individus suscitent l’inquiétude d’un grand nombre de scientifiques. Ils expriment la crainte qu’elle affaiblisse la capacité de chacun à #penser par soi-même.

    En nous connectant à des contenus de piètre qualité ou en les générant à notre place, l’IA affaiblit notre #esprit_critique.

    Baisse des résultats des tests Pisa, évaluations alarmantes des #capacités_cognitives et effondrement de la #lecture. Ces jours-ci encore, ce constat du déclin de l’#intelligence des jeunes et des adultes alarme le Financial Times. L’état de tutelle des consciences par les écrans où président des IA n’est pas étranger à l’épidémie de #solitude grandissante, affectant aussi nos facultés émotionnelles et sociales. Quel est le rôle de l’IA dans tout cela ?

    L’#IA_prédictive, d’abord, optimise sans cesse nos interfaces numériques afin de nous rendre #accros. L’#économie_de_l’attention repose sur cette absorption du #temps conscient pour extraire des données et influencer les #comportements. L’ingénieur Andrej Karpathy, acteur de la Vallée du silicium, le dit sans détour : « Tiktok, c’est du crack digital qui a attaqué mon cerveau ! » L’#addiction est un fait générationnel. La moitié des adolescents aux États-Unis sont presque constamment connectés. Connectés à quoi ? La « #pourriture_cérébrale » ! Soit des contenus de piètre qualité qui détériorent les #capacités_mentales.

    D’ailleurs, l’expression a été élue mot de l’année par le dictionnaire d’Oxford. Gageons qu’elle rejoigne celle de « #crétin_digital » forgée par Michel Desmurget pour caractériser la surexposition aux écrans. L’IA générative, ensuite, crée du contenu sans #effort. Dans les années 1980, le philosophe Ellul écrivait que si « vous mettez un appareil entre les mains d’un imbécile, il ne deviendra pas intelligent pour cela ». L’actualité continue de lui donner raison. Même les consultants de McKinsey sont trompés par des résultats erronés de ChatGPT. Plus ils y recourent et moins ils sont moins performants et créatifs. Allant dans le même sens, une étude de Microsoft et de l’université Carnegie démontre que l’usage des IA génératives au travail diminue l’esprit critique.

    L’IA interactive, enfin, crée une relation avec l’utilisateur. L’université de Cambridge alerte sur l’essor de ces compagnons IA ouvrant la voie à la capture et la #manipulation de nos intentions. Ce n’est plus seulement l’#attention, mais l’#intention qui est l’objet de la machinerie algorithmique. Même les choix les plus ordinaires (quel film regarder ? quel cadeau offrir ?) sont délégués et toute faculté que l’on n’exerce plus finit par s’atrophier. Ces études ne sont pas anecdotiques, puisque le MIT a recensé pas moins de 777 #risques documentés scientifiquement de l’IA répartis en 23 catégories, dont la #dépendance_affective et la #perte_d’autonomie.

    Le « #capitalisme_numérique colonise tous les lieux que nous dés-habitons », écrit la philosophe Rouvroy. Il en est de même de nos esprits. Le temps d’écran est la continuation du temps de travail. La destruction de nos intelligences est le corollaire de la production au sein de ce #capitalisme. Pour nous maintenir dans un défilement morbide de pourriture cérébrale devant un écran, il faut d’abord nous transformer. La fainéantise d’Oblomov a remplacé le puissant Stakhanov.

    Alerte ! Après la télévision, les jeux vidéo, le rap, les réseaux sociaux numériques, voici la nouvelle innovation qui menace l’intelligence de l’humanité tout entière : l’IA. Les prophéties alarmistes réitérées à chaque nouveauté technologique, fleurissent sur la #crétinisation annoncée des masses, et encore plus sur celle d’une jeunesse déjà régulièrement qualifiée de crétine (digitale).

    Selon plusieurs études récentes, l’IA séduirait la population, fascinée par les #performances de l’outil. Beaucoup de bruit pour une banale évidence : l’absence ou la fragile #éducation – ici, au numérique – nuit gravement à l’exercice d’un esprit critique. Immense boîte noire, nourrie par d’innombrables corpus de textes et d’images, bien souvent sans le consentement de leurs auteurs, l’usage de l’IA générative nous pousse à interroger notre rapport aux #sources, à l’#information, à la #propriété_intellectuelle. Elle nous rappelle combien l’éducation est la clé d’un regard distancié et critique, d’un pouvoir d’agir informé sur le monde. Mais l’IA ne porte aucune responsabilité. Aucune.

    Ont une #responsabilité les professionnels de l’information qui jouent aux apprentis sorciers, se pâmant devant une IA « trop forte », s’émerveillant de ses #performances comme s’ils assistaient à une démonstration de magie. Ont une responsabilité ceux qui s’évertuent à pointer les « erreurs » commises par une IA, surpris qu’un programme conçu pour générer du contenu à partir de #modèles_statistiques « se trompe », et lui reprochant de nous attirer dans les limbes des approximations, méprises et autres faussetés. Dans les deux cas est alimenté le fantasme d’une IA autonome, quasi divine, que nous utilisons, impuissants.

    Prenons le temps. Ne nous jetons pas à corps et esprits perdus dans les multiples potentialités et/ou affres de l’IA. Le procès en crétinisme évite le vrai procès, citoyen celui-ci : de quelle IA voulons-nous ? De celle qui récupère des données que nous cédons sur le Web à des industries sans éthique ? De celle qui, à l’empreinte écologique colossale, condamne un peu plus (vite) l’avenir de notre planète ? De celle à laquelle nous déléguons jusqu’à notre créativité singulière au profit de l’hégémonie d’un savoir standardisé, aseptisé et parfois, pour ne pas dire bien souvent, biaisé ? De celle que l’on utilise pour contribuer à cette accélération dénoncée par Hartmut Rosa qui nous asservit chaque jour davantage aux dogmes les plus avilissants qui soient ?

    Prenons le temps. Celui de mesurer des choix, vertigineux mais aussi passionnants, qui nous reviennent. Celui de prendre nos responsabilités, individuelles et collectives, en décidant de la place que nous souhaitons accorder à une #innovation qui n’est en aucun cas toute-puissante. Celui de faire société, en exerçant notre capacité à « penser d’après nous-mêmes » selon l’intemporelle pensée de Condorcet. L’IA n’a ni cerveau ni valeurs. Nous si. À nous de jouer. Sérieusement.

    https://www.humanite.fr/en-debat/citoyennete/lia-va-t-elle-nous-rendre-cretins

    via @freakonometrics

  • La #France va-t-elle manquer d’#eau ?

    Face aux nombreuses inconnues qui entourent l’évolution des #précipitations dans les décennies à venir, cinquante scientifiques ont décidé de multiplier les simulations hydrologiques. Une certitude : il y aura moins d’eau l’été.

    Zoomer sur la carte de France pour choisir une rivière et regarder l’évolution de son débit dans cinquante ans sous l’effet du réchauffement climatique. Le Gers, par exemple, qui coule à Layrac. Les #cartes_Méandre dessinent quatre #scénarios possibles pour cette rivière, du plus optimiste, avec une diminution du débit de 10 % par rapport au niveau actuel, au pire, avec une baisse de plus d’un tiers.

    Cette impressionnante visualisation, disponible pour 4 000 points d’eau répartis sur tout le territoire, est le résultat du projet Explore2, piloté par l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae) et l’Office international de l’eau (OiEau). Entre 2021 et 2024, une équipe de cinquante scientifiques a travaillé à mettre à jour les projections hydroclimatiques françaises pour anticiper les évolutions futures.

    L’observation des #cours_d’eau préservés des activités humaines annonce déjà les tendances. Une autre #carte_interactive, qui a reçu fin novembre le prix Science ouverte des données de la recherche pour son interface de visualisation proposée au public, dessine une France de l’eau coupée en deux.

    Dans la moitié sud, l’eau a manifestement diminué depuis le milieu du XXe siècle. « Il y a une baisse de l’ordre d’un tiers de la ressource en eau sur une très grande moitié sud de la France pendant les cinquante dernières années », précise Jean-Philippe Vidal, hydroclimatologue à l’Inrae. Mais dans la moitié nord, les hydrologues peinent à identifier des tendances claires depuis le début des mesures, en 1968.

    Ce contraste se retrouve dans les projections. Autour de la Méditerranée, celles du climat sont formelles : il y aura moins d’eau d’ici la fin du siècle. Mais dès qu’on remonte un peu au nord, les modélisations donnent des résultats divergents. « Pour la plupart des régions au nord de la Loire, il n’y a pas de signal clair : on ne sait pas si elles seront plus ou au contraire moins arrosées dans les décennies à venir », indique Jean-Philippe Vidal.

    De fait, si les modèles de climat convergent sur l’élévation des températures sous l’effet de l’augmentation des gaz à effet de serre, ils ne s’accordent pas sur l’évolution des précipitations. Pour s’en convaincre, il suffit de regarder la carte du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) concernant les projections des précipitations à la fin du siècle en France : la majorité de nos régions est grisée – autrement dit sans résultats – parce que les modèles livrent des simulations trop divergentes pour en tirer des conclusions.
    La pluie, difficile à modéliser

    Les projections du climat futur reposent en effet sur une modélisation du système climatique global croisée avec des modèles climatiques régionaux pour représenter plus finement le climat localement. Mais une bonne partie de la France se trouve dans une zone d’incertitude, entre le nord de l’Europe qui sera plus arrosé et le sud de celle-ci qui sera plus sec. « Certains modèles mettent la zone de transition au sud de l’Angleterre, d’autres au milieu de la France », détaille Jean-Philippe Vidal, une des chevilles ouvrières d’Explore2. En bref, selon le climat régional choisi, les tendances s’inversent.

    Autre obstacle, la pluie est plus difficile à extrapoler que la température : « La pluie est un phénomène du tout ou rien : il pleut ou il ne pleut pas. Ce processus non linéaire est différent de celui de la température, qui varie plus progressivement. Une température à un moment donné dépend de celle une heure avant. »

    Traduire la pluie en quantité d’eau à la surface terrestre n’est pas non plus une sinécure. « Pour Explore2, on a travaillé avec des modèles hydrologiques différents pour essayer d’avoir une vue d’ensemble sans rater des possibles. Certains transforment assez simplement une précipitation en un débit. D’autres représentent tous les processus physiques tels que le captage des pluies par la végétation, l’infiltration dans le sol, l’évaporation… », explique Jean-Philippe Vidal.

    Dernière difficulté à surmonter : l’étape de validation des modèles. En temps normal, les scientifiques testent les résultats de leurs modélisations avec des mesures réelles pour s’assurer de leur validité. Ici, cela implique d’avoir accès à des mesures de débit ou de hauteur de nappe qui ne soient influencées que par les variations climatiques, ce qui n’est évidemment pas simple tellement pompages, barrages, drainages, urbanisation et autres artificialisations modifient largement les niveaux d’eau. Les chercheurs ont néanmoins identifié 600 stations préservées parmi les 4 000 pour valider leurs modèles.
    « Commencer à se préparer »

    Une fois toutes ces précautions prises, l’équipe d’Explore2 a multiplié les projections. À partir d’une quinzaine de modèles de climat mondiaux ou focalisés sur l’Europe, faisant consensus à l’échelle de la communauté scientifique, elle a obtenu un champ des possibles des tendances de précipitations. Informations ensuite rentrées dans neuf modèles hydrologiques pour transformer les données sur les pluies en informations sur le niveau des nappes et le débit des cours d’eau. En définitive, les chercheurs et chercheuses se retrouvent avec quelque 200 projections...

    « La simulation par de nombreux modèles différents augmente la confiance sur certains résultats », explique Agnès Ducharne, climatologue au CNRS, qui a également participé à Explore2. Plus une même projection va se répéter, plus elle a de chances d’être juste, selon les statisticien·nes du climat. « Cette approche multimodèle fait largement consensus, renchérit Ludovic Oudin, hydrologue à Sorbonne-Université, qui n’a pas participé au projet. Toutes ces simulations, en permettant de regarder comment les modèles divergent, donnent une bonne idée de l’incertitude. »

    Ensuite, il a fallu justement représenter l’incertitude puisque, selon les modèles climatiques utilisés, les débits annuels moyens augmentent ou baissent. Jean-Philippe Vidal explique le choix de distinguer quatre horizons possibles à la fin du siècle « pour dégager des futurs auxquels on pourrait être confrontés et pour lesquels il faut commencer à se préparer ». Pour ne pas se limiter à des moyennes, au risque d’amoindrir les évolutions, les scientifiques ont aussi voulu tenir compte des extrêmes.

    Autre parti pris dans la présentation finale des résultats : celui de se limiter à un seul scénario d’émission de gaz à effet de serre du Giec, le RCP 8.5, qui table sur la poursuite du niveau actuel d’émissions dans les décennies à venir. Deux autres scénarios plus optimistes avaient été explorés. Mais le manque d’ambition des politiques climatiques laisse penser que le scénario RGP 8.5, qualifié autrefois de pessimiste, est aujourd’hui une hypothèse réaliste de travail... Qui cadre d’ailleurs avec la demande du gouvernement français de se préparer à une augmentation de 4 °C à la fin du siècle.

    Les quatre scénarios, représentés sur une carte intégrative accessible au grand public, ont chacun autant de chances d’advenir. Ils cachent par contre d’autres futurs possibles, puisque les incertitudes caractérisées dans le projet sont uniquement celles considérées aujourd’hui. Le dépassement de « points de bascule » par exemple pourrait conduire à d’autres évolutions inattendues, soulignent les chercheurs et chercheuses.

    Finalement, Explore2 confirme la baisse des précipitations en été sur toute la France. Une autre tendance se dessine fortement : la hausse des précipitations en hiver sur la moitié nord. « Nos conclusions montrent aussi pour la première fois l’intensification dans tout l’Hexagone des extrêmes hydrologiques, sécheresses et pluies intenses. Des résultats avec des implications importantes pour les gestionnaires de l’eau, dont la tâche va être plus difficile », souligne Agnès Ducharne.

    Un autre signal est très clair : il y aura de moins en moins d’eau l’été dans les rivières. Mais pour le reste… difficile d’en tirer des conclusions. Les débits annuels moyens augmentent ou baissent selon les projections, tout comme les niveaux des nappes.

    « Nos résultats scientifiques, avec un gros effort mis sur la qualité et la lisibilité des données livrées, sont nécessaires pour que les acteurs de l’eau enclenchent des actions d’adaptation. De nombreux acteurs de l’eau se saisissent déjà de nos travaux », se réjouit Jean-Philippe Vidal, qui insiste : « Les quatre futurs envisagés demandent tous d’une manière ou d’une autre de revoir nos choix de société sur la demande en eau tout en assurant les besoins des milieux aquatiques. »

    Et le chercheur d’espérer que chacun·e en tire les enseignements nécessaires en regardant le scénario qui affectera le plus son activité : que les gestionnaires de crues se préparent dès maintenant au scénario le plus arrosé et les agriculteurs et agricultrices au scénario le plus sec.

    https://www.mediapart.fr/journal/ecologie/220225/la-france-va-t-elle-manquer-d-eau

    #pénurie #pénurie_d'eau #pluie #modélisation

    ping @reka

  • #Guide de l’étudiant pour ne pas écrire avec #ChatGPT

    OpenAI a publié un « Guide de l’étudiant pour écrire avec ChatGPT » (https://openai.com/chatgpt/use-cases/student-writing-guide). Dans ce billet, je passe en revue leurs #conseils et je propose quelques contre-#arguments, d’un point de vue d’enseignant-chercheur. Après avoir abordé chacune des 12 suggestions d’OpenAI, je conclus en évoquant rapidement les aspects éthiques, cognitifs et environnementaux que tout étudiant devrait considérer avant de décider d’utiliser ou non ChatGPT. J’ajoute quelques commentaires en fin de billet au fil des retours critiques. (Version anglaise : A Student’s Guide to Not Writing with ChatGPT)

    « Déléguez la mise en forme des #citations à ChatGPT. L’IA excelle dans l’automatisation des tâches fastidieuses et chronophages telles que la présentation des citations. N’oubliez cependant pas de vérifier l’exactitude de vos bibliographies par rapport aux documents source. »

    Cette dernière phrase est probablement là pour des raisons juridiques, parce qu’ils savent qu’ils ne peuvent pas dire que ChatGPT produira systématiquement des résultats exacts. En effet, mettre en forme des citations et des #bibliographies consiste à présenter des métadonnées conformément à des règles formelles (les #styles_bibliographiques). On n’est pas ici dans le domaine du langage naturel. ChatGPT fera des #erreurs, qui prendront du temps à trouver et à corriger. Alors utilisez plutôt un logiciel de gestion bibliographique, tel que #Zotero. Il s’occupera de vos citations et bibliographies de manière fiable, parce qu’il est programmé pour. Il vous suffit de nettoyer les métadonnées des références au fur et à mesure que vous les collectez, et vos bibliographies ne contiendront jamais d’erreurs.

    –-

    « 2. Informez-vous rapidement sur un nouveau sujet. ChatGPT peut vous aider à démarrer vos recherches en vous permettant d’acquérir un #socle_de_connaissances sur un sujet. »

    ChatGPT est un simulateur de conversation humaine, et non un système d’information ou une base de connaissances. L’#information, ça se trouve dans des cerveaux, des documents et des bases de données. ChatGPT n’est pas doté de capacité de #compréhension : il ne fait que produire des réponses plausibles en tant que réponses, sans comprendre rien à rien. Il ne peut donc pas vous informer de manière fiable. Ne demandez pas à un intermédiaire qui n’a pas la capacité de comprendre une information de vous l’expliquer : à la place, faites un tour dans la #bibliothèque universitaire la plus proche et cherchez vous-même l’information, avec l’aide des bibliothécaires et des documentalistes.

    –-> J’ai tendance à conseiller de solliciter les enseignants, bibliothécaires et co-étudiants. Mais comme me le suggère Adrien Foucart sur Mastodon, peut-être que vous préférez apprendre par vous-même. Dans ce cas, le plus important est de développer vos compétences en recherche d’information. Selon moi, la référence reste le tutoriel CERISE (Conseils aux Etudiants en Recherche d’InformationS Efficace : https://callisto-formation.fr/course/view.php?id=263), que vous pouvez suivre de manière entièrement autonome.

    –-

    « 3. Demandez une feuille de route pour trouver des #sources pertinentes. ChatGPT peut guider votre recherche en vous suggérant des chercheurs, des sources et des termes de recherche pertinents. Mais n’oubliez pas : bien qu’il puisse vous orienter dans la bonne direction, ChatGPT ne remplace pas la lecture de #sources_primaires et d’articles évalués par des pairs. Et comme les #modèles_de_langage peuvent générer des informations inexactes, vérifiez toujours vos faits. »

    (Ce point est encore plus litigieux que le point 1, donc OpenAI nous gratifie de deux phrases complètes qui sont probablement là pour des raisons juridiques.) Parce que ChatGPT n’a pas de capacité de compréhension, il ne sait pas ce que sont des choses comme « une source » ou « une affirmation vraie ». Vous ne pouvez donc pas vous fier à ses indications. Vous perdrez du temps et ferez des erreurs. Encore une fois, demandez à un humain ou faites une recherche de documents et de données dans un vrai système d’information.

    –-

    « 4. Approfondissez votre compréhension en posant des questions précises à ChatGPT. »

    Parce que ChatGPT n’a pas de capacité de #compréhension, il ne connaît pas les réponses réelles à vos questions, seulement des réponses plausibles. Il génèrera des réponses vraies et fausses sans distinction. Cela retardera votre apprentissage. Encore une fois, passez par des humains, des documents et des données directement au lieu de demander à ChatGPT.

    –-

    « 5. Améliorez votre #écriture en demandant à ChatGPT comment il trouve votre structure. »

    Parce que ChatGPT n’a pas de capacité de compréhension, il ne comprend pas ce qu’est une structure de texte « attendue » ou « améliorée », même si vous lui décrivez. Il ne peut que rehausser la qualité de votre texte à ce qu’il pense être un niveau moyen, ou l’abaisser à ce même niveau. Dans les deux cas, vous obtiendrez des notes médiocres. Pour progresser réellement dans votre écriture, demandez conseil à un professeur ou joignez un groupe d’étudiants qui s’entraident là-dessus  ; si un tel groupe n’existe pas, réunissez quelques personnes et créez-le – ce sera une expérience utile en soi.

    –-

    « 6. Vérifiez votre raisonnement en demandant à ChatGPT de transformer votre texte en liste à puces. »

    Comme l’a récemment montré une étude australienne (https://pivot-to-ai.com/2024/09/04/dont-use-ai-to-summarize-documents-its-worse-than-humans-in-every-way), ChatGPT ne sait pas #résumer, seulement #raccourcir. À l’heure actuelle, savoir résumer reste un savoir-faire humain. Un #savoir-faire que vous pouvez acquérir en suivant un cours de #résumé dans un cursus en sciences de l’information, un programme de formation continue, un cours en ligne, etc. (Je suis plutôt partisan de faire les choses dans l’autre sens mais plusieurs collègues me disent que sur le fond cette méthode du reverse outlining leur est très utile et qu’ils la conseillent à des étudiants.)

    –-

    « 7. Développez vos idées à travers un dialogue socratique avec ChatGPT. »

    Enfin un conseil qui est lié à la fonction réelle de ChatGPT : simuler la communication humaine. Cependant, le #dialogue_socratique implique que vous conversez avec quelqu’un qui a une compréhension supérieure du sujet et qui vous amène progressivement au même niveau. Malheureusement, ChatGPT n’est pas Socrate. Utiliser ChatGPT comme partenaire d’entraînement vous restreindra à son niveau : celui d’une machine qui produit des phrases humaines plausibles. Proposez plutôt cet exercice à vos professeurs et à vos camarades, et mettez-vous avec quelqu’un de plus avancé que vous pour progresser.

    –-

    « 8. Mettez vos idées à l’épreuve en demandant à ChatGPT des #contre-arguments. »

    Pour améliorer votre capacité de #réflexion, vous devez être capable de trouver des contre-arguments, pas seulement d’y répondre. Utiliser ChatGPT pour faire la moitié du travail vous empêchera de progresser. Trouvez vous-même des contre-arguments. Et si vous avez besoin d’aide, ne demandez pas à ChatGPT : il ne peut produire que des arguments moyens, ce qui vous fera rapidement stagner. Faites plutôt appel à quelqu’un qui sait imaginer des arguments solides qui vous obligeront à réfléchir.

    –-

    « 9. Comparez vos idées à celles des plus grands penseurs de l’histoire. »

    ChatGPT peut vous divertir en créant de toutes pièces une pièce de théâtre entre philosophes, mais il n’a pas la capacité de concevoir un exercice aussi complexe de manière à ce que vous puissiez en tirer des enseignements. Suggérez plutôt cette idée à un enseignant, dont c’est le métier.

    –-

    « 10. Améliorez votre écriture en demandant à ChatGPT de vous faire des retours successifs. »

    Il s’agit d’une variante du point 5 sur le fait de solliciter des #avis. Une fois encore, utiliser ChatGPT limitera votre niveau à ce qu’une machine pense être le niveau de l’humain moyen. Faites plutôt appel à vos professeurs, organisez des sessions d’évaluation par les pairs avec vos camarades, et faites en sorte que ces sessions soient itératives si nécessaire.

    –-

    « 11. Utilisez la fonctionnalité #Mode_vocal_avancé de ChatGPT pour en faire un compagnon de #lecture. »

    (« Mode vocal avancé » signifie que ChatGPT vous écoute lire quelque chose à haute voix et tente de répondre à vos questions sur ce que vous venez de lire). Il s’agit d’une variante des points 2-4 concernant le fait de s’informer. ChatGPT n’a pas de capacité de compréhension. Il ne fournira donc pas d’interprétations fiables de ce que vous lisez. À la place, cherchez d’abord la définition des mots que vous ne connaissez pas dans des dictionnaires  ; cherchez des analyses rédigées par des humains pour y trouver des interprétations qui vous aideraient à comprendre ce que vous lisez  ; demandez leur avis à d’autres étudiants travaillant sur le même texte.

    –-

    « 12. Ne vous contentez pas de répéter ce que vous avez déjà fait – améliorez vos compétences. […] Demandez à ChatGPT de vous suggérer des moyens de développer votre capacité à penser de manière critique et à écrire clairement. »

    ChatGPT n’a pas de capacité de compréhension, donc la signification d’expressions comme « pensée critique » et « techniques d’écriture » lui échappent. Prenez ces expressions et entrez-les dans le moteur de recherche du catalogue de la bibliothèque de votre université  ; si vous préférez, demandez conseil à un bibliothécaire. Lisez ce que vous trouvez, et demandez à vos professeurs ce qu’ils en pensent. Pour le reste, rien ne vaut l’entraînement : comme disent les anglophones, practice, practice, practice.

    –-

    Quelques mots de conclusion

    ChatGPT est conçu pour simuler un partenaire de conversation humain. Il s’appuie sur un modèle probabiliste du langage (quel mot est le plus susceptible d’arriver après tel mot) et communique pour communiquer, pour créer l’illusion de la conversation. Il bavarde, tchatche, blablate, indifférent à la signification de ce qu’il dit, indifférent à la vérité. Tout ça est très divertissant mais une attraction de fête foraine n’est pas un outil d’apprentissage fiable, et je pense donc que les étudiants devraient s’en méfier.

    Lorsque des étudiants me posent des questions sur ChatGPT, je mentionne les trois problèmes suivants :

    #éthique : la plupart des modèles de langue ont été construits à partir de données volées  ;
    - #cognition : l’utilisation d’outils comme ChatGPT rend plus dépendant des outils et moins autonome intellectuellement, ainsi que des études ont commencé à le montrer (en voici une réalisée en France)  ;
    #environnement : les coûts énergétiques de l’IA générative sont supérieurs d’un ordre de grandeur à ceux des outils préexistants (et elle n’est même pas rentable, donc on brûle du carburant pour rien).

    C’est généralement suffisant pour faire réfléchir la plupart de mes étudiants. Ce sont des jeunes gens créatifs, ils ont donc de l’empathie pour les créateurs qui ont été spoliés. Pour progresser et obtenir leur diplôme, ils veulent des outils qui leur font gagner du temps, pas des gadgets qui les rendent moins autonomes intellectuellement. Ils sont frappés d’apprendre que ChatGPT consomme dix fois plus d’énergie que Google pour répondre à la même question, généralement en pire (mais Google est en train de rattraper ChatGPT vers le bas).

    La bonne nouvelle, c’est que comme le dit le blogueur Jared White :

    « Vous pouvez littéralement ne pas l’utiliser. […] vous pouvez être un technicien expert et un créateur épanoui, au fait de son époque, très connecté, et rester complètement à l’écart de ce cycle de hype. »

    Si vous avez besoin de plus d’informations sur ce sujet, je vous recommande vivement de consulter le site Need To Know de Baldur Bjarnason (https://needtoknow.fyi). Il s’agit d’une synthèse accessible d’un état de l’art très fouillé sur les risques liés à l’utilisation de l’IA générative. C’est un excellent point de départ. (Et si vous connaissez des ressources similaires en français, je suis preneur.)
    Quelques commentaires supplémentaires
    Suite à la publication de ce billet, j’ai reçu par mail une critique de mon point de vue sur ChatGPT, en particulier l’idée qu’il n’a pas de capacité de compréhension. Je partage ma réponse ci-dessous. Il se peut que d’autres commentaires s’ajoutent ainsi au fil du temps.

    L’idée que ChatGPT n’a pas de capacité de compréhension est discutable. Tout dépend de la définition que l’on donne à « compréhension ». Marcello Vitali-Rosati soutient que le sens n’est pas une prérogative humaine, que les humains ont une forme d’intelligence et que l’IA en a une autre – tout dépend de la façon dont nous définissons les différentes formes d’intelligence. Il évoque le fait que ChatGPT sait faire des choses que les machines ne pouvaient pas faire auparavant mais qu’il échoue à faire d’autres choses que des systèmes plus simples savent faire depuis longtemps. Il serait donc plus juste de dire que ChatGPT possède une forme d’intelligence qui lui est propre, et qui est adaptée à certaines tâches mais pas à d’autres. Marcello mentionne par exemple que ChatGPT peut créer des discours politiques convaincants mais qu’il n’est pas capable de donner la liste des écrits d’un auteur de manière fiable.

    Je suis d’accord avec tout cela. Ça m’amène à préciser un peu les choses : ChatGPT comprend clairement comment communiquer. La manière dont il arrive à cette compréhension est une forme d’intelligence. Le problème, c’est que cette compréhension n’est pas celle qui compte dans un contexte d’apprentissage, de mon point de vue d’enseignant. Comprendre comment communiquer est différent de comprendre une information. C’est fondamental à mes yeux. Et c’est là, à mon avis, que le débat peut véritablement se situer. Quand on fait des études de commerce, ChatGPT est sans doute un outil intéressant pour travailler sur le marketing (même si je pense qu’il vaut mieux y réfléchir soigneusement, du fait des questions éthiques et environnementales). Mais en dehors des domaines dont le matériau principal est le bullshit (tout jugement de valeur mis à part), son utilité est moins évidente.

    Les tâches mentionnées dans le « guide » d’OpenAI font partie de celles où ChatGPT échoue à donner des résultats fiables. ChatGPT n’est pas un système d’information : qu’il passe d’une exactitude de 90 % à 99 %, voire à 99,99 %, ça ne change rien au fait que le risque d’erreur est présent du fait de la nature même de l’outil. On peut légitimement ne pas vouloir prendre ce risque. Quant aux compétences, je crois que les seules personnes qui trouvent ChatGPT bluffant sont celles qui sont moins bonnes que lui dans l’exécution des tâches qui lui sont confiées. Regardons les choses en face : ChatGPT est aussi nul que l’humain moyen. Si on s’appuie sur cet outil pour progresser, tout ce qu’on peut faire c’est plafonner dans le moyen.

    –-

    15/11 – Ce billet sur ChatGPT m’a valu une réponse… générée par ChatGPT ! Sur LinkedIn, Francesc Pujol propose une « critique de ma critique », qu’il explique avoir générée via ChatGPT. Je n’ai pas été convaincu par ce qui ressemble beaucoup à une série de vagues déclarations un peu incantatoires sur la valeur supposée de l’outil. À la fin du texte, l’auteur (humain ou machine ?) dit que mon propos illustre une position « réactionnaire » et « déséquilibrée », et suggère que les gens comme moi pensent que les étudiants n’ont pas envie d’apprendre et les profs pas envie d’enseigner. Charmant !

    Pujol ajoute qu’il va faire lire mes objections à OpenAI et sa « critique de ma critique » par quelques personnes, sans leur dire qui a écrit quoi, pour voir qui de moi ou de ChatGPT produit le plus de déclarations un peu vagues… Là aussi, je ne suis pas convaincu. Mes arguments reposent sur une lecture de la littérature critique sur l’IA générative. Dans mon billet, je renvoie notamment à l’état de l’art réalisé par Baldur Bjarnason et son ouvrage The Intelligence Illusion. Escamoter cela, demander aux gens d’évaluer une série de phrases sans contexte, c’est traiter ce qui devrait être une discussion basée sur des faits comme une dégustation à l’aveugle chez un caviste. Ça me semble particulièrement problématique quand le débat porte précisément sur l’information, les sources, les connaissances vérifiables. Je comprends qu’en tant que partisan de l’utilisation de l’IA dans l’enseignement supérieur on ressente le besoin de défendre ses choix. Encore faudrait-il traiter ses opposants avec un minimum de respect et de sérieux intellectuel.

    –-

    17/11 – Deux jours après la publication de ce billet, Marcello a publié « La créativité des LLM » sur son blog. Il y explique le concept de température, qui est une définition formelle de la créativité mise en œuvre par un outil comme ChatGPT. La fin du billet aide à bien cerner sa position dans un débat qui est de nature épistémologique :

    « Ne me faites pas le petit jeu consistant à dire : “mais non, la créativité est plus que ça !” Si vous n’êtes pas capables de définir formellement ce plus, alors cela veut tout simplement dire que vos idées ne sont pas claires. »

    Pour moi les programmes comme ChatGPT ne sont pas informatifs, en tout cas pas de manière suffisamment fiable dans un contexte éducatif : ils comprennent ce qu’est communiquer, pas informer. Par contre, ils relèvent bien du domaine créatif. Si on n’est pas dans un contexte où la fiabilité de l’information est importante, et que par ailleurs on apporte des réponses aux enjeux d’éthique et de coût énergétique, alors je ne m’oppose pas du tout à l’usage créatif des #LLM.

    https://www.arthurperret.fr/blog/2024-11-15-guide-etudiant-ne-pas-ecrire-avec-chatgpt.html

    #enseignement #AI #IA #intelligence #ESR #université

    –-
    signalé aussi par @monolecte :
    https://seenthis.net/messages/1082701

  • UK to refuse citizenship to refugees who have ‘made a dangerous journey’

    Home Office accused of shutting out thousands, as new guidance says those applicants will ‘normally be refused’

    The Home Office has been accused of quietly blocking thousands of refugees from applying for citizenship if they arrived in the UK by small boats or hidden in vehicles.

    Guidance for staff assessing people who have applied for naturalisation says that, since Monday, applicants who have “made a dangerous journey will normally be refused citizenship”.

    The Refugee Council said that the move will potentially bar 71,000 people who have successfully applied for asylum from claiming UK citizenship. A leading immigration barrister has claimed that it is a breach of international law.

    The development will be seen as the latest evidence that Keir Starmer’s government has adopted a hardline “hostile environment” stance on asylum to fight off a poll surge by Nigel Farage’s Reform UK.

    Senior Tories claim that the government’s new border security bill, which passed its second reading on Monday, will repeal parts of the Illegal Migration Act, which would stop irregular arrivals from becoming British citizens.

    One Labour MP has joined charities in calling for the government to reverse the guidance with immediate effect.

    Stella Creasy, the Labour MP for Walthamstow, wrote on X: “This should be changed asap. If we give someone refugee status, it can’t be right to then refuse them [a] route to become a British citizen.”

    The changes, first disclosed by the Free Movement blog, were introduced to guidance for visa and immigration staff on Monday.

    Described as a “clarification” to case worker guidance when assessing if a claimant is of “good character’, it says: “Any person applying for citizenship from 10 February 2025, who previously entered the UK illegally will normally be refused, regardless of the time that has passed since the illegal entry took place.”

    In another new entry to the same guidance, it says: “A person who applies for citizenship from 10 February 2025 who has previously arrived without a required valid entry clearance or electronic travel authorisation, having made a dangerous journey will normally be refused citizenship.

    “A dangerous journey includes, but is not limited to, travelling by small boat or concealed in a vehicle or other conveyance.”

    Most people who enter the UK on small boats are eventually granted refugee status. A majority of those granted refugee status eventually claim British citizenship. Seeking UK citizenship costs £1,630 an application, and there is no right of appeal against a refusal.

    Colin Yeo, an immigration barrister and editor of the blog, wrote on Bluesky: “This is bad, full stop. It creates a class of person who are forever excluded from civic life no matter how long they live here. It’s also a clear breach of the refugee convention.”

    Article 31 of the UN refugee convention says: “The contracting states shall not impose penalties, on account of their illegal entry or presence, on refugees.”

    Enver Solomon, the chief executive of the Refugee Council, said the move “flies in the face of reason. The British public want refugees who have been given safety in our country to integrate into and contribute to their new communities.

    “So many refugees over many generations have become proud hard-working British citizens as doctors, entrepreneurs and other professionals. Becoming a British citizen has helped them give back to their communities and this should be celebrated, not prevented.”

    The Home Office was accused on Monday of “enabling the mainstreaming of racism” after releasing footage for the first time showing people being removed from the UK.

    The government believes its record on migration could help retain Labour voters tempted by Farage’s party. On Sunday, it released footage of immigration raids for illegal workers, prompting the MP Diane Abbott to say: “Trying to present ourselves as Reform-lite is a big mistake.”

    Home office insiders said the guidance rules were tightened so that the government would replace the ban that was imposed by the cancelled Illegal Migration Act.

    The IMA disqualified refugees who arrived in the UK by irregular means from claiming UK citizenship.

    A Home Office spokesperson said: “There are already rules that can prevent those arriving illegally from gaining citizenship.

    “This guidance further strengthens measures to make it clear that anyone who enters the UK illegally, including small boat arrivals, faces having a British citizenship application refused.”

    https://www.theguardian.com/politics/2025/feb/11/uk-home-office-citizenship-refugees-dangerous-journey
    #UK #Angleterre #migrations #asile #réfugiés #danger #citoyenneté #naturalisation #voyage_périlleux #voyage_dangereux #Illegal_Migration_Act #good_character #entrée_illégale #bateau

    –—

    Cela rappelle le #modèle_australien tel que décrit dans ce livre :

    Refugees : Why Seeking Asylum is Legal and Australia’s Policies are Not

    et explicité ici :

    Asylum seekers who arrive with a valid visa of some kind, and then apply for refugee status, go through the process described above. They are interviewed by an Immigration Department official and can apply for merits review by the RRT and for judicial review by the courts. Asylum seekers who arrive by boat are not allowed to lodge a valid application for a protection visa.

    (p.45)

  • La responsabilità dell’Australia per la detenzione arbitraria sull’isola di #Nauru

    Con due accordi firmati oltre dieci anni fa con la Repubblica di Nauru, Canberra -spesso presa a “modello” dai governi europei- ha stabilito che le domande di asilo presentate nel suo territorio debbano essere esaminate offshore sull’isola, trasferendo forzatamente le persone. Un modo per aggirare i propri obblighi internazionali che è stato sanzionato dal Comitato per i diritti umani delle Nazioni Unite. Ecco perché.

    Con due decisioni di portata storica, il Comitato per i diritti umani delle Nazioni Unite ha decretato la responsabilità dell’Australia per la detenzione arbitraria di richiedenti asilo trasferiti o reindirizzati verso i centri di detenzione offshore situati nella Repubblica di Nauru. Attraverso la sottoscrizione di due memorandum d’intesa con Nauru nel 2012 e nel 2013, l’Australia ha stabilito che le richieste di asilo presentate nel suo territorio vengano esaminate offshore su quest’isola, trasferendo forzatamente le persone migranti nel piccolo Stato insulare del Pacifico.

    Il 9 gennaio 2025, il Comitato delle Nazioni Unite ha deliberato su due casi riguardanti rifugiati e richiedenti asilo sottoposti a detenzioni prolungate e arbitrarie proprio presso il Centro di elaborazione regionale di Nauru. “Uno Stato non può sottrarsi alle proprie responsabilità in materia di diritti umani delegando l’elaborazione delle richieste d’asilo ad un altro Paese”, ha dichiarato Mahjoub El Haiba, membro del Comitato, aggiungendo: “quando un Paese esercita un controllo effettivo su un’area, i suoi obblighi secondo il diritto internazionale rimangono saldi”.

    Il primo caso esaminato dalle Nazioni Unite riguarda 24 minori non accompagnati provenienti da Iraq, Iran, Afghanistan, Pakistan, Sri Lanka e Myanmar, tutti intercettati in mare dalle forze di polizie australiane mentre fuggivano dalle persecuzioni nei loro Paesi d’origine. I minori erano diretti in Australia: tra il 2013 e il 2014, sono stati portati sull’Isola di Natale, piccolo territorio australiano nell’Oceano Indiano, e trattenuti in detenzione obbligatoria per periodi compresi tra i due e i 12 mesi.

    Nel 2014 sono poi stati trasferiti a Nauru e trattenuti nel sovraffollato Centro di elaborazione regionale, caratterizzato da carenza di acqua potabile e servizi igienici, alte temperature e umidità e da cure mediche inadeguate. Secondo quanto esaminato dal Comitato, quasi tutti i minorenni hanno sofferto un deterioramento della loro salute fisica e mentale, manifestando autolesionismo, depressione, problemi renali, insonnia, mal di testa, problemi di memoria e perdita di peso. Nonostante quasi tutti avessero ottenuto lo status di rifugiati intorno a settembre 2014, sono però rimasti detenuti a Nauru.

    Nel secondo caso, una richiedente asilo iraniana è arrivata in barca sull’Isola di Natale nell’agosto 2013 con il marito, il patrigno, la sorellastra e un cugino maschio: nessuno di loro aveva un visto valido. Sette mesi dopo, la donna è stata trasferita a Nauru e trattenuta nel Centro di elaborazione regionale. Le autorità nauruane le hanno riconosciuto lo status di rifugiata nell’aprile 2017, ma non è stata rilasciata nell’immediato. Tredici mesi dopo il riconoscimento del suo status, è stata trasferita in un’area di supporto -sempre a Nauru- per ricevere assistenza sanitaria. Solo nel novembre 2018 è stata trasferita nella terraferma australiana per motivi medici, ma è comunque rimasta detenuta in varie strutture.

    In entrambi i casi, le vittime hanno presentato reclami al Comitato per i diritti umani, sostenendo che l’Australia aveva violato i suoi obblighi ai sensi del Patto internazionale sui diritti civili e politici (Iccpr), in particolare l’articolo 9, relativo alla detenzione arbitraria. L’Australia ha respinto le accuse sostenendo che non vi fossero prove sufficienti a dimostrare che le presunte violazioni avvenute a Nauru rientrassero nella sua giurisdizione.

    Tuttavia il Comitato ha fatto notare che, secondo fonti pubbliche e ufficiali, l’Australia ha pianificato la costruzione e l’istituzione del Centro di elaborazione regionale a Nauru, contribuendo direttamente alla sua gestione attraverso finanziamenti, contratti con enti privati e altri soggetti responsabili direttamente nei suoi confronti. Secondo i funzionari delle Nazioni Unite, “l’Australia ha un controllo e un’influenza significativi sul Centro di elaborazione regionale a Nauru e, pertanto, riteniamo che i richiedenti asilo coinvolti in questi casi siano sotto la giurisdizione dello Stato parte ai sensi dell’Iccpr”, ha specificato El Haiba.

    Nel dettaglio, per quanto riguarda il caso dei 24 minori non accompagnati, il Comitato ha riscontrato che l’Australia non ha giustificato in maniera adeguata perché questi minori non potessero essere trasferiti in centri di detenzione comunitari sulla terraferma, più adatti alle esigenze specifiche di individui vulnerabili. Il Comitato ha quindi concluso che l’Australia ha violato l’articolo 9 dell’Iccpr, che garantisce il diritto di essere liberi dalla detenzione arbitraria. Inoltre, poiché i minori non avevano un canale efficace per contestare la legalità della loro detenzione davanti ai tribunali nazionali, il Comitato ha riscontrato anche una violazione relativa al diritto delle persone private della libertà di portare le proprie richieste in tribunale.

    Nel caso invece della rifugiata iraniana, il Comitato ha osservato che l’Australia non ha dimostrato su base individuale che la detenzione prolungata e indefinita della vittima fosse giustificata, violando anche in questo caso l’articolo 9 dell’Iccpr. “Le nostre conclusioni inviano un chiaro messaggio a tutti gli Stati: dove c’è potere o controllo effettivo, c’è responsabilità. L’esternalizzazione delle operazioni non esime gli Stati dai propri doveri. I centri di detenzione in non sono zone franche per i diritti umani dello Stato parte, che rimane vincolato dalle disposizioni del Patto”, è il commento di El Haiba.

    L’Iccpr, infatti, è stato ratificato da 174 Paesi, Australia inclusa. Su tali basi, il Comitato ha invitato l’Australia a fornire un risarcimento adeguato alle vittime e ad adottare misure per garantire che violazioni simili non si ripetano. In particolare, ha sollecitato una revisione della legislazione migratoria e degli accordi bilaterali di trasferimento per allinearli agli standard internazionali sui diritti umani.

    https://altreconomia.it/la-responsabilita-dellaustralia-per-la-detenzione-arbitraria-sullisola-
    #Australie #externalisation #modèle_australien #asile #migrations #réfugiés #détention_arbitraire #responsabilité #ONU #Comité_des_droits_de_l'Homme

    • Australia responsible for arbitrary detention of asylum seekers in offshore facilities, UN Human Rights Committee finds

      In two landmark decisions, the UN Human Rights Committee has ruled that Australia remained responsible for the arbitrary detention of asylum seekers redirected or transferred to offshore detention facilities in the Republic of Nauru.

      The Committee published its Decisions today about two cases involving refugees and asylum seekers who have endured prolonged and arbitrary detention in the Regional Processing Centre in Nauru. Australia signed Memoranda of Understanding with Nauru in 2012 and 2013, allowing Australia to forcibly redirect and transfer asylum seekers to the Pacific Island nation for processing.

      “A State party cannot escape its human rights responsibility when outsourcing asylum processing to another State,” said Committee member Mahjoub El Haiba, adding that, “Where a State exercises effective control over an area, its obligations under international law remain firmly in place and cannot be transferred.”

      In the first case, 24 unaccompanied minors from Iraq, Iran, Afghanistan, Pakistan, Sri Lanka and Myanmar were intercepted at sea by Australia while fleeing persecution in their home countries and enroute to Australia. They were first brought to Christmas Island, an Australian territory in the Indian Ocean, between 2013 and 2014 and placed in mandatory immigration detention for between 2 and 12 months.

      They were then transferred to Nauru in 2014 and detained at the overcrowded Regional Processing Centre with insufficient water supply and sanitation, high temperatures and humidity, as well as inadequate healthcare. Almost all of these minors have suffered from deterioration of physical and mental well-being, including self-harm, depression, kidney problems, insomnia, headaches, memory problems and weight loss.

      Despite all but one of these minors being granted refugee status around September 2014, they remained detained in Nauru.

      In the second case, an Iranian asylum seeker arrived by boat on Christmas Island with her husband, stepfather, stepsister, and male cousin without valid visas in August 2013. Seven months later, she was transferred to Nauru and detained at the Regional Processing Centre. She was recognised as a refugee by the authorities in Nauru in April 2017 but was not released immediately. Thirteen months after the granting of her refugee status, she was moved to a Support Accommodation Area in Nauru for healthcare services. She was subsequently transferred to mainland Australia in November 2018 for medical reasons but was still detained in various facilities.

      Victims from both cases filed complaints to the Human Rights Committee, claiming Australia had violated its obligations under the International Covenant on Civil and Political Rights (ICCPR), particularly Article 9 regarding arbitrary detention.

      Australia opposed the allegations, stating there was no prima facie substantiation that the alleged violations in Nauru had occurred within Australia’s jurisdiction.

      The Committee, however, observed that pursuant to various public and official sources, Australia had arranged for the construction and establishment of the Regional Processing Centre in Nauru and directly contributed to its operation through financing, contracting with private and other entities which were accountable to Australia, and management.

      The Committee recalled its earlier jurisprudence and its General Comment No. 31, which defines the principle of “power or effective control” when establishing the exercise of jurisdiction.

      “It was established that Australia had significant control and influence over the regional processing facility in Nauru, and thus, we consider that the asylum seekers in those cases were within the State party’s jurisdiction under the ICCPR,” said El Haiba.

      In the first case regarding 24 unaccompanied minors, the Committee found that Australia failed to justify why they could not have been transferred to community detention centres on the mainland, which are more tailored to meet the specific needs of vulnerable individuals. The Committee thus concluded that Australia had violated Article 9 (1) of the ICCPR, which guarantees the right to be free from arbitrary detention. In addition, given that the minors did not have an effective channel to challenge the legality of their detention before domestic courts, the Committee also found that Australia had violated article 9 (4) of ICCPR regarding the right of people deprived of liberty to bring their claims to court.

      In the case concerning the Iranian refugee, the Committee observed that Australia had not demonstrated on an individual basis that the victim’s prolonged and indefinite detention was justified. The Committee thus found that Australia had violated Article 9(1).

      “These decisions send a clear message to all States: Where there is power or effective control, there is responsibility. The outsourcing of operations does not absolve States of accountability. Offshore detention facilities are not human-rights free zones for the State party, which remains bound by the provisions of the Covenant,” said El Haiba.

      The Committee called on Australia to provide adequate compensation to the victims and take steps to ensure that similar violations do not recur. Specifically, it urged a review of migration legislation and bilateral transfer agreements to align with international human rights standards.

      https://www.ohchr.org/en/press-releases/2025/01/australia-responsible-arbitrary-detention-asylum-seekers-offshore-facilities
      #décision

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • L’« agribashing », un élément de langage endossé par les pouvoirs publics pour un phénomène quasi introuvable
    https://www.lemonde.fr/planete/article/2024/12/27/l-agribashing-un-element-de-langage-endosse-par-les-pouvoirs-publics-pour-un

    Cinq ans après leur mise en place, les observatoires de l’agribashing, chargés d’évaluer, à l’échelle des départements, les « atteintes idéologiques » au monde agricole, ont eu une activité très limitée, voire nulle, selon des documents obtenus par l’ONG ARIA.

    • Quel a été le bilan de ces mesures ? Loin des discours qui ont légitimé, en 2019, l’ouverture de la chasse à l’agribashing, ce phénomène demeure cinq ans plus tard quasi introuvable. Tout en se situant au centre de propositions parlementaires visant à durcir la réponse pénale face aux actions des militants environnementalistes.

      [...]

      La préfecture de Vendée mentionne deux réunions, en janvier 2020 et en avril 2021, mais leurs comptes rendus ne signalent aucune #atteinte_idéologique. En janvier 2020, 198 délits commis sur des exploitations sont identifiés, dont 140 vols divers, un vol avec violence, 34 cambriolages, 23 actes de destructions. Aucune mention de liens avec l’activisme écologiste ou antispéciste. En avril 2021, le constat n’est guère différent, le seul délit pouvant relever d’une atteinte « idéologique » est une intrusion dans une exploitation porcine, mais le compte rendu de la réunion de l’observatoire ne précise pas les motivations du prévenu. Le dispositif mis en place ne semble pas avoir été d’une grande nécessité puisque ensuite, selon la préfecture de Vendée, « l’instance ne s’est pas réunie de 2022 à 2024 »

      De même, la préfecture de Seine-Maritime relève une unique réunion, le 17 janvier 2020, pour lancer l’observatoire. Le compte rendu de celle-ci signale « le phénomène d’attaques militantes antispécistes caractérisées par des intrusions suivies de tags et la diffusion des vidéos prises lors de ces forfaits sur les réseaux sociaux, notamment les élevages de porcs ». « Des incendies sont également à déplorer », est-il par ailleurs mentionné, sans plus de détails. « Les services de renseignement sont particulièrement attentifs à l’émergence de nouveaux groupes tels que L214, ajoute la note. Le sujet de la réglementation récente relative à l’interdiction de l’utilisation de produits phytosanitaires peut également nourrir le climat d’hostilité envers les pratiques des professions agricoles. » Les seuls éléments circonstanciés d’atteintes idéologiques sont, en novembre 2018, « des vidéos tournées lors d’intrusions (…) mises en ligne sur Internet par l’association Direct Action Averywhere [sic] ainsi que le réseau “L214” » et, en octobre 2019, « des tags à caractère antispécistes réalisés sur le mur d’une exploitation agricole à Sommery »..

      Le Monde [c’est-à-dire ici Stéphane Foucart, ndc] a contacté les #préfectures ayant fait l’objet de ces demandes d’accès aux documents, afin de recueillir leurs commentaires sur la teneur (ou l’absence) de ces documents relatifs aux observatoires de l’agribashing. Seules celles de Seine-Maritime et d’Ille-et-Vilaine ont répondu à nos sollicitations, le 25 novembre, assurant qu’elles apporteraient ultérieurement des réponses à nos questions, avant de ne plus donner suite. Les autres n’ont pas accusé réception. « A notre connaissance, seule la préfecture de la Vienne a communiqué sur le suivi des délits touchant les exploitations du département, qui compte près de 4 000 irrigants, dit de son côté Antoine Gatet, le président de France Nature Environnement (FNE). La préfecture a compté 133 plaintes en 2022 et 90 en 2023. »

      L’opacité sur les chiffres réels de l’agribashing ne se joue pas uniquement à l’échelon départemental. Le Monde a également sollicité la gendarmerie nationale à deux reprises, afin d’obtenir un bilan des actions menées par la cellule Demeter depuis sa création, en 2019 – nombre d’enquêtes, d’interpellations, de condamnations, etc. Aucune suite n’a été donnée à ces demandes.

      https://justpaste.it/7ybn3
      #Police #économie #FNSEA #Modèle_agricole #agriculture #Demeter #agribashing #écoterrorime #mégabassines #irrigants #pesticides #élevage_industriel #propriétaires #patrons #agriculteurs

    • Elections dans les chambres d’agriculture : début de la campagne le 7 janvier, report du scrutin à Mayotte
      https://www.lemonde.fr/economie/article/2024/12/27/elections-dans-les-chambres-d-agriculture-debut-de-la-campagne-le-7-janvier-

      Alors que le secteur est en crise et que des tensions opposent les syndicats, les agriculteurs sont appelés à voter du 15 au 31 janvier, par correspondance ou voie électronique, pour élire leurs représentants professionnels.

      À suivre, sans illusion.

  • Pourquoi il est important que les étudiant(e)s apprennent à se passer de #Chat-GPT ?

    Dans un article intéressant intitulé « ChatGPT : le #mythe de la #productivité » Hubert Guillaud nous explique qu’avec les applications de ce type, le but de l’#écriture est de remplir une page, pas de réaliser le #processus_de_réflexion qui l’accompagne. Or écrit-il. C’est justement tout l’inverse dont nous avons besoin ! À l’heure où l’intelligence artificielle (IA) s’immisce de plus en plus dans notre quotidien, il est utile de s’interroger sur son impact sur la formation, en particulier sur l’apprentissage des étudiants. Alors que des outils comme #ChatGPT promettent de faciliter de nombreuses tâches, il s’agit de comprendre pourquoi il est important que les apprenants puissent se passer de ces technologies, notamment dans le cadre de leurs études.

    L’IA et le développement des #compétences_cognitives

    L’un des arguments les plus convaincants en faveur d’un apprentissage sans IA porte sur le développement des compétences cognitives. Comme le souligne Emily M. Bender, linguiste citée par Hubert Guillaud, l’objectif de la rédaction d’un écrit d’étudiant (un mémoire ou d’un rapport de situation sociale) n’est pas de produire plus de connaissances, mais de renforcer les capacités de réflexion critique des élèves.

    Une analogie avec l’entraînement sportif peut vous aider à comprendre pourquoi : de même que s’entrainer à soulever des poids développe la force musculaire nécessaire à diverses disciplines sportives, l’écriture régulière cultive des compétences essentielles pour les futurs professionnels. Or, nous avons besoin de travailleurs sociaux qui pensent par eux-mêmes et s’entrainent sans chercher leurs idées dans des réponses formatées par des chabots.

    L’utilisation d’outils d’IA comme ChatGPT pour réaliser des devoirs équivaut à « amener un chariot élévateur dans une salle de musculation pour entrainer les athlètes ». En d’autres termes, cela prive les étudiants de l’opportunité de développer leur « forme cognitive ». Cette métaphore illustre parfaitement le risque d’atrophie intellectuelle lié à une dépendance excessive à l’IA. Il s’agit d’apprendre à penser par soi-même et d’être capable d’intégrer la pensée nécessaire à la pratique professionnelle. Sinon à quoi bon se former ?

    L’#effort_intellectuel doit être valorisé

    Un autre aspect à ne pas négliger de l’apprentissage sans IA concerne la valeur intrinsèque de l’effort intellectuel fourni par l’étudiant. Bien que certains types d’écriture puissent sembler superflus ou purement académiques, le processus de création de texte, même lorsqu’il n’est pas particulièrement créatif ou évident, a une valeur en soi. Il permet de développer des #compétences, d’approfondir la compréhension d’un sujet et de structurer la pensée. D’où l’intérêt de continuer à demander aux élèves de formaliser leurs pensées en synthétisant et en analysant des textes.

    Le risque d’une utilisation excessive de l’IA est de créer un #cercle_vicieux où la production de textes de qualité médiocre devient la norme. Nous pourrions entrer dans une ère où les documents sont générés à partir de listes à puces par une IA, puis réutilisé par une autre IA pour produire un devoir ou une communication académique. Cette perspective soulève des questions sur la valeur ajoutée réelle de tels processus et sur l’#appauvrissement potentiel de la #réflexion humaines.

    Un risque de #déshumanisation de l’apprentissage

    Distinguons d’abord deux aspects importants qui entrent dans le champ de la formation : la #compétence et l’#intelligence. La compétence correspond à la façon dont vous accomplissez une tâche, tandis que l’intelligence correspond à l’efficacité avec laquelle vous allez acquérir de nouvelles compétences. Cette différenciation nous conduit à comprendre une limitation fondamentale de l’IA : bien qu’elle puisse être extrêmement compétente dans l’exécution de tâches spécifiques (par exemple, résumer un texte), elle manque de la #flexibilité et de l’#adaptabilité qui caractérisent l’#intelligence_humaine. Elle ne dispose pas d’intelligence à proprement parler. Il nous est dit que les étudiants pour obtenir leurs diplômes doivent acquérir des domaines de compétence. Pour autant la pratique du travail social demande surtout de savoir agir avec intelligence. Or ce n’est pas la même chose. James Stacey Taylor, professeur de Sciences humaines au collège de New Jersey, explique bien pourquoi il interdit désormais à ses élèves d’utiliser l’IA.

    Cette technologie risque de nous traiter comme des êtres inférieurs à ce que nous sommes réellement : des créateurs et des interprètes de sens. Un autre argument en faveur de l’abandon de l’IA dans le travail des étudiants concerne son potentiel de « déshumanisation ». L’#IA_générative a tendance à réduire nos attentes, à la fois envers ce que nous lisons et envers nous-mêmes lorsque nous écrivons quelque chose pour que les autres le lisent. Nous banalisons du texte aux kilomètres généré par les #modèles_de_langage et oublions les efforts à fournir qui paraissent alors pour les étudiants de plus en plus démesurés.

    L’acte d’écrire ou de communiquer, même lorsqu’il n’est pas particulièrement original, porte une #signification_profonde pour l’auteur et son audience. Cela concerne aussi bien la #création_artistique que la #communication quotidienne. L’#intention et le contexte humains sont essentiels. L’IA, en se substituant à ces processus, risque de réduire la quantité d’intention dans le monde et d’appauvrir nos interactions qui nous conduisent à forger nos propres opinions.

    L’IA et la promotion de l’#incuriosité

    Rob Horning, philosophe du net, nous met en garde contre le fait que les modèles de langage de grande taille (#LLM) « marchandisent l’incuriosité ». Ces systèmes peuvent fournir des informations, mais ils sont incapables d’expliquer pourquoi ces informations ont été produites ou organisées d’une certaine manière. Cette limitation est particulièrement problématique dans un contexte éducatif, où la compréhension du processus de création et d’organisation des connaissances est aussi importante que les connaissances elles-mêmes.

    L’utilisation de l’IA dans l’#éducation risque de promouvoir une approche assez superficielle de l’apprentissage. L’accent sera mis sur l’obtention rapide de résultats plutôt que sur le processus de réflexion et de #compréhension. Cette tendance va à l’encontre des objectifs fondamentaux de la formation des travailleurs sociaux, qui visent à développer la #pensée_critique et la capacité d’analyse des étudiants.

    Or aujourd’hui que souhaitons-nous pour les futurs travailleurs sociaux ? De nombreux employeurs vous diront qu’ils recherchent des professionnels qui font ce qu’on leur demande de faire sans véritablement se poser des questions. Le résultat importe plus que le processus qui a permis de l’obtenir. Or l’aide et l’accompagnement en #travail_social est justement structuré dans le processus fait d’avancées et de reculs, un parcours qui permettra à la personne aidée de pouvoir à terme prendre son avenir en main. Elle nous oblige à penser l’action au fil du contexte et des évolutions de la situation. Cette réflexion est menée avec la personne accompagnée. Or l’IA vous proposera des réponses qui ne sont pas coconstruites avec elle.

    Le mythe de la productivité

    Un autre aspect problématique de l’utilisation de l’IA dans la formation est la promotion du « mythe de la productivité ». Cette idéologie présuppose que l’économie de temps et d’efforts est toujours préférable à l’engagement dans une activité pour elle-même. Dans le contexte éducatif, cela peut se traduire par une focalisation excessive sur la production d’actions et de contenus au détriment du processus d’apprentissage et de réflexion pour la mise en œuvre de l’action.

    Ce mythe de la productivité risque de réduire l’écriture et d’autres activités éducatives à de simples tâches à accomplir. Il néglige dans le processus d’écriture leur dans le développement intellectuel et personnel des étudiants. Comme le souligne Rob Horning, cette approche correspond à celle de l’idéologie libérale qui privilégie l’efficacité sur le sens et l’expérience.

    Une utilisation excessive de l’IA dans la formation risque également de priver les étudiants de la maîtrise de leur propre apprentissage au nom de la productivité. En automatisant des processus qui devraient normalement impliquer une réflexion et un effort personnels, l’IA peut réduire la capacité des étudiants à développer une compréhension profonde et une expertise dans leurs domaines d’étude.

    Cette perte de maîtrise s’apparente à ce que Rob Horning décrit comme le travail aliéné dans le contexte capitaliste. Au temps du Fordisme, les travailleurs étaient soumis à des processus de travail cadencés par la machine. Ils travaillaient à la chaine. Cela les privait de toute autonomie et surtout de leur créativité. Aujourd’hui, des robots les ont remplacés. L’IA utilisée de la sorte n’en ferait pas autrement. Cela pourrait se traduire par une autre forme de travail à la chaine, où le salarié (et l’étudiant) ne travaillent plus directement leurs textes, mais suivent plutôt ce que l’IA leur a fourni. Cela pourrait provoquer une forme d’aliénation aux outils d’IA, au détriment du développement de la capacité à penser de manière indépendante.

    L’impact sur l’apprentissage

    Les effets potentiellement néfastes de l’utilisation excessive de l’IA nous conduit dans des process un peu absurdes. Comme le souligne Ian Bogost, nous assistons déjà à des scénarios dans lesquels des étudiants génèrent des devoirs avec l’IA, que les enseignants font ensuite corriger par l’IA. On en arriverait vite à marcher sur la tête. Cette situation, qui peut exister, soulève des questions importantes sur la valeur et l’intégrité du processus éducatif.

    Le risque majeur est que cette technologie rende caduc certains des meilleurs outils d’apprentissage, notamment l’écriture elle-même. L’écriture n’est pas seulement un moyen de communiquer des idées, c’est aussi un processus qui permet de clarifier la pensée, d’approfondir la compréhension et de développer des compétences critiques. En remplaçant ce processus par une génération automatisée de contenu, nous risquons de priver les étudiants d’opportunités essentielles pour leur développement intellectuel.

    Il existe une grande différence entre l’apprentissage automatique et la « pensée machine » explique Ron Carucci dans le magazine Forbes. Dès l’instant où nous commençons à considérer l’IA comme une machine pensante, nous sommes dans le pétrin. En effet, cela signifie que nous avons essayé d’externaliser notre propre pensée critique et nos compétences de résolution de problèmes à une machine qui ne fait que répliquer et régurgiter les informations qu’elle a recueillies. Les grands modèles linguistiques recherchent des modèles d’information existants, peut-être même les synthétisent. Mais ils ne peuvent pas exercer d’appréciation, quelle que soit la nuance ou la rapidité de leurs résultats.

    Plus les étudiants utilisent les machines pour réfléchir à leur place, plus ils deviennent dépendants de ces machines, ce qui perturbe les processus cognitifs clés. Utiliser l’IA pour trouver une réponse par raccourci au lieu de la trouver par soi-même diminue leur réserve cognitive, ou si vous préférez les connexions entre les cellules cérébrales. L’hypothèse de la réserve cognitive reflète l’agilité de notre cerveau à résoudre des problèmes et à faire face à des situations inattendues explique Ron Carucci.

    En conclusion

    En conclusion, bien que l’IA offre des possibilités assez vertigineuses dans de nombreux domaines, son utilisation dans la formation, en particulier pour des tâches fondamentales comme l’écriture et la recherche, soulève de sérieuses préoccupations. Il est esentiel que les étudiants apprennent à se passer de ces outils, non pas par rejet de la technologie, mais pour préserver et développer des compétences essentielles qui ne peuvent être acquises que par l’effort et la pratique.

    L’éducation ne consiste pas seulement à acquérir des connaissances, mais aussi à développer la capacité de penser de manière critique, de résoudre des problèmes et de s’adapter à de nouvelles situations. Ces compétences sont primordiales pour le succès futur des étudiants, tant dans leur vie professionnelle que personnelle. Elles sont essentielles pour les étudiants en travail social. Il leur faut continuer à penser par eux-mêmes et non déléguer une quelconque décision à des IA qui n’auront pas dans leur mémoire tous les aspects particuliers d’une situation singulière.

    Alors que beaucoup utilisent l’IA sans le dire, il reste essentiel de trouver un équilibre entre l’utilisation de ces technologies comme outils d’assistance et la préservation des processus d’apprentissage. C’est bien le fait de ne pas utiliser l’IA qui favorise une véritable croissance intellectuelle. Les formateurs, les responsables de filières et les étudiants eux-mêmes doivent être conscients des limites et des risques associés à une dépendance excessive à l’IA dans la formation.

    En fin de compte, l’objectif de la formation devrait être de former des futurs professionnels capables de penser par eux-mêmes, de remettre en question les idées reçues et de contribuer de manière significative à la société. Ces compétences ne peuvent être pleinement développées que par un engagement actif dans le processus d’apprentissage, sans raccourcis artificiels. C’est en préservant ces aspects essentiels que nous pourrons préparer au mieux les étudiants dans un monde où l’IA jouera sans aucun doute un rôle de plus en plus important.

    La quasi-totalité des sources est en anglais, n’hésitez pas à utiliser un traducteur automatique :

    – ChatGPT : le mythe de la productivité | Dans les algorithmes : https://danslesalgorithmes.net/2024/09/17/chatgpt-le-mythe-de-la-productivite
    - Revue Spirale – Esprit critique et pouvoir d’agir. Vers le développement d’une « attitude critique » ? | Cairn.info : https://shs.cairn.info/revue-spirale-revue-de-recherches-en-education-2020-3-page-51?lang=fr
    - AI Reduces Critical Thinking | WVNexus : https://wvnexus.org/opinions/ai-reduces-critical-thinking
    - Why I Ban AI Use in Writing Assignments | Times Higher Education : https://www.timeshighereducation.com/campus/why-i-ban-ai-use-writing-assignments
    - Importance of Critical Thinking for Students | EssayPro : https://essaypro.com/blog/importance-of-critical-thinking-for-students
    - In the Age of AI, Critical Thinking Is More Needed Than Ever | Forbes : https://www.forbes.com/sites/roncarucci/2024/02/06/in-the-age-of-ai-critical-thinking-is-more-needed-than-ever
    - Why Should Students Not Use AI Tools to Write Assignments ? | Academic Assignments : https://www.academicassignments.com/blog/why-should-students-not-use-ai-tools-to-write-assignments

    https://dubasque.org/pourquoi-il-est-important-que-les-etudiantes-apprennent-a-se-passer-de-cha
    #ChatGPT #apprentissage #ESR #étudiants #AI #intelligence_artificielle #IA #université

    voir aussi :
    Guide sur l’utilisation de l’intelligence artificielle dans le réseau de l’éducation
    https://seenthis.net/messages/1082156

    • A Student’s Guide to Not Writing with ChatGPT

      OpenAI has published “A Student’s Guide to Writing with ChatGPT”. In this article, I review their advice and offer counterpoints, as a university researcher and teacher. After addressing each of OpenAI’s 12 suggestions, I conclude by mentioning the ethical, cognitive and environmental issues that all students should be aware of before deciding to use or not use ChatGPT.

      “1. Delegate citation grunt work to ChatGPT. AI excels at automating tedious, time-consuming tasks like formatting citations. Just remember to cross-check all source details against original materials for accuracy.”

      That last sentence is probably there for legal reasons, because they know they can’t say ChatGPT will produce accurate results. Formatting citations and bibliographies means presenting metadata according to formal style instructions. This is not natural language. ChatGPT will make errors, which will take time to track and correct. Instead, use a reference manager, such as Zotero. It will format things reliably, exactly as expected. Just clean up the references’ metadata as you collect them, and then your bibliographies will never contain mistakes.

      “2. Quickly get up to speed on a new topic. ChatGPT can jumpstart your research by providing a foundational understanding of a subject.”

      ChatGPT is a human conversation simulator, not an information system or a knowledge base. It has no understanding of anything: it only outputs plausible responses. Do not ask an intermediary who has no capacity to understand information to explain it to you. Instead, go to your university library and look it up yourself, with the help of your local librarians. Actual information is contained in brains, documents and databases.

      “3. Get a roadmap of relevant sources. ChatGPT can guide your research by suggesting relevant scholars, sources, and search terms. But remember: while it can point you in the right direction, ChatGPT isn’t a substitute for reading primary sources and peer-reviewed articles. And since language models can generate inaccurate information, always double-check your facts.”

      (This is even more contentious than point 1, so we get two full sentences that are probably there for plausible deniability.) Because Chat GPT has no understanding of anything, it does not know what things like “a source” or “a true statement” are. Do not trust its directions. You will waste time and make mistakes. Again, ask a human or search for documents and data in a proper information system.

      “4. Complete your understanding by asking specific questions.”

      Because Chat GPT has no understanding of anything, it does not know actual answers to your questions, only plausible answers. It will generate true and false answers indiscriminately. This will set your learning back. Again, seek humans, documents and data directly instead of asking ChatGPT.

      “5. Improve your flow by getting feedback on structure.”

      Because Chat GPT has no understanding of anything, it does not understand what an “expected” or “improved” text structure is, even if you describe it. It can only upgrade your writing to middling quality, or downgrade it to that same level. Both will result in mediocre grades. To actually improve, ask a teacher, or join a group of students who give each other feedback; if such a group does not exist, get some people together and create it—this will be a useful experience by itself.

      “6. Test your logic with reverse outlining.”

      As an Australian study recently showed, ChatGPT does not know how to summarize, only shorten. So far, summarizing remains something only humans do well. So you should learn it: take a summarizing course from an information skills program. (Also, if you can’t summarize your own writing, something is wrong. Do not reverse outline your writing: outline first, then write.)

      “7. Develop your ideas through Socratic dialogue.”

      This is one suggestion that is related to ChatGPT’s actual function: simulating human communication. However, Socratic dialogue implies that you are conversing with someone who has a superior understanding of the topic and who slowly brings you to their level. And, unfortunately, ChatGPT is not Socrates. Using ChatGPT as a “sparring partner” will constrain you to its level: a machine which produces plausible human sentences. Instead, suggest this exercise to your teachers and fellow students, and do it with someone more knowledgeable than you.

      “8. Pressure-test your thesis by asking for counterarguments.”

      To improve your thinking, you must be able to come up with counterarguments, not just answer them. Using ChatGPT to do half the work will stunt your progress. Instead, come up with counterarguments yourself. And if you must ask for help, do not ask ChatGPT: it can only produce weak reasoning, so it will make you plateau into mediocrity. Ask someone who can create strong arguments to make you think harder.

      “9. Compare your ideas against history’s greatest thinkers.”

      ChatGPT can entertain you but it has no ability to design such a complex exercise so that you may learn from it. Suggest this idea to a teacher instead. This is what they are trained to do.

      “10. Elevate your writing through iterative feedback.”

      This is a variant of point 5 about feedback. Again, using ChatGPT will constrain your work to a machine’s idea of the human average. Instead, go for feedback sessions with teachers and fellow students, and make those iterative if needed.

      “11. Use Advanced Voice Mode as a reading companion.”

      (“Avanced Voice Mode” means ChatGPT listens to you reading something out loud and tries to answer your questions about it.) This is a variant of points 2-4 about information. ChatGPT has no understanding of anything. It will not provide reliable interpretations of what you’re reading. Instead, look up the definitions of words you don’t know; find scholarly work that analyzes the text; ask another student working on the same text if you’re unsure of what you’ve read.

      “12. Don’t just go through the motions—hone your skills. […] Try asking ChatGPT to suggest ways to develop your ability to think critically and write clearly.”

      Again, ChatGPT has no understanding of anything. This includes “critical thinking” and “writing techniques”. Look these things up in your university library catalogue; read what you find; ask your teacher about it; and then practice, practice, practice.
      Final words

      ChatGPT is designed to simulate human conversation. Using a probabilistic model of language, it communicates for communication’s sake, to fool you into thinking it’s human. It’s a bullshit machine. It works as a novelty thing, for entertainment. But it’s not a reliable tool for learning, so I believe students should be wary of it.

      Whenever students ask me about ChatGPT, I mention the following three issues:

      - ethics: most of the models were built on stolen data;
      - cognition: using it makes you more dependent and less smart, as studies have started to show (here’s a link to a French one) ;
      - environment: the energy costs of generative AI are an order of magnitude greater than pre-existing technology (and it’s not even profitable, so we’re burning fuel for nothing).

      It’s usually enough to give most of my students some pause. They’re creative young people, so they empathize with robbed creators. They want tools that help them, not hinder them. And a lot of them are (rightly) concerned about the environment, so they’re shocked to learn that ChatGPT takes ten times the amount of energy Google does to answer the same question, usually worse (but Google is catching up, or down I should say).

      The good news is that, as Jared White puts it:

      “You can literally just not use it. […] you can be a fulfilled, modern, very online, technical expert & creator and completely sit out this hype cycle.”

      If you need more information, I strongly recommend out that you check out Baldur Bjarnason’s Need To Know. It’s a website that provides an accessible summary of his deep literature review of the risks behind using generative AI. It’s a great starting point.

      https://www.arthurperret.fr/blog/2024-11-14-student-guide-not-writing-with-chatgpt.html