• Your Brain on #ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task

    This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI’s role in learning.

    https://arxiv.org/abs/2506.08872

    #cerveau #IA #AI #intelligence_artificielle #LLM #écriture #activité_cognitive #dette_cognitive #déclin_cognitif

  • Builder.ai s’effondre après avoir caché 700 développeurs derrière son « IA » RTS - Pascal Wassmer

    La start-up britannique Builder.ai, valorisée à 1,5 milliard de dollars, a fait faillite après la découverte d’une fraude massive. Son intelligence artificielle révolutionnaire « Natasha » cachait en réalité 700 développeurs indiens. L’entreprise avait gonflé ses revenus de 300% pour attirer Microsoft et d’autres investisseurs majeurs.

    Builder.ai promettait de révolutionner le développement d’applications. La start-up britannique assurait pouvoir créer des logiciels « aussi facilement que commander une pizza » grâce à son intelligence artificielle « Natasha ».


    La réalité était tout autre. Derrière cette prétendue IA se cachaient près de 700 développeurs basés en Inde. Ils réalisaient manuellement le travail de programmation pour les clients.

    L’entreprise fondée en 2016 par Sachin Dev Duggal s’est effondrée en mai dernier. Elle avait pourtant réussi à lever près de 500 millions de dollars auprès d’investisseurs prestigieux.

    Microsoft, le fonds souverain du Qatar et SoftBank comptaient parmi ses financeurs. Ils avaient tous été séduits par la promesse d’une intelligence artificielle révolutionnaire.

    Des revenus gonflés de 300%
    Une enquête interne a révélé l’ampleur de la tromperie. Builder.ai avait gonflé ses prévisions de chiffre d’affaires de 300% pour 2024. L’entreprise annonçait 220 millions de dollars de revenus. Un audit indépendant a établi le montant réel à 55 millions de dollars seulement.

    Les chiffres de 2023 ont également été revus à la baisse. De 180 millions de dollars annoncés, les revenus réels s’élevaient à 45 millions.

    Sachin Dev Duggal se surnommait le « sorcier en chef » de Builder.ai. Il a été contraint de démissionner en début d’année.

    Le scandale a éclaté après une enquête de Bloomberg révélant une fraude comptable dite de « round-tripping ». L’entreprise simulait des relations commerciales avec la société indienne VerSe Innovation.

    Des milliers d’emplois perdus
    La faillite a entraîné le licenciement de près d’un millier d’employés. Builder.ai doit désormais 85 millions de dollars à Amazon et 30 millions à Microsoft pour l’utilisation de services cloud.

    L’entreprise fait l’objet d’une enquête fédérale aux États-Unis. Le bureau du procureur de Manhattan a exigé l’accès aux états comptables et à la liste des clients.

    Cette affaire illustre le phénomène du « blanchiment d’IA ». Cette pratique consiste à présenter des services technologiques de base comme de l’intelligence artificielle authentique.

    L’objectif est de capitaliser sur l’enthousiasme des investisseurs pour l’IA. Builder.ai n’est pas un cas isolé dans le secteur technologique.

    Source : https://www.rts.ch/info/sciences-tech/2025/article/builder-ai-s-effondre-apres-avoir-cache-700-developpeurs-derriere-son-ia-2890991
    #ia #intelligence_artificielle #ai #algorithme #technologie #chatgpt #machine_learning #escroquerie #fraude #arnaque

  • Conférence de #Khrys :

    #IA, #Philosophie du Libre et #Féminisme

    L’objectif de cette #conférence est, tout d’abord, d’apporter une réflexion sur ce que l’on appelle intelligence artificielle et l’#idéologie qui se cache derrière ; ensuite, de montrer en quoi la #philosophie_du_libre et le féminisme peuvent nous guider dans les #choix techniques et politiques à venir en ce domaine. Le tout en revisitant l’histoire des techniques et #imaginaires liés à l’IA sous un angle féministe.

    https://videos-libr.es/w/cKZQqzVxRfC9suiynb2yKt
    #AI #intelligence_artificielle #whisper #OpenAI #technique #machine #apprentissages_profonds #systèmes_experts #chatGPT #Eliza #projet #patriarcat

  • Régis No - Mastodon
    https://piaille.fr/@regis_n/114539666116070626

    Quand un parent d’élève utilise #chatgpt pour m’expliquer que ma pédagogie n’est pas adaptée à son enfant, et qu’il oublie de remplacer [Prénom] par le prénom de son enfant...
    Je ne sais plus s’il faut en rire ou en pleurer...
    #teamprof #TeamMaths

    Pour cette raison, il serait vraiment bénéfique de s’en tenir à une méthode unique et stable pour aborder la proportionnalité. En particulier, la méthode dite de la quatrième proportionnelle (ou “produit en croix”) est celle qu’il a le mieux retenue. Elle est efficace, compréhensible, et adaptée à ses capacités actuelles, surtout si elle est soutenue par l’usage systématique de la calculatrice, qui compense son déficit attentionnel et l’aide à se concentrer sur le raisonnement plutôt que sur le calcul.

    Je comprends bien la richesse des différentes approches possibles en classe, mais pour [Prénom], la démultiplication des méthodes risque de nuire à ses repères cognitifs et à sa progression.

    Je vous remercie de votre compréhension et reste à votre disposition pour échanger à ce sujet si besoin.

    Bien cordialement,

    Régis No - Mastodon
    https://piaille.fr/@regis_n/114540451558689988

    Suite de l’histoire : j’ai fini par répondre très calmement (et sans chatgpt) que je n’enseignais pas la technique du « produit en croix » que son fils « a le mieux retenue » car elle n’est pas au programme de 6ème...

    Bonjour Monsieur,

    Je n’enseigne pas la méthode du produit en croix en classe de 6ème car elle n’est pas au programme. L’objectif est la compréhension du sens de la proportionnalité, notion très utilisée dans la vie quotidienne, avant la mise en place d’une procédure de calcul, certes efficace, mais difficilement justifiable et compréhensible en fin de 6ème. Pour plus d’informations, vous trouverez en pièce jointe une capture d’écran du programme de mathématiques concernant la proportionnalité, que vous pourrez retrouver en intégralité sur le site https://eduscol.education.fr/87/j-enseigne-au-cycle-3
    Cordialement,

  • The Pulse #134: #Stack_overflow is almost dead
    https://newsletter.pragmaticengineer.com/p/the-pulse-134

    Four months ago, we asked Are #LLMs making Stack Overflow irrelevant? Data at the time suggested that the answer is likely “yes:”

    Since then, things at Stack Overflow went from bad to worse. The volume of questions asked has nearly dried up, new data shows

    #IA #AI #ChatGPT

    • les données sont là…
      https://gist.github.com/hopeseekr/f522e380e35745bd5bdc3269a9f0b132?ref=blog.pragmaticengineer.com#file-st

      SELECT YEAR(CreationDate) AS Year, MONTH(CreationDate) AS Month, COUNT(*) AS NumQuestions
      FROM Posts
      WHERE PostTypeId = 1 -- Questions only
      GROUP BY YEAR(CreationDate), MONTH(CreationDate)
      ORDER BY Year DESC, Month DESC;

      … avec quelques commentaires – dont le tout premier :

      The decline is definitely not just ChatGPT, look at 2018, aside from December it’s 150k-ish by 2022 it’s below 120k more like 110k, it was already in decline. This is mostly because people are hostile to questions — as you pointed out. ChatGPT merely made it unnecessary to interact with these people. The founders saw the writing on the wall, they brought in a corporate butcher in 2019 for a CEO, completely blundered relations with the community shortly after as they tried to become more enterprise friendly (Monica Cellio), then fired the community managers in 2020, sold the site in 2021. It’s like the Soviet Union which ended in 1986 it was just so big it took the giant five years to topple to the ground. For SO, it seems it died in 2019 and will close in 2026 (at best).

      Stack Overflow - Wikipedia
      https://en.wikipedia.org/wiki/Stack_Overflow

      On 3 May 2010, it was announced that Stack Overflow had raised $6 million in venture capital from a group of investors led by Union Square Ventures.

      In [September] 2019, Stack Overflow named Prashanth Chandrasekar as its chief executive officer and Teresa Dietrich as its chief product officer.

      In June 2021, Prosus, a Netherlands-based subsidiary of South African media company Naspers, announced a deal to acquire Stack Overflow for $1.8 billion.

    • Mon experience personnelle ne peut que confirmer les nombreux commentaires du lien ci dessus. Depuis pas mal d’années la plupart des questions sont celles de débutants qui viennent faire faire leur devoir ou incapable de chercher 30s des réponses existantes, et les réponses, quand il y en a, ne répondent pas au problème mais expliquent avec mépris que la question n’aurait pas du être posée.

      Mais même si poser des questions n’a plus d’intérêt, consulter les réponses précédentes reste très instructif. En fait, il faudrait geler le site pour éviter que les échanges pertinents de l’époque se retrouvent noyés par tout ce bruit inutile.

    • J’ai exactement le même ressenti que @inadvertance
      Et encore, aujourd’hui il n’y a même plus les questions d’étudiants venant faire leurs devoirs puisque ceux-ci passent par chatGPT, et là pareil je suis en train à l’instant d’en faire les frais : 64 devoirs corrigés, une dizaine de convocations pour qu’ils m’expliquent leur code parce que ça pue le chatGPT. Iels connaissent le fonctionnement : tu n’arrives pas à m’expliquer ce que fait ce code ? c’est zéro. Mon boulot c’est pas de corriger chatGPT, c’est d’évaluer si tu as assimilé des connaissances.

  • #Productivité en hausse, #motivation en baisse : la gueule de bois de l’#IA au #travail

    Les individus épaulés par l’intelligence artificielle produisent des résultats généralement plus qualitatifs. Mais cette collaboration s’accompagne de lourds coûts psychologiques.

    Depuis le lancement retentissant de #ChatGPT fin 2022, l’IA générative s’est rapidement imposée sur un nombre croissant de plateformes et d’appareils technologiques. À l’instar de nombreuses innovations majeures, son essor fulgurant a devancé la mise en place de cadres assurant une utilisation sûre et responsable.

    Les enseignants, par exemple, doivent désormais composer avec le fait que nombre (voire la totalité) de leurs élèves utilisent des outils d’IA générative comme ChatGPT et Gemini pour réaliser leurs devoirs.

    De même, les chefs d’entreprise sont aujourd’hui confrontés au défi de gérer une main-d’œuvre utilisant l’#IA_générative. Et de s’assurer que cette technologie facilite, plutôt qu’elle ne freine, la #performance des employés. Les leaders de la tech ont tendance à affirmer que l’IA générative améliorera la #créativité et le #bien-être humains. Mais la réalité est beaucoup moins claire.

    Une étude publiée par Harvard Business Review révèle que l’IA générative sur le lieu de travail est une arme à double tranchant : elle peut améliorer la productivité des employés, mais aussi éroder le #sens et l’#engagement au travail.

    La gueule de bois de l’IA

    L’étude a suivi 3 500 sujets humains pendant qu’ils effectuaient diverses tâches, allant du brainstorming d’idées à la rédaction d’e-mails. Certaines de ces tâches ont été réalisées avec l’aide de l’IA générative. D’autres non.

    Les chercheurs ont constaté que les résultats des travailleurs assistés par l’IA étaient généralement de meilleure #qualité. Les e-mails rédigés avec l’aide de l’IA, par exemple, étaient jugés plus encourageants et amicaux.

    Cependant, les sujets ayant initialement utilisé l’IA ont souffert psychologiquement lorsqu’ils ont été contraints de passer à une autre tâche qu’ils devaient accomplir seuls. Chez ces travailleur la motivation intrinsèque a chuté en moyenne de 11 % et l’ennui a grimpé en flèche de 20 % en moyenne après la perte de l’aide de l’IA. En revanche, ceux qui ont travaillé systématiquement sans IA n’ont signalé aucun changement émotionnel significatif.

    #Autonomie perdue, motivation en berne

    Le résultat est que les avantages de l’utilisation de l’IA générative sur le lieu de travail produisent souvent une sorte de #gueule_de_bois.

    « Bien que l’utilisation d’outils d’IA puisse sembler productive, elle peut laisser les travailleurs moins engagés lorsqu’ils passent à des tâches qui n’impliquent pas le support de l’IA - une réalité courante dans les flux de travail où toutes les tâches ne peuvent pas ou ne doivent pas être assistées par l’IA », indique le rapport.

    Selon l’étude, le #fardeau_psychologique ressenti par les employés ayant initialement utilisé l’IA trouve son origine dans un sentiment d’autonomie et de contrôle – ou plutôt dans leur absence. Le travail confié à l’IA pour chaque tâche tend à concerner les aspects les plus exigeants sur le plan cognitif, qui sont aussi généralement les plus gratifiants.
    « Les travailleurs retrouvent leur autonomie mais se sentent moins inspirés et moins stimulés », note le rapport.

    Cette nouvelle recherche peut aider les chefs d’entreprise à élaborer une feuille de route pour l’utilisation de l’IA par les employés.

    Une feuille de route pour un usage réfléchi

    Plutôt que de recommander l’interdiction de l’IA générative en milieu professionnel, les chercheurs de Harvard recommandent aux employeurs de maximiser les avantages de cette technologie tout en en limitant les coûts.

    Cela peut se faire, par exemple, en utilisant l’IA dès les premières étapes d’un projet – par exemple, la rédaction des grandes lignes d’une évaluation de performance – avant de passer à une créativité humaine sans IA. De plus, les employés qui viennent de terminer une tâche assistée par IA devraient immédiatement passer à une tâche non automatisée qui requiert un esprit critique pour maintenir leur capacité d’action et leur engagement.

    Selon les chercheurs, l’éducation devrait également être une priorité. Plutôt que d’espérer aveuglément que les individus et les équipes puissent intégrer l’IA générative à leurs flux de travail de manière bénéfique pour l’ensemble, les employeurs devraient lancer des initiatives de formation, des ateliers et des actions de communication qui clarifient les avantages et les inconvénients de cette technologie.

    https://www.zdnet.fr/actualites/productivite-en-hausse-motivation-en-baisse-les-effets-ambivalents-de-lia-au-t
    #AI #intelligence_artificielle #enseignement

    • Research: Gen AI Makes People More Productive—and Less Motivated

      The integration of generative AI into the workplace represents a tremendous opportunity to enhance productivity, creativity, and innovation. But new research shows that it can have a downside: a study of over 3,500 people found that using AI tools led to performance gains, but also made employees less motivated and more bored when they had to work on other tasks, without the use of AI. The researchers examine their findings to offer ways that leaders can redesign workflows and preserve the elements of work that drive intrinsic motivation. By doing so, companies can unlock the full potential of both AI and their workforce.

      https://hbr.org/2025/05/research-gen-ai-makes-people-more-productive-and-less-motivated

  • N’avons-nous pas répété depuis des siècles l’adage de Descartes :
    "Je pense, donc je suis" ?

    Mais est-ce toujours vrai à l’ère de #ChatGPT ?
    Selon OpenAI, 400 millions de personnes utiliseraient leur chatbot chaque semaine

    On salue l’#innovation
    On applaudit la #rapidité

    Mais on oublie souvent de regarder la partie immergée de l’iceberg, là où apparaissent les premiers signes de #dépendance fonctionnelle...

    Les premières études évoquent plusieurs répercussions préoccupantes :

    👉 Perte d’#autonomie → difficulté à réfléchir sans l’outil

    👉 Perte de #confiance_en_soi → angoisse à l’idée de prendre des décisions seul

    👉 Dépendance à l’outil → stress en l’absence de ses recommandations

    👉 Affaiblissement de la #réflexion personnelle → le cerveau s’habitue à externaliser ses processus de pensée

    On veut aller vite
    On veut être efficace

    Mais on oublie les impacts à long terme :

    1️⃣Déléguer notre réflexion à l’IA pourrait affaiblir gravement l’#intelligence_collective des organisations

    2️⃣ L’IA crée une #dépendance_cognitive qui pourrait limiter l’#innovation_humaine et la #pensée_critique

    Alors, quand un employé me dit, après une formation :
    “Vous m’avez ouvert les yeux… je vais recommencer à réfléchir par moi-même.”

    C’est une victoire !
    Pour lui
    Pour notre communauté
    Et pour son entreprise

    Nous devons former les équipes à penser sans l’IA et à renforcer notre innovation humaine avec elle

    Parce que si nous demandons aux machines de penser à notre place,
    nous perdrons ce qui fait de nous des êtres humains 🧠

    Et vous, comment préparez-vous vos équipes à préserver leur souveraineté cognitive face à l’IA ?

    https://www.linkedin.com/posts/laurie-michel-vivala_hyperconnectivitaez-ia-chatgpt-activity-7323307641005
    #IA #AI #intelligence_artificielle #pensée #iceberg #ressources_pédagogiques

  • Quand l’IA générative est une exploitation
    https://lepavenumerique.substack.com/p/quand-lia-generative-est-une-exploitation

    Édito du Pavé Numérique du 2 avril 2025
    par Ivan Gaudé

    https://www.youtube.com/watch?v=ngZ0K3lWKRc

    Miyazaki : « La génération d’animation par IA est une insulte à la vie elle-même. »

    Le 25 mars, #OpenAI a intégré à #ChatGPT un nouveau générateur d’images [1] perfectionné (avant de devoir partiellement en limiter l’accès gratuit devant la demande). Aussitôt, sans que l’on sache vraiment pourquoi, les utilisateurs sont devenus obsédés par le style visuel de Ghibli (studio d’animation fondé par Hayao Miyazaki et Isao Takahata). Ils ont inondé les réseaux sociaux de photos modifiées par ChatGPT pour être « dans le style » de #Ghibli [2] (en fait principalement celui de #Miyazaki).

    Quel est le problème ? Qu’y a-t-il de plus innocent qu’une petite ghiblimation du quotidien ? Derrière la génération de ces images optimistes, il y a un hic, et même deux.

    D’abord, cette possibilité implique de toute évidence que l’IA générative d’OpenAI a été entraînée sur la production du studio, sans accord ni autorisation [3]. Et même si le cadre juridique d’une telle utilisation n’est pas encore clarifié, même si la loi ne protège pas un style (et encore moins un style collectif), il est indéniable qu’il s’agit d’une appropriation.

    Circonstance aggravante, cela semble aller directement à l’encontre de la volonté de Miyazaki lui-même, qui est réputé avoir qualifié la génération d’animation par IA « d’insulte à la vie elle-même » (la dureté de cette phrase semble viser plus particulièrement la génération de mouvements non humains, mais sa consternation devant le principe même de la technique est très visible [4]). Seulement, on ne lui a pas demandé son avis.

    Pas plus que ne demandent quoi que ce soit les partisans MAGA [5], qui sont nombreux à s’être emparés de cette machine à mèmes, notamment sur X, ou la Maison-Blanche elle-même qui n’a pas manqué d’enfourcher la tendance de la façon la plus déshumanisante possible. La ghiblimation en cours sert donc aussi à camoufler la violence politique sous un vernis visuel familier et rassurant. Et une œuvre dont les thèmes récurrents sont l’antifascisme, la solidarité et le respect de la nature est recyclée par une idéologie qui prône son exact opposé.

    En somme, la ghiblimation est une sublimation, au sens physique du terme : elle fait passer une œuvre solide directement à l’état gazeux. En extrayant un soi-disant « style » pour le séparer du reste de l’œuvre et donc de son sens, OpenAI a permis une forme d’expropriation du créateur, suivie d’une déclinaison infinie et gratuite, ouverte à tous les contresens puisque dénaturée ; une exploitation totale.

  • OpenAI opens an animated can of worms - POLITICO
    https://www.politico.com/newsletters/digital-future-daily/2025/03/31/openais-studio-ghibli-play-and-its-discontents-00261188
    https://www.politico.com/dims4/default/1b14a6c/2147483647/resize/762x/quality/90/?url=https%3A%2F%2Fstatic.politico.com%2F4d%2F02%2Fe4d3f2f441ac909d60b35c0

    The latest update of OpenAI’s new image-generation software has sparked a flood of viral images recreated in the style of Studio Ghibli, the Japanese animation studio — and kicked off a furious fight over the uses and abuses of AI, including its uncertain copyright status and its potential effect on the environment.

    As OpenAI CEO Sam Altman made clear, he and his fellow executives deliberately chose to create the first images highlighting their new image-generation tech in the warm, slightly nostalgic style of Hayao Miyazaki, Ghibli’s legendary chief animator.

    And it worked — huge numbers of people uploaded photos of their family and friends into ChatGPT, eager to recreate their cherished images in Ghibli’s iconic style. The company’s user base appears to have ballooned as a result.

    The ironies are many — including the fact that Miyazaki is particularly known for painstaking, hand-drawn work that has managed to survive and thrive in the age of computer animation. If Altman had wanted to highlight the raw potential of AI to take over whole realms of human art and talent, he couldn’t have picked a better vehicle. Some critics even claimed that exerting power over animators like Miyazaki was a deliberate part of OpenAI’s strategy.

    And there are even darker sides to the viral trend. Some used ChatGPT’s new capabilities to Ghibli-fy horrific historical scenes, including the 9/11 attacks and the murder of George Floyd. The White House itself used Ghibli’s wholesome style to depict a real-world immigration arrest.

    None of this appears to have been done with the permission of Miyazaki or Studio Ghibli. “I don’t even want to imagine what Miyazaki’s reaction would be to that,” said Susan Napier, a professor at Tufts University who wrote a book on the Japanese animator. She noted that Miyazaki once refused to attend an Oscars ceremony, despite winning an award, over his anger at the American invasion of Iraq.

    “The idea that this work that he has built is being repurposed by a government agency in the United States would be, I think, rather a nightmare,” Napier told DFD.

    Miyazaki has so far been silent. But if he did decide to sue, it’s not clear that he’d have a case.

    Multiple legal challenges targeting the use of copyrighted works to train AI models are wending their way through U.S. courts. At the heart of those cases is the “fair use” doctrine of copyright law, which allows individuals and companies to make limited use of copyrighted material without permission. Chris Lehane, OpenAI’s vice president of global policy, said this month that the company “continue[s] to apply that fair use doctrine consistent with the technology.” Like other AI companies, OpenAI recently pressed the White House to ensure that fair use extends to AIs trained on copyrighted material.

    Bradley Hulbert, an intellectual property lawyer and founding partner of MBHB, told DFD that there is no single test in American jurisprudence for when an AI-generated work infringes on copyright.

    The most stringent test, developed by the 9th Circuit Court of Appeals, includes an examination of whether the overall “look and feel” of a generated work is “substantially similar” to the original. But Hulbert said that’s not a universal standard — and for businesses like OpenAI to have certainty, he said either the Supreme Court or Congress should move to create one.

    So far, neither Studio Ghibli nor its affiliates have announced any plans to challenge OpenAI’s use of their image style. On Friday, the North American distributor for Studio Ghibli released a statement celebrating support for hand-drawn animation “in a time when technology tries to replicate humanity.”

    In response to a question from DFD regarding copyright concerns raised by the Ghibli trend, an OpenAI spokesperson said the company “continue[s] to prevent generations in the style of individual living artists, but we do permit broader studio styles — which people have used to generate and share some truly delightful and inspired original fan creations.”

    The spokesperson added that the company is “learning from real-world use and feedback, and we’ll keep refining our policies as we go. Our image generation tools are designed to support human creativity, not replace it.”

    As with many uses of AI, there’s no easy line to draw between what’s “creative” and what’s just theft.

    Dean Ball, a research fellow at the libertarian Mercatus Center and non-resident senior fellow at the pro-tech Foundation for American Innovation, called the Ghibli trend “a wonderful collective experience” and said there will be “lots of people that go and watch Miyazaki movies because of this.”

    Even Napier — who said Studio Ghibli’s wholesome, pro-environmental and animistic worldview is “being kind of blasphemed” by ChatGPT — suggested it was nice to see so many people joyfully depicting their families through the beautifully transcendent art style.

    The Ghibli trend also raised the hackles of environmentalists, many of whom were already worried by AI’s runaway use of energy resources. As the trend took off late last week, Altman — in a kind of humblebrag about his new platform’s popularity — warned that OpenAI’s GPU’s were “melting” and imposed rate limits on image generation. The admission prompted a surge of concern among people worried about AI’s carbon footprint.

    But Ball said that even if huge amounts of energy are being diverted to the creation of anime-style images, it shouldn’t be viewed as a waste of resources.

    “If we cure cancer in the next 10 years, we’re going to do it on chips that were originally designed to play video games,” Ball said.

    OpenAI’s new update puts the long-term fate of all artists into stark relief. It’s not just Ghibli — the technology appears able to recreate any art style, from Van Gogh to the Simpsons, with uncanny accuracy. Critics fret that ChatGPT, and other tech like it, will soon put most human artists out of work.

    “It’s conceivable that the opportunities for human-created art in the digital domain are going to change, and they may well diminish,” Ball admitted. But he framed the concern as an inevitable byproduct of technological progress — the latest iteration in the kind of creative destruction that replaced horses with automobiles.

    “Nobody’s entitled to have their craft stay completely the same forever,” Ball said.

    #Intelligence_artificielle #ChatGPT #Myazaki #Ghibli #Propriété_intellectuelle #Images

  • L’#IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

    Le risque premier avec l’#intelligence_artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

    La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

    Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux #centres_de_données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les #impacts_environnementaux de ces « #data_centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

    « Plus grand est le modèle, mieux c’est »

    L’ouverture au public de l’agent conversationnel d’#OpenAI, #ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’#IA_génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

    Ces #grands_modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

    Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les #données_personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de #données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

    Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur impact climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.
    Combien consomme une requête ChatGPT ?

    On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

    Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’#impact_carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

    Produire une #image, c’est pire. La startup #HuggingFace, à l’origine de l’#IA_Bloom, a été l’une des premières à estimer les #émissions_de_gaz_à_effet_de_serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

    Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman,, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

    En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

    En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

    De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

    Une explosion de la consommation d’électricité

    Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les #cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

    Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

    Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

    « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de Microsoft ont bondi de 29 % entre 2020 et 2023.

    Des investissements massifs aux dépens des populations

    Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

    Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

    Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
    Des engagements « durables » non contraignants

    Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

    Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

    Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

    https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

    #environnement #climat #changement_climatique #pollution #visualisation #infographie

    • Se contenter de « calculer » la consommation énergétique directe de l’IA, c’est omettre de « calculer » ses effets induits, ses conséquences systémiques, puisque « grâce » à l’IA, on peut faire plus de croissance générale. Sans même parler des effets rebonds tous azimuts... Par exemple, on peut utiliser l’IA pour produire un article de blog. Cette utilisation d’IA consomme une unité d’énergie mais elle a aussi permis d’augmenter le volume de contenu qui lui même consomme de l’énergie sur les serveurs.

  • Les IA génératives ou la pensée en bouillie
    https://academia.hypotheses.org/60577

    Deux billets d’humeurs piquants au sujet des IA génératives écrits par des universitaires nord-américains ont été publiés ces derniers jours. Le premier, par le philosophe et poète Troy Jollmore, intitulé “Autrefois, mon métier était d’enseigner à des étudiant.e.s. A présent, … Continuer la lecture →

    ##ResistESR #En_partage #Lectures_/_Readings #Libertés_académiques_:_pour_une_université_émancipatrice #Pratiques_pédagogiques #Chatgpt #Intelligence_artificielle

  • #Guide de l’étudiant pour ne pas écrire avec #ChatGPT

    OpenAI a publié un « Guide de l’étudiant pour écrire avec ChatGPT » (https://openai.com/chatgpt/use-cases/student-writing-guide). Dans ce billet, je passe en revue leurs #conseils et je propose quelques contre-#arguments, d’un point de vue d’enseignant-chercheur. Après avoir abordé chacune des 12 suggestions d’OpenAI, je conclus en évoquant rapidement les aspects éthiques, cognitifs et environnementaux que tout étudiant devrait considérer avant de décider d’utiliser ou non ChatGPT. J’ajoute quelques commentaires en fin de billet au fil des retours critiques. (Version anglaise : A Student’s Guide to Not Writing with ChatGPT)

    « Déléguez la mise en forme des #citations à ChatGPT. L’IA excelle dans l’automatisation des tâches fastidieuses et chronophages telles que la présentation des citations. N’oubliez cependant pas de vérifier l’exactitude de vos bibliographies par rapport aux documents source. »

    Cette dernière phrase est probablement là pour des raisons juridiques, parce qu’ils savent qu’ils ne peuvent pas dire que ChatGPT produira systématiquement des résultats exacts. En effet, mettre en forme des citations et des #bibliographies consiste à présenter des métadonnées conformément à des règles formelles (les #styles_bibliographiques). On n’est pas ici dans le domaine du langage naturel. ChatGPT fera des #erreurs, qui prendront du temps à trouver et à corriger. Alors utilisez plutôt un logiciel de gestion bibliographique, tel que #Zotero. Il s’occupera de vos citations et bibliographies de manière fiable, parce qu’il est programmé pour. Il vous suffit de nettoyer les métadonnées des références au fur et à mesure que vous les collectez, et vos bibliographies ne contiendront jamais d’erreurs.

    –-

    « 2. Informez-vous rapidement sur un nouveau sujet. ChatGPT peut vous aider à démarrer vos recherches en vous permettant d’acquérir un #socle_de_connaissances sur un sujet. »

    ChatGPT est un simulateur de conversation humaine, et non un système d’information ou une base de connaissances. L’#information, ça se trouve dans des cerveaux, des documents et des bases de données. ChatGPT n’est pas doté de capacité de #compréhension : il ne fait que produire des réponses plausibles en tant que réponses, sans comprendre rien à rien. Il ne peut donc pas vous informer de manière fiable. Ne demandez pas à un intermédiaire qui n’a pas la capacité de comprendre une information de vous l’expliquer : à la place, faites un tour dans la #bibliothèque universitaire la plus proche et cherchez vous-même l’information, avec l’aide des bibliothécaires et des documentalistes.

    –-> J’ai tendance à conseiller de solliciter les enseignants, bibliothécaires et co-étudiants. Mais comme me le suggère Adrien Foucart sur Mastodon, peut-être que vous préférez apprendre par vous-même. Dans ce cas, le plus important est de développer vos compétences en recherche d’information. Selon moi, la référence reste le tutoriel CERISE (Conseils aux Etudiants en Recherche d’InformationS Efficace : https://callisto-formation.fr/course/view.php?id=263), que vous pouvez suivre de manière entièrement autonome.

    –-

    « 3. Demandez une feuille de route pour trouver des #sources pertinentes. ChatGPT peut guider votre recherche en vous suggérant des chercheurs, des sources et des termes de recherche pertinents. Mais n’oubliez pas : bien qu’il puisse vous orienter dans la bonne direction, ChatGPT ne remplace pas la lecture de #sources_primaires et d’articles évalués par des pairs. Et comme les #modèles_de_langage peuvent générer des informations inexactes, vérifiez toujours vos faits. »

    (Ce point est encore plus litigieux que le point 1, donc OpenAI nous gratifie de deux phrases complètes qui sont probablement là pour des raisons juridiques.) Parce que ChatGPT n’a pas de capacité de compréhension, il ne sait pas ce que sont des choses comme « une source » ou « une affirmation vraie ». Vous ne pouvez donc pas vous fier à ses indications. Vous perdrez du temps et ferez des erreurs. Encore une fois, demandez à un humain ou faites une recherche de documents et de données dans un vrai système d’information.

    –-

    « 4. Approfondissez votre compréhension en posant des questions précises à ChatGPT. »

    Parce que ChatGPT n’a pas de capacité de #compréhension, il ne connaît pas les réponses réelles à vos questions, seulement des réponses plausibles. Il génèrera des réponses vraies et fausses sans distinction. Cela retardera votre apprentissage. Encore une fois, passez par des humains, des documents et des données directement au lieu de demander à ChatGPT.

    –-

    « 5. Améliorez votre #écriture en demandant à ChatGPT comment il trouve votre structure. »

    Parce que ChatGPT n’a pas de capacité de compréhension, il ne comprend pas ce qu’est une structure de texte « attendue » ou « améliorée », même si vous lui décrivez. Il ne peut que rehausser la qualité de votre texte à ce qu’il pense être un niveau moyen, ou l’abaisser à ce même niveau. Dans les deux cas, vous obtiendrez des notes médiocres. Pour progresser réellement dans votre écriture, demandez conseil à un professeur ou joignez un groupe d’étudiants qui s’entraident là-dessus  ; si un tel groupe n’existe pas, réunissez quelques personnes et créez-le – ce sera une expérience utile en soi.

    –-

    « 6. Vérifiez votre raisonnement en demandant à ChatGPT de transformer votre texte en liste à puces. »

    Comme l’a récemment montré une étude australienne (https://pivot-to-ai.com/2024/09/04/dont-use-ai-to-summarize-documents-its-worse-than-humans-in-every-way), ChatGPT ne sait pas #résumer, seulement #raccourcir. À l’heure actuelle, savoir résumer reste un savoir-faire humain. Un #savoir-faire que vous pouvez acquérir en suivant un cours de #résumé dans un cursus en sciences de l’information, un programme de formation continue, un cours en ligne, etc. (Je suis plutôt partisan de faire les choses dans l’autre sens mais plusieurs collègues me disent que sur le fond cette méthode du reverse outlining leur est très utile et qu’ils la conseillent à des étudiants.)

    –-

    « 7. Développez vos idées à travers un dialogue socratique avec ChatGPT. »

    Enfin un conseil qui est lié à la fonction réelle de ChatGPT : simuler la communication humaine. Cependant, le #dialogue_socratique implique que vous conversez avec quelqu’un qui a une compréhension supérieure du sujet et qui vous amène progressivement au même niveau. Malheureusement, ChatGPT n’est pas Socrate. Utiliser ChatGPT comme partenaire d’entraînement vous restreindra à son niveau : celui d’une machine qui produit des phrases humaines plausibles. Proposez plutôt cet exercice à vos professeurs et à vos camarades, et mettez-vous avec quelqu’un de plus avancé que vous pour progresser.

    –-

    « 8. Mettez vos idées à l’épreuve en demandant à ChatGPT des #contre-arguments. »

    Pour améliorer votre capacité de #réflexion, vous devez être capable de trouver des contre-arguments, pas seulement d’y répondre. Utiliser ChatGPT pour faire la moitié du travail vous empêchera de progresser. Trouvez vous-même des contre-arguments. Et si vous avez besoin d’aide, ne demandez pas à ChatGPT : il ne peut produire que des arguments moyens, ce qui vous fera rapidement stagner. Faites plutôt appel à quelqu’un qui sait imaginer des arguments solides qui vous obligeront à réfléchir.

    –-

    « 9. Comparez vos idées à celles des plus grands penseurs de l’histoire. »

    ChatGPT peut vous divertir en créant de toutes pièces une pièce de théâtre entre philosophes, mais il n’a pas la capacité de concevoir un exercice aussi complexe de manière à ce que vous puissiez en tirer des enseignements. Suggérez plutôt cette idée à un enseignant, dont c’est le métier.

    –-

    « 10. Améliorez votre écriture en demandant à ChatGPT de vous faire des retours successifs. »

    Il s’agit d’une variante du point 5 sur le fait de solliciter des #avis. Une fois encore, utiliser ChatGPT limitera votre niveau à ce qu’une machine pense être le niveau de l’humain moyen. Faites plutôt appel à vos professeurs, organisez des sessions d’évaluation par les pairs avec vos camarades, et faites en sorte que ces sessions soient itératives si nécessaire.

    –-

    « 11. Utilisez la fonctionnalité #Mode_vocal_avancé de ChatGPT pour en faire un compagnon de #lecture. »

    (« Mode vocal avancé » signifie que ChatGPT vous écoute lire quelque chose à haute voix et tente de répondre à vos questions sur ce que vous venez de lire). Il s’agit d’une variante des points 2-4 concernant le fait de s’informer. ChatGPT n’a pas de capacité de compréhension. Il ne fournira donc pas d’interprétations fiables de ce que vous lisez. À la place, cherchez d’abord la définition des mots que vous ne connaissez pas dans des dictionnaires  ; cherchez des analyses rédigées par des humains pour y trouver des interprétations qui vous aideraient à comprendre ce que vous lisez  ; demandez leur avis à d’autres étudiants travaillant sur le même texte.

    –-

    « 12. Ne vous contentez pas de répéter ce que vous avez déjà fait – améliorez vos compétences. […] Demandez à ChatGPT de vous suggérer des moyens de développer votre capacité à penser de manière critique et à écrire clairement. »

    ChatGPT n’a pas de capacité de compréhension, donc la signification d’expressions comme « pensée critique » et « techniques d’écriture » lui échappent. Prenez ces expressions et entrez-les dans le moteur de recherche du catalogue de la bibliothèque de votre université  ; si vous préférez, demandez conseil à un bibliothécaire. Lisez ce que vous trouvez, et demandez à vos professeurs ce qu’ils en pensent. Pour le reste, rien ne vaut l’entraînement : comme disent les anglophones, practice, practice, practice.

    –-

    Quelques mots de conclusion

    ChatGPT est conçu pour simuler un partenaire de conversation humain. Il s’appuie sur un modèle probabiliste du langage (quel mot est le plus susceptible d’arriver après tel mot) et communique pour communiquer, pour créer l’illusion de la conversation. Il bavarde, tchatche, blablate, indifférent à la signification de ce qu’il dit, indifférent à la vérité. Tout ça est très divertissant mais une attraction de fête foraine n’est pas un outil d’apprentissage fiable, et je pense donc que les étudiants devraient s’en méfier.

    Lorsque des étudiants me posent des questions sur ChatGPT, je mentionne les trois problèmes suivants :

    #éthique : la plupart des modèles de langue ont été construits à partir de données volées  ;
    - #cognition : l’utilisation d’outils comme ChatGPT rend plus dépendant des outils et moins autonome intellectuellement, ainsi que des études ont commencé à le montrer (en voici une réalisée en France)  ;
    #environnement : les coûts énergétiques de l’IA générative sont supérieurs d’un ordre de grandeur à ceux des outils préexistants (et elle n’est même pas rentable, donc on brûle du carburant pour rien).

    C’est généralement suffisant pour faire réfléchir la plupart de mes étudiants. Ce sont des jeunes gens créatifs, ils ont donc de l’empathie pour les créateurs qui ont été spoliés. Pour progresser et obtenir leur diplôme, ils veulent des outils qui leur font gagner du temps, pas des gadgets qui les rendent moins autonomes intellectuellement. Ils sont frappés d’apprendre que ChatGPT consomme dix fois plus d’énergie que Google pour répondre à la même question, généralement en pire (mais Google est en train de rattraper ChatGPT vers le bas).

    La bonne nouvelle, c’est que comme le dit le blogueur Jared White :

    « Vous pouvez littéralement ne pas l’utiliser. […] vous pouvez être un technicien expert et un créateur épanoui, au fait de son époque, très connecté, et rester complètement à l’écart de ce cycle de hype. »

    Si vous avez besoin de plus d’informations sur ce sujet, je vous recommande vivement de consulter le site Need To Know de Baldur Bjarnason (https://needtoknow.fyi). Il s’agit d’une synthèse accessible d’un état de l’art très fouillé sur les risques liés à l’utilisation de l’IA générative. C’est un excellent point de départ. (Et si vous connaissez des ressources similaires en français, je suis preneur.)
    Quelques commentaires supplémentaires
    Suite à la publication de ce billet, j’ai reçu par mail une critique de mon point de vue sur ChatGPT, en particulier l’idée qu’il n’a pas de capacité de compréhension. Je partage ma réponse ci-dessous. Il se peut que d’autres commentaires s’ajoutent ainsi au fil du temps.

    L’idée que ChatGPT n’a pas de capacité de compréhension est discutable. Tout dépend de la définition que l’on donne à « compréhension ». Marcello Vitali-Rosati soutient que le sens n’est pas une prérogative humaine, que les humains ont une forme d’intelligence et que l’IA en a une autre – tout dépend de la façon dont nous définissons les différentes formes d’intelligence. Il évoque le fait que ChatGPT sait faire des choses que les machines ne pouvaient pas faire auparavant mais qu’il échoue à faire d’autres choses que des systèmes plus simples savent faire depuis longtemps. Il serait donc plus juste de dire que ChatGPT possède une forme d’intelligence qui lui est propre, et qui est adaptée à certaines tâches mais pas à d’autres. Marcello mentionne par exemple que ChatGPT peut créer des discours politiques convaincants mais qu’il n’est pas capable de donner la liste des écrits d’un auteur de manière fiable.

    Je suis d’accord avec tout cela. Ça m’amène à préciser un peu les choses : ChatGPT comprend clairement comment communiquer. La manière dont il arrive à cette compréhension est une forme d’intelligence. Le problème, c’est que cette compréhension n’est pas celle qui compte dans un contexte d’apprentissage, de mon point de vue d’enseignant. Comprendre comment communiquer est différent de comprendre une information. C’est fondamental à mes yeux. Et c’est là, à mon avis, que le débat peut véritablement se situer. Quand on fait des études de commerce, ChatGPT est sans doute un outil intéressant pour travailler sur le marketing (même si je pense qu’il vaut mieux y réfléchir soigneusement, du fait des questions éthiques et environnementales). Mais en dehors des domaines dont le matériau principal est le bullshit (tout jugement de valeur mis à part), son utilité est moins évidente.

    Les tâches mentionnées dans le « guide » d’OpenAI font partie de celles où ChatGPT échoue à donner des résultats fiables. ChatGPT n’est pas un système d’information : qu’il passe d’une exactitude de 90 % à 99 %, voire à 99,99 %, ça ne change rien au fait que le risque d’erreur est présent du fait de la nature même de l’outil. On peut légitimement ne pas vouloir prendre ce risque. Quant aux compétences, je crois que les seules personnes qui trouvent ChatGPT bluffant sont celles qui sont moins bonnes que lui dans l’exécution des tâches qui lui sont confiées. Regardons les choses en face : ChatGPT est aussi nul que l’humain moyen. Si on s’appuie sur cet outil pour progresser, tout ce qu’on peut faire c’est plafonner dans le moyen.

    –-

    15/11 – Ce billet sur ChatGPT m’a valu une réponse… générée par ChatGPT ! Sur LinkedIn, Francesc Pujol propose une « critique de ma critique », qu’il explique avoir générée via ChatGPT. Je n’ai pas été convaincu par ce qui ressemble beaucoup à une série de vagues déclarations un peu incantatoires sur la valeur supposée de l’outil. À la fin du texte, l’auteur (humain ou machine ?) dit que mon propos illustre une position « réactionnaire » et « déséquilibrée », et suggère que les gens comme moi pensent que les étudiants n’ont pas envie d’apprendre et les profs pas envie d’enseigner. Charmant !

    Pujol ajoute qu’il va faire lire mes objections à OpenAI et sa « critique de ma critique » par quelques personnes, sans leur dire qui a écrit quoi, pour voir qui de moi ou de ChatGPT produit le plus de déclarations un peu vagues… Là aussi, je ne suis pas convaincu. Mes arguments reposent sur une lecture de la littérature critique sur l’IA générative. Dans mon billet, je renvoie notamment à l’état de l’art réalisé par Baldur Bjarnason et son ouvrage The Intelligence Illusion. Escamoter cela, demander aux gens d’évaluer une série de phrases sans contexte, c’est traiter ce qui devrait être une discussion basée sur des faits comme une dégustation à l’aveugle chez un caviste. Ça me semble particulièrement problématique quand le débat porte précisément sur l’information, les sources, les connaissances vérifiables. Je comprends qu’en tant que partisan de l’utilisation de l’IA dans l’enseignement supérieur on ressente le besoin de défendre ses choix. Encore faudrait-il traiter ses opposants avec un minimum de respect et de sérieux intellectuel.

    –-

    17/11 – Deux jours après la publication de ce billet, Marcello a publié « La créativité des LLM » sur son blog. Il y explique le concept de température, qui est une définition formelle de la créativité mise en œuvre par un outil comme ChatGPT. La fin du billet aide à bien cerner sa position dans un débat qui est de nature épistémologique :

    « Ne me faites pas le petit jeu consistant à dire : “mais non, la créativité est plus que ça !” Si vous n’êtes pas capables de définir formellement ce plus, alors cela veut tout simplement dire que vos idées ne sont pas claires. »

    Pour moi les programmes comme ChatGPT ne sont pas informatifs, en tout cas pas de manière suffisamment fiable dans un contexte éducatif : ils comprennent ce qu’est communiquer, pas informer. Par contre, ils relèvent bien du domaine créatif. Si on n’est pas dans un contexte où la fiabilité de l’information est importante, et que par ailleurs on apporte des réponses aux enjeux d’éthique et de coût énergétique, alors je ne m’oppose pas du tout à l’usage créatif des #LLM.

    https://www.arthurperret.fr/blog/2024-11-15-guide-etudiant-ne-pas-ecrire-avec-chatgpt.html

    #enseignement #AI #IA #intelligence #ESR #université

    –-
    signalé aussi par @monolecte :
    https://seenthis.net/messages/1082701

  • ChatGPT’s Political Views Are Shifting Right, a New Analysis Finds

    While the chatbot still seems to lean left on many issues, its bias is changing.

    When asked about its political perspective, OpenAI’s #ChatGPT says it’s designed to be neutral and doesn’t lean one way or the other. A number of studies in recent years have challenged that claim, finding that when asked politically charged questions, the chatbot tends to respond with left-leaning viewpoints.

    That seems to be changing, according to a new study published in the journal Humanities and Social Sciences Communications by a group of Chinese researchers, who found that the political biases of OpenAI’s models have shifted over time toward the right end of the political spectrum.

    The team from Peking University and Renmin University tested how different versions of ChatGPT—using the GPT-3.5 turbo and GPT-4 models—responded to questions on the Political Compass Test. Overall, the models’ responses still tended toward the left of the spectrum. But when using ChatGPT powered by newer versions of both models, the researchers observed “a clear and statistically significant rightward shift in ChatGPT’s ideological positioning over time” on both economic and social issues.

    While it may be tempting to connect the bias shift to OpenAI and the tech industry’s recent embrace of President Donald Trump, the study authors wrote that several technical factors are likely responsible for the changes they measured.

    The shift could be caused by differences in the data used to train earlier and later versions of models or by adjustments OpenAI has made to its moderation filters for political topics. The company doesn’t disclose specific details about what datasets it uses in different training runs or how it calibrates its filters.

    The change could also be a result of “emergent behaviors” in the models like combinations of parameter weighting and feedback loops that lead to patterns that the developers didn’t intend and can’t explain.

    Or, because the models also adapt over time and learn from their interactions with humans, the political viewpoints they express may also be changing to reflect those favored by their user bases. The researchers found that the responses generated by OpenAI’s GPT-3.5 model, which has had a higher frequency of user interactions, had shifted to the political right significantly more over time compared to those generated by GPT-4.

    The researchers say their findings show popular generative AI tools like ChatGPT should be closely monitored for their political bias and that developers should implement regular audits and transparency reports about their processes to help understand how models’ biases shift over time.

    “The observed ideological shifts raise important ethical concerns, particularly regarding the potential for algorithmic biases to disproportionately affect certain user groups,” the study authors wrote. “These biases could lead to skewed information delivery, further exacerbating social divisions, or creating echo chambers that reinforce existing beliefs.”

    https://gizmodo.com/chatgpts-political-views-are-shifting-right-a-new-analysis-finds-2000562328

    #droite #AI #IA #intelligence_artificielle #droite #algorithmes #idéologie #openAI

  • Modern-Day Oracles or #Bullshit Machines?
    https://thebullshitmachines.com

    How to thrive in a #ChatGPT world
    Developed by Carl T. Bergstrom and Jevin D. West

    Cedric Rossi - Mastodon
    https://mapstodon.space/@cedric/113950839722722797

    “Modern-Day Oracles or #Bullshit Machines” : un cours (en anglais) disponible gratuitement en ligne, principalement à destination des étudiant·es (et de leurs enseignant·es) sur l’usage des #LLM.

    Comme le décrit l’un des auteurs sur un autre réseau  : “Ce n’est pas un cours d’informatique. C’est un cours de sciences humaines sur la façon d’apprendre, de travailler et de prospérer dans un monde d’#IA.”

  • Pourquoi je n’utilise pas #ChatGPT

    L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un #argumentaire que je vais développer ici.

    1. Introduction

    En tant qu’enseignante-chercheuse en informatique, j’ai lu l’article fondateur On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? (https://dl.acm.org/doi/10.1145/3442188.3445922) en 2021. Tous les #effets_négatifs observés des grands modèles de langage et des IAs génératives sont annoncés dans cet article, comme le dit d’ailleurs l’une des autrices dans un entretien récent. Quand j’ai été confrontée personnellement à des textes rendus par des étudiant·es et écrits par ChatGPT, dès janvier 2023, ma méfiance a priori pour cette branche du numérique a commencé à s’incarner dans l’expérience personnelle. Depuis j’accumule des articles et des prises de position sur ce phénomène, mais je n’ai jamais été tentée d’essayer moi-même. Avant de faire un tour d’horizon des divers #arguments qui m’ont fait refuser absolument l’#usage — et critiquer vertement le développement — des IAs génératives en tout genre, que ce soit dans l’#enseignement_supérieur ou ailleurs, précisons un peu le sujet.

    Dans la suite de ce billet, il sera question très spécifiquement d’IAs génératives (comme ChatGPT). Le #vocabulaire a beaucoup glissé ces derniers temps, mais rappelons que l’IA est une idée très ancienne, et que si on se met à qualifier tout le numérique d’IA, il va devenir difficile de parler précisément des choses. Donc : tout le #numérique n’est pas de l’IA ; parmi tout ce qui relève de l’IA, tout n’est pas de la famille “#apprentissage_machine” ; et finalement parmi la famille “apprentissage machine”, tout n’est pas une IA générative comme ChatGPT et consort. On trouvera un historique de l’IA et les définitions de ces notions dans le numéro de juin 2024 de la revue La vie de la recherche scientifique sur l’IA (https://www.snesup.fr/publications/revues/vrs/intelligence-artificielle-vrs437-juin-2024).

    À quoi sert de refuser d’utiliser ChatGPT ? Je suis parfaitement consciente que ce #refus peut sembler totalement vain, puisque nous sommes tous et toutes entouré·es d’étudiant·es et de collègues qui s’en servent très régulièrement, et que nos gouvernements successifs se ruent sur les promesses d’#automatisation et d’économie de moyens humains envisagées en particulier dans les services publics. Après tout, le #progrès_technologique est inéluctable, n’est-ce pas ? Je n’ai pas la moindre illusion sur ma capacité à changer les pratiques à moi toute seule. J’ai encore moins d’illusions sur une possible influence citoyenne sur le développement de ces outils, par les temps qui courent. Le livre de Yaël Benayoun et Irénée Régnault intitulé Technologie partout, démocratie nulle part est paru fin 2020 (https://fypeditions.com/echnologies-partout-democratie-nulle-part), mais je gage qu’un tome 2 entier pourrait être consacré au déploiement des IA génératives. Pourtant, même et surtout si ce déploiement semble inéluctable, il n’est pas interdit de se demander si les IAs génératives, et leur mise à disposition sous forme de Chatbot, sont une bonne chose dans l’absolu.

    Ce qui suit n’est pas un article de recherche. C’est une prise de position personnelle, émaillée de mes lectures préférées sur le sujet. Cette position est basée sur des préoccupations déjà anciennes à propos des impacts des technologies numériques, renforcées par la fréquentation assidue des domaines des systèmes dits critiques (l’informatique dans les trains, les avions, les centrales nucléaires, …). Dans ces domaines la sécurité et la sûreté priment sur la performance, les durées de vie des systèmes sont plus longues que dans l’informatique grand public, les acteurs sont heureusement frileux vis-à-vis d’évolutions trop rapides. Je ne suis pas chercheuse en IA et ne l’ai jamais été. Je n’ai pas pratiqué de longues expérimentations des outils disponibles, même si j’ai lu attentivement ce qu’en disaient les collègues qui l’ont fait. Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques. Si aucune technologie n’est jamais neutre, dans le cas présent la configuration politico-financière extrêmement concentrée dans laquelle se déploient ces outils est particulièrement préoccupante et devrait selon moi conduire à une certaine prise de conscience. Et cela même si l’on est impressionné par les capacités de ces outils, ou tenté par les promesses de gain de temps et d’augmentation de créativité, voire convaincu que le stade de l’’IA générale capable de surpasser l’humain est imminent (et désirable).

    Le tour d’horizon qui suit est uniquement à charge. L’espace médiatique étant saturé de promesses politiques et d’articles dithyrambiques, ce peut être vu comme un petit exercice de rééquilbrage du discours. Je cite un certain nombre de collègues qui font une critique argumentée depuis leur domaine de recherche. Il y en a beaucoup d’autres, dont celles et ceux qui s’expriment dans le numéro de juin 2024 de la revue La vie de la recherche scientifique cité plus haut.
    2. Les impacts socio-environnementaux du numérique sont déjà préoccupants, cela ne va pas s’arranger

    Le déploiement en grand des IAs génératives étant relativement récent, le travail de recherche approfondi et consolidé sur l’estimation précise de leurs impacts environnementaux ne fait que démarrer. Par ailleurs les outils sont particulièrement opaques, ils évoluent très rapidement, et les promesses des vendeurs d’IA n’aident pas à y voir clair. Sans attendre des chiffres consolidés, on peut s’intéresser aux effets locaux prévisibles grâce aux travaux de collectifs comme Le nuage était sous nos pieds ou Tu nube seca mi río ou encore aux collectifs qui ont protesté contre l’installation de datacenters au Chili. Cela permet de rendre plus concrète la matérialité des infrastructures du numérique, et de constater les conflits d’accès locaux sur les ressources en électricité ou en eau. L’épisode IA qu’à algorithmiser le climat du podcast de Mathilde Saliou sur Next est aussi un bon tour d’horizon des impacts environnementaux. Malgré les promesses des grandes entreprises de la Tech d’alimenter leurs infrastructures uniquement avec de l’énergie “verte”, leur récent engouement pour le renouveau du nucléaire laisse penser qu’elles envisagent un avenir où ces énergies seront loin de répondre à leurs besoins. Dans son podcast ‘Tech Won’t Save Us’ Paris Marx a produit un épisode passionnant sur le nucléaire et la tech. Il faut enfin garder en tête que la promesse des grandes entreprises de la tech d’alimenter leurs infrastructures numériques uniquement avec de l’énergie verte, même si elle se réalise, ne les absout nullement de leurs impacts environnementaux. En effet la production d’électricité n’est pas infinie, et celle qu’on consacre aux infrastructures du numérique n’est pas utilisable ailleurs. Si monopoliser les sources d’énergie “verte” pour le numérique oblige d’autres usages à rouvrir ou prolonger des centrales à charbon, alors le numérique est aussi indirectement responsable de leurs émissions.

    Bref, si la trajectoire des impacts environnementaux du numérique était déjà un problème avant l’apparition des IAs génératives, les impacts ont récemment subi un coup d’accélérateur. Ce constat suffirait amplement à remettre en cause sérieusement le déploiement tous azimuts de ces technologies, sauf si l’on croit vraiment que l’IA va sauver le monde, ce qui n’est pas mon cas. C’est un pari risqué que fait pourtant allègrement l’ancien PDG de Google, quand il affirme que les objectifs climatiques étant inatteignables, il faut mettre tous nos moyens sur l’IA en espérant qu’elle résoudra le problème. Il se peut que les projections pharaoniques de ressources nécessaires dans les 10 ans à venir (croissance exponentielle de la demande en électricité et en matériaux) se heurtent rapidement à des limites physiques. Il n’en reste pas moins que de gros dégâts seront déjà irréversibles d’ici-là.

    Au cas où ces impacts environnementaux (qui sont d’ailleurs déjà des impacts socio-environnementaux) ne suffiraient pas à disqualifier le déploiement des grandes IAs génératives, les conditions de travail des humains indispensables au développement de ces outils devrait régler la question. Un article récent aborde cette situation en la qualifiant d’esclavage moderne (The Low-Paid Humans Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery’) et le site du projet Diplab d’Antonio Casilli est une mine d’informations sur le sujet, quoi que pas toutes spécifiques aux IAs génératives. Enfin la voracité en données qui fait fi de toute législation ou respect du droit d’auteur apparaît au grand jour dans Meta knew it used pirated books to train AI, authors say. L’excellent 404media titre même OpenAI Furious DeepSeek Might Have Stolen All the Data OpenAI Stole From Us (OpenAI furieux que DeepSeek puisse avoir volé toutes les données que OpenAI nous a voées).
    3. Le contexte politique et économique du déploiement des IAs génératives devrait inciter à la prudence

    Aucune technologie n’est neutre ni inéluctable. Chacune se déploie dans un certain contexte économique et politique qui oriente les choix. Cela a toujours été le cas pour le numérique, depuis le début. L’extrême concentration d’acteurs et de moyens qui préside au déploiement des IAs génératives devrait aider à prendre conscience de cet état de fait. L’annonce récente de 500 milliards de dollars à consacrer au sujet donne la (dé)mesure de la chose. Je ne détaillerai pas les courants politiques et philosophiques qui circulent parmi les promoteurs des IAs. Certains acteurs affirment croire à l’avénement des IAs générales, comme résultat inéluctable de l’accumulation de moyens et de ressources. Que l’on fasse miroiter ces IAs capables de sauver le monde, ou qu’au contraire on annonce l’apocalypse, leur prise de pouvoir et la fin de l’humanité, on participe à détourner l’attention des dégâts déjà bien présents ici et maintenant. Le livre récent Les prophètes de l’IA – Pourquoi la Silicon Valley nous vend l’apocalypsefait le tour de la question efficacement.

    Bien sûr si l’on pose comme hypothèse initiale que le cerveau humain est un ordinateur, alors un très gros ordinateur va sembler très intelligent, et un plus gros ordinateur encore plus intelligent. Mais l’hypothèse initiale n’a pas de sens. Si les IAs génératives conduisent à la fin de l’humanité, ce sera en monopolisant les ressources et en aggravant les problèmes socio-environnementaux, pas en atteignant la superintelligence.
    4. Quid d’une alternative éthique, souveraine, et aux impacts maîtrisés ?

    Quand j’explique les raisons de mon refus total de mettre le doigt dans l’engrenage ChatGPT, on me cite souvent les alternatives éthiques, souveraines, ouvertes, aux impacts environnementaux maîtrisés, respectueuses des droits des auteurs, etc. Je ne remets pas en cause a priori la qualité de ces développements, ni les motivations de leurs auteurs. Simplement il me semble qu’en pariant sur ces alternatives on passe à côté d’un certain nombre de questions.

    Question 1 – effet d’entraînement. Même s’il est effectivement possible de faire des petites IAs éthiques aux impacts moindres, cela participe à l’acceptation générale de toutes les IAs génératives potentielles, dont celles qui ont un impact énorme et sont fort peu éthiques. Que se passera-t-il quand les petites IAs seront rentrées dans les moeurs, qu’on en sera devenus dépendants pour de nombreuses applications, et que les grandes entreprises du numérique lanceront GTP12 grâce aux 500 milliards promis par le gouvernement US ? Les gens resteront-ils bien sagement utilisateurs des petites IAs ? Faut-il se réjouir de l’annonce de l’IA de l’entreprise chinoise DeepSeek qui semble surpasser très nettement celles des entreprises américaines en coût et ressources nécessaires ? Non, bien sûr. Cela marque le début d’une nouvelle course aux armements, l’enclenchement d’un effet rebond massif. C’est un développement extrêmement mal orienté si l’on s’attarde quelques minutes sur le numérique face aux limites planétaires. Il est urgent au contraire de s’intéresser à des trajectoires décroissantes du numérique, et j’espère qu’on en est encore capables.

    Question 2 – est-ce seulement désirable ? Quoi qu’il en soit des impacts, il est de toute façon permis de se demander si les IAs génératives, et leur mise à disposition sous forme de Chatbot, sont une bonne chose dans l’absolu. Il y a des idées qui sont juste de mauvaises idées, même si elles semblent inéluctables. Dans ce cas tous les impacts, même petits, sont déjà du gaspillage.

    5. Quid des usages utiles ?

    Pour le plaisir de l’argumentation, poursuivons en mettant de côté les impacts et en supposant que c’est une bonne idée d’interagir avec des machines via des modèles de langage. Nous sommes soumis en permamence à un discours politique qui vante les gains en efficacité rendus possibles par le déploiement de ces outils. Pourtant dans le cas des services publics, la numérisation à marche forcée a déjà produit de nombreux dégâts avant même l’introduction des IAs génératives, la presse s’en faisant souvent l’écho (comme par exemple ici : « Je n’ai jamais eu le fin mot de l’histoire » : pourquoi la CAF est une boîte noire pour ses allocataires). Il est fort peu probable que l’introduction des IAs génératives améliore quoi que ce soit à une situation où la numérisation s’est accompagnée de désintermédiation totale. Mais passons en revue quelques-une des promesses les plus courantes et leurs effets envisageables.
    5.1 Le fameux “gain de temps” vs les effets d’accélération

    Le domaine du numérique promet des gains de temps depuis plus de 70 ans. Si la promesse avait été suivie d’effet nous devrions, soit avoir réduit le temps de travail à 1h par semaine, soit avoir multiplié la “productivité” par un facteur énorme. Si ce n’est pas le cas, c’est que ce fameux “temps gagné” a immédiatement été rempli par autre chose, pas nécessairement plus intéressant ni surtout plus productif. Allons-nous continuer longtemps à tomber dans ce piège ?

    Prenons l’exemple promu en ce moment dans les administrations : l’usage des IAs génératives pour rédiger des comptes-rendus de réunions, en visio ou pas. Chacun sait que dans un compte-rendu de réunion on va au-delà de la simple transcription mot à mot. Un bon compte-rendu fait preuve de synthèse, on y trouve les points saillants de la réunion, les accords et les désaccords, les décisions actées ou reportées, les promesses de chacun sur le travail à réaliser avant la prochaine réunion sur le même sujet, etc. La capacité des IAs génératives à résumer des textes ou des transcriptions audio est tout à fait incertaine, avec des risques potentiels assez graves. Une expérience détaillée conduit même à conclure que cet outil ne résume pas, il raccourcit, et c’est très différent. En informaticienne je dirais : “pour raccourcir on peut rester au niveau clavier. Pour résumer il faut repasser par le cerveau”. Mais, toujours pour le plaisir de l’argumentation, supposons que la qualité soit au rendez-vous. Serait-ce désirable pour autant ?

    Comme à chaque fois que le numérique est vendu comme moyen de gagner du temps, il faut se demander comment et avec quoi va se remplir le temps ainsi gagné. Dans le cas des comptes-rendus de réunion, voilà un effet tout à fait probable : une accélération du rythme des réunions. En effet, la contrainte d’avoir à rédiger et diffuser un compte-rendu avant d’organiser la réunion suivante ayant disparu, plus aucune limite naturelle ne s’oppose à organiser une autre réunion très rapprochée de la première. Vous me direz que dans ce cas la limite naturelle suivante sera la non ubiquité des participants potentiels. Ce à quoi je répondrai : même pas, puisqu’on nous propose déjà d’envoyer en réunion un avatar qui y jouera notre rôle : Zoom va permettre à un avatar créé par IA de parler pour vous.

    Au cas où cette prévision vous semblerait peu crédible, rappelez-vous comment vous gériez votre temps professionnel il y a 20 ans, avant le déploiement des outils d’emploi du temps en ligne censés nous faire gagner du temps (j’avoue humblement y avoir cru). Quand j’ai pris mon poste de professeure en 2000, mon emploi du temps du semestre tenait sur un bristol glissé dans mon agenda papier format A6, il était parfaitement régulier pendant les 12 semaines d’un semestre. L’agenda ne me servait qu’à noter les déplacements de un à plusieurs jours et les réunions exceptionnelles. Aujourd’hui sans emploi du temps partagé en ligne et synchronisé avec mon téléphone, j’aurais du mal à savoir le matin en me levant où je dois aller dans la journée, pour rencontrer qui, et sur quel sujet. La puissance des outils numériques avec synchronisation quasi-instantanée entre participants pousse à remplir les moindres coins “libres” des journées. Quand il fallait plusieurs jours pour stabiliser un créneau de réunion, c’était nécessairement assez loin dans le futur, le remplissage de l’emploi du temps de chacun n’était pas parfait, et il restait des “trous”. Il n’y a plus de trous. Nous n’avons jamais été aussi conscients de la pression du temps.

    Prenons aussi l’exemple de la gestion des emails, notoirement si envahissants que certaines entreprises et organisations les ont bannis (parfois pour les remplacer par des outils de chat, ce qui ne résoud pas vraiment le problème, mais passons). Les IAs génératives promettent simultanément de (1) générer des emails au ton professionnel à partir d’un prompt donnant quelques idées ; (2) résumer un email trop long en quelques idées importantes. Cela devrait immédiatement apparaître comme menant à une situation totalement absurde où le passage par un texte long est entièrement invisible aux acteurs humains. Pourquoi alors ne pas s’envoyer simplement des emails de 3 lignes ? Le dessinateur Geluck avait décrit le résultat dans un dessin du Chat en 3 cases : a) le Chat dit ” je me suis acheté deux jeux d’échecs électroniques” ; b) Le Chat dit : “je les ai raccordés l’un à l’autre” ; c) Le Chat, en train de faire sa vaisselle dans un évier plein de mousse dit : “et j’ai la paix”. Si la prolifération des emails dans le milieu professionnel est déjà reconnue comme un problème, fluidifier leur usage ne peut que faire sauter les dernières limites naturelles à leur accumulation.

    Pour conclure sur ce point : si la promesse de “gagner du temps” est tentante, s’il peut sembler dans un premier temps que c’est effectivement le cas, il est fort prévisible que le temps gagné sera reperdu dans une accélération de tout le processus qu’on avait cherché à ainsi optimiser. Rendez-vous dans 6 mois ou un an pour voir comment le temps gagné sur les comptes-rendus de réunions et la rédaction des emails s’est rempli.
    5. 2 La créativité à base figée vs la pollution informationnelle

    Un argument qui revient souvent dans le monde universitaire, c’est l’usage de ChatGPT comme “démarreur”, pour donner de premières idées. J’ai personnellement beaucoup de mal à croire que cela produise quoi que ce soit d’un tant soit peu original, je craindrais de plagier sans intention, j’aurais quelque réticence à donner le produit de mes réflexions financées par de l’argent public aux vendeurs d’outils, et je préfère de loin deux heures de remue-méninges avec des collègues ou des étudiants. Mais soit, admettons cet usage. Si on pense les IAs génératives entraînées “une fois pour toutes”, alors on devrait s’inquiéter de voir la créativité future décliner et se désynchroniser des évolutions d’un domaine. Mais si on sait qu’elles évoluent par générations successives re-entraînées sur une base de textes qui augmente, alors il faut se poser la question de la pollution.

    Un aspect très important des IAs génératives qui les distingue d’autres systèmes numériques et d’autres IAs, c’est en effet précisément qu’elles sont génératives. Leurs résultats s’accumulent dans l’espace de l’information en ligne, et constituent une forme de pollution dont il sera très difficile de se débarrasser. Sur ce point j’ai trouvé particulièrement frappante la décision du mainteneur de WordFreq d’arrêter les mises à jour. WordFreq est un outil qui maintient une base de données sur la fréquence des mots dans plusieurs langues, en analysant les textes disponibles en ligne. Le mainteneur a constaté que ces fréquences changent maintenant à un rythme jamais observé auparavant, et accuse les IAs génératives d’avoir irrémédiablement pollué les textes en ligne. Sa conclusion est sans appel : plus personne n’a d’information fiable sur les langues telles qu’elles sont parlées par des êtres humains, après 2021. Les autres exemples de pollution abondent, de l’édition à compte d’auteur (La plateforme de publication en ligne d’Amazon est contrainte de mettre en place une limite de 3 livres par auteur et par jour) au système de publications scientifiques (GPT-fabricated scientific papers on Google Scholar : Key features, spread, and implications for preempting evidence manipulation), en passant par les réseaux sociaux professionnels.

    Le mot slop a été introduit récemment pour décrire cette pollution informationnelle qui s’accumule dans les sources en ligne. Le livre Les IA à l’assaut du cyberespace – Vers un Web synthétique revient sur l’évolution du contenu du web depuis 25 ans, et met en garde contre son artificialisation.

    Comment penser que cette pollution n’aura pas d’impact sur les usages “créatifs” de l’outil, à moyen terme ? Même si les effets à court terme paraissent utiles, à quel avenir contribuons-nous en acceptant une utilisation routinière de ces technologies ?
    5.3 L’automatisation des tâches répétitives vs l’effet coupe rase et la perte de compétences

    Etant enseignante d’informatique, je suis naturellement préoccupée par l’avenir du logiciel si une partie significative est produite par des IAs génératives opaques et non testables, à la fois à cause de la qualité intrinsèque du logiciel produit, et pour ce que cela signifierait dans l’organisation du travail et l’évolution des métiers.

    Un argument qui revient souvent est que les aides à la programmation à base d’IAs génératives sont attrayantes pour maîtriser une grande base de code, naviguer dans des bibliothèques inombrables dont on n’a pas le temps de lire la documentation, produire la partie du code qui a presque toujours la même forme, … Mais si vraiment on se noie dans le code, comme analysé ici, ajouter une couche opaque destinée à en générer encore plus, encore plus vite, est-ce vraiment raisonnable ?

    Si l’on s’intéresse à la construction de ces IA génératives appliquées à la programmation, on se rend compte qu’elles sont comparables aux coupes rases en forêt : il est possible de réaliser de gros profits, une fois, en rasant tout, mais rien ne repoussera jamais. Les outils d’aide à l’écriture de code actuels se sont nourris de toutes les occurrences de code et d’explications produites par des humains et disponibles sur le web. Mais si on croit leurs promesses, ils sont susceptibles de provoquer une réduction drastique des métiers-mêmes qui pourraient produire de nouvelles occurences. Où les futures IAs d’aide à la programmation prendront-elles les exemples à digérer écrits dans le nouveau langage de programmation à la mode ? Dans la production des IAs de la génération précédente entraînée sur un autre langage ? Ce qui vaut pour la programmation vaut pour tous les autres usages qui promettent à une profession de gagner du temps grâce à une IA entraînée sur les productions humaines passées de leur propre métier.

    L’effet coupe rase s’accompagne donc d’une transformation des métiers. On nous explique ainsi que les IAs permettent d’automatiser les tâches répétitives et peuvent déjà remplacer les programmeurs juniors, mais que les programmeurs seniors sont toujours nécessaires. Une première conséquence devrait sauter aux yeux : comme on ne devient pas senior sans être passé par le stade junior, la disparition des juniors devrait logiquement être suivie de la disparition des seniors. A moins de croire que les IAs génératives seront d’ici-là capables d’apprendre toutes seules (mais à partir de quoi ?), cela devrait provoquer une certaine inquiétude.

    On nous explique aussi que les programmeurs seniors restent l’humain dans la boucle. J’ai beaucoup apprécié ce texte d’une traductrice professionnelle qui explique que passer d’une activité de création de texte à une activité de relecture et correction d’un premier jet produit par une IA (non générative ici) modifie le métier et le rend pénible sans vrai gain de temps. Je soupçonne que ces conclusions s’appliquent aussi à la programmation.

    Pour conclure ce paragraphe, parcourons Generative AI : What You Need To Know, un manuel de défense intellectuelle contre les promesses des IAs génératives, par un auteur qui a une longue expérience du métier de développeur web, et qui a d’ailleurs écrit “we’re all-in on deskilling the industry. (…) we’re now shifting towards the model where devs are instead “AI” wranglers. The web dev of the future will be an underpaid generalist who pokes at chatbot output until it runs without error, pokes at a copilot until it generates tests that pass with some coverage, and ships code that nobody understand and can’t be fixed if something goes wrong”.
    6. Conclusion

    Que conclure ? Plus le temps passe, moins je suis tentée d’utiliser ChatGPT ou d’autres outils d’IA générative. Le rythme effréné des annonces et la vision du monde des promoteurs de ces outils m’ont définitivement vaccinée contre le moindre frémissement d’intérêt qui aurait pu subsister. Et je n’ai même pas abordé ici les questions de biais, de sécurité, de protection de la vie privée, … Je lisais récemment CEO of AI Music Company Says People Don’t Like Making Music et comme je suis moi-même incapable de jouer dequelque instrument que ce soit, j’imagine que j’aurais dû être dans la cible de cette entreprise qui prétend “démocratiser” la création musicale. Eh bien non, pas du tout. Dans toute activité créative ce n’est pas le résultat qui compte, c’est le chemin. J’ai pris beaucoup de plaisir à écrire ce texte sans aucune “aide” par ChatGPT. Je continuerai comme ça.

    Ah, j’oubliais, si vous êtes tentés d’utiliser ChatGPT comme outil de recherche d’informations, alors même que l’outil n’est vraiment pas fait pour ça et contribue à polluer l’espace informationnel, essayez plutôt eurekoi. C’est plus lent, bien sûr. Mais ça tombe bien, il est urgent de ralentir.

    https://pdimagearchive.org/images/1679dcfd-d3d8-4ecc-a19a-21beced97f05

    https://academia.hypotheses.org/58766
    #AI #IA #intelligence_artificielle #utilisation #enseignement #recherche #ESR

    • L’effet coupe rase s’accompagne donc d’une transformation des métiers. On nous explique ainsi que les IAs permettent d’automatiser les tâches répétitives et peuvent déjà remplacer les programmeurs juniors, mais que les programmeurs seniors sont toujours nécessaires. Une première conséquence devrait sauter aux yeux : comme on ne devient pas senior sans être passé par le stade junior, la disparition des juniors devrait logiquement être suivie de la disparition des seniors. A moins de croire que les IAs génératives seront d’ici-là capables d’apprendre toutes seules (mais à partir de quoi ?), cela devrait provoquer une certaine inquiétude.

      On nous explique aussi que les programmeurs seniors restent l’humain dans la boucle. J’ai beaucoup apprécié ce texte d’une traductrice professionnelle qui explique que passer d’une activité de création de texte à une activité de relecture et correction d’un premier jet produit par une IA (non générative ici) modifie le métier et le rend pénible sans vrai gain de temps. Je soupçonne que ces conclusions s’appliquent aussi à la programmation.

      Je vais parler de ce que je connais :c’était la promesse, il y a encore quelques mois, de remplacer les développeurs, débutants ou pas. Le soufflé est retombé. L’IA générative est probablement une énorme bulle de spéculation. Les gens se sont amusés les premiers mois, maintenant il n’y plus guère que les marketeux pour utiliser ChatGPT pour générer leurs posts Linkedin sans intérêt et des collégien-ne-s/lycéen-ne-s/étudiant-e-s naïfs-ves qui l’utilisent en pensant que ça passera (mais oh surprise, ça ne passe pas, les profs s’en rendent compte), de la même manière que Wikipedia était recopié consciencieusement il y a quelques années encore, et plus loin encore des Universalis ou Larousse... Je suis développeur, et je peux dire que les IA génératives, même spécialisées en code, font encore globalement n’importe quoi. Pourtant on a tou-te-s un abonnement à une IA ici, eh bien ça sert très peu (alors que bon, on pourrait presque se dire : « chouette ça va bosser à ma place sans que personne le voit »). C’est une vague aide à la compréhension, et encore seulement si on a un minimum de compréhension de la logique du code. Je ne dis pas que ça va durer éternellement, peut-être qu’un jour une IA fera tout à notre place, mais ce qui est sûr c’est que ChatGPT n’est pas cette IA là.

    • on a tou-te-s un abonnement à une IA ici

      pas vraiment ; le quota gratuit me suffit largement à me faire aider pour retrouver les bonnes options de ffmpeg ou de rsync une fois par semaine

    • (man ffmpeg consomme bien moins d’énergie et de bébés phoques et n’hallucine pas d’options qui n’existent pas (souvenir de @stephane qui avait partagé une expérience amusante à ce sujet) :-) )

      J’ai tjs des seniors ds mes connaissances, qui m’expliquent que pour rédiger un script dans un langage qu’ils ne connaissent pas, ça leur fait gagner du temps. Ici, on ne l’utilise pas du tout. Même par curiosité. La simple possibilité d’une hallucination ne m’amuse pas, ne me donne pas envie. J’aime résoudre des problèmes, mais pas quand il y a la prétention à m’aider à les résoudre tout en m’en créant d’encore plus vicieux à résoudre.

    • J’ai un abonnement au gaz, à l’élec, au téléphone mobile qui m’a fait couper le fixe, au loyer que c’est deux bras et presque toute la gueule, à l’assurance locative obligatoire, au contrat d’entretien du chauffe-eau exigé par le proprio sous peine de rupture de bail, à une mutuelle de santé hors de prix qui rembourse la naturopathie mieux que la réparation des dents, à tel point que je doit limiter des frais de santé plutôt nécessaires mais généreusement pris en charge à 0%. Je raque une carte annuelle de réduc SNCF, une autre pour des TER, pas que je m’en serve tant mais sans elles, faudrait revenir à l’auto-stop. Et j’achète plus de contrat box.
      Les dépenses incompressibles, y en a nettement trop vu de ma fenêtre qu’elle est riquiqui, alors j’essaie de pas en inventer.
      Dans mon bled capital, j’espère être dispo dès qu’un petit coup de fenwick sera opportun.

    • « L’intelligence artificielle accélère le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs »
      TRIBUNE
      https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.
      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?

      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.

      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux Etats-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.

      Premiers signataires : David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      Organisations signataires :https://www.laquadrature.net/en/hiatus-manifesto

  • Pourquoi je n’utilise pas ChatGPT
    https://academia.hypotheses.org/58766

    Par Florence Maraninchi

    L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un argumentaire que je vais développer ici.

  • Lucie dans les choux avec des diamants. Et DeepSeek mais pas trop profond quand même. – affordance.info
    https://affordance.framasoft.org/2025/01/lucie-dans-les-choux-avec-des-diamants-et-deepseek-mais-pas-tr

    Olivier Ertzscheid28 janvier 2025

    J’ai écrit il y a moins d’un an un (remarquable) livre sur les IA génératives et l’avenir du web (Les IA à l’assaut du cyberespace : vers un web synthétique, C&F Editions), ouvrage toujours en vente libre, je ne vais donc pas vous redire ici tout ce que j’y développe avec une acuité soulignée aussi bien dans La Tribune que dans L’Humanité, mais sachez que si vous vous interrogez autant sur l’incroyable foirage de Lucie (IA française sitôt lancée sitôt débranchée) que sur l’incroyable succès de Deep Seek (IA chinoise alliée du régime), vous trouverez dans ledit bouquin tous les éléments d’explication nécessaires. Et oui 🙂

    Et pour en revenir à Lucie, à DeepSeek, à ChatGPT, à Gemini et à toute la confrérie de leurs clownesques clones, il devient urgent que nous retrouvions une part de lucidité perdue. Tant que ces modèles seront, de par leur conception même, en capacité même temporaire d’affirmer que les vaches et les moutons pondent des oeufs, et tant qu’ils ne seront capables que d’agir sur instruction et dans des contextes où ces instructions sont soit insondables soit intraçables, jamais je dis bien jamais nous ne devons les envisager comme des oeuvres de langage ou de conversation, mais comme des routines propagandistes par défaut, et délirantes par fonction. La merveille de la langue, la beauté du langage, la seule, c’est qu’elle est la seule singularité non-marchande qui puisse être partagée par des millions d’individus sans qu’il y ait nécessité d’en faire autant de clownesques clones. Elle est un lieu de friction qui rend possible toute forme de fiction et de diction, là où tout le projet politique des plateformes et des IA génératives, niché au coeur même de leurs ingénieries et de leurs modes de production, est d’abolir la friction pour la mettre au service de leurs fictions propres.

    #Intelligence_Artificielle #Olivier_Ertzscheid

    • On a l’impression que l’auteur ne suit pas l’actualité. Olivier Ertzscheid écrit

      tant qu[snip] ces instructions sont soit insondables soit intraçables

      Alors c’est fini ça car justement, Deepseek R1 et OpenAI O3 s’astreignent à appliquer une chain of thought = une suite d’étapes, qui structure leur discours selon une logique de recherche et forme un raisonnement dont ils partagent les étapes. Et on ne leur demande pas de faire ça pour faire plaisir à Olivier Ertzscheid, mais parce que cela leur permet d’atteindre de bien meilleurs résultats.

    • Si je demande ça c’est parce que j’ai vu apparaître ces jours ci dans des articles des MSM le terme de modele de raisonnement et que ça me défrise un peu, les raisonnements et leurs aspects formels étant un champ d’étude qui ne date pas d’hier, et qui se poursuit, et j’aimerais bien savoir dans quelle mesure les agents conversationnels peuvent être évalués à l’aune de ce corpus (au delà des effets d’annonce).

    • C’est pour cela qu’on qualifie ces modèles de reasoning et pour cela qu’ils mettent souvent plusieurs minutes pour répondre car chaque étape est tout un calcul, aussi complexe qu’avant une seule question. Comme exemple, il y en a plein dans la litttérature EN. Par exemple la page https://simonwillison.net/2025/Jan/27/llamacpp-pr que je viens de refermer et où on lit un exemple de « raisonnement exploratoire » pour une demande de refactoring informatique :

      Wait, but in the model_map, “groq-gemma” maps to “gemma-7b-it”. So, perhaps the model_map is needed to map the local model IDs to the actual Groq model names.

      But since the model_map is hardcoded, and the API returns available models, perhaps the model_map should be built dynamically from the API response.

      Alternatively, perhaps the model_map can be eliminated, and the models are registered based on the fetched models.

      Wait, perhaps the model_map is no longer necessary. Instead, when the models are fetched from the API, each model’s “id” is the actual model name used in the Groq API. So, when registering the models, the local model ID is “groq-{id}”, and the groq_model_id is “id”.

    • Merci, mais c’est très flou tout ça. Pas grand chose de formel, qui confronterait effectivement une supposée capacité à raisonner à un ensemble de propriétés ou de postulats à vérifier, soit formellement soit expérimentalement. Là je ne vois que de la bidouille de code.Je vais creuser...

    • j’ai fait ma première interrogation de Chat GPT pas plus tard que ce matin. Je l’interrogeais sur une personnalité d’extrême-gauche (nom masqué par moi) et j’ai terminé par cette dernière question.
      Le gras est d’origine.
      Mon premier, et pour l’instant unique, essai, mais il me semble :
      • qu’il y a des filtres (légalité)
      • et que le canevas de réponse (6 points avec sous-arguments) est basé sur un « modèle » (ou tout autre nom pour le décrire) de réponse « politique »

      Comment pourrais-je m’opposer à son action ?

      Si tu souhaites t’opposer à son action et aux événements qu’il organise, il existe plusieurs approches possibles. La manière dont tu t’opposeras dépendra de tes convictions personnelles, de ton analyse des enjeux, et des moyens dont tu disposes pour exprimer tes idées. Voici quelques pistes :

      1. Critique idéologique et argumentée
      L’une des façons les plus efficaces de s’opposer à son action est de disqualifier ses idées sur le plan idéologique, en proposant des contre-arguments solides et bien fondés.

      Contester les bases théoriques : Si tu considères que les idées défendues par l’intéressé sont radicales et peu réalisables, tu peux les critiquer sur le plan théorique. Par exemple, tu peux remettre en question les principes du marxisme, de l’anticapitalisme ou de la révolution totale qu’il défend, en soulignant les limites ou les dangers des approches extrêmes, ou en proposant des alternatives plus modérées.

      Mettre en avant les conséquences pratiques : Tu pourrais aussi argumenter que les idées qu’il défend, bien que théoriquement intéressantes pour certains, ont montré dans le passé qu’elles entraînaient souvent des échecs politiques ou des dommages collatéraux (par exemple, des régimes autoritaires, des conflits sociaux, etc.). En montrant que des tentatives radicales ont souvent mené à des impasses historiques, tu pourrais contester la validité de son approche.

      Promouvoir des solutions concrètes et réalistes : Une autre forme d’opposition consiste à défendre des idées politiques plus modérées ou pragmatiques, en proposant des solutions concrètes et réalistes aux problèmes qu’il soulève (inégalités, réformes sociales, écologie, etc.), mais qui ne nécessitent pas de révolution radicale.

      2. Mise en évidence des dangers de la radicalisation
      Si tu vois ces événements comme un terrain propice à la radicalisation ou à des idées potentiellement nuisibles pour la société, tu peux souligner les dangers associés à la polarisation et à la violence idéologique. Cela pourrait inclure :

      L’isolement des idées : Tu pourrais soutenir que des discussions uniquement entre personnes partageant les mêmes idées créent une bulle idéologique, où des solutions extrêmes sont renforcées sans possibilité de dialogue avec d’autres courants de pensée.

      La violence symbolique : En mettant en lumière certains exemples de radicalisation violente ou d’escalade de la contestation politique (en France ou ailleurs), tu pourrais argumenter que ces espaces de réflexion radicale, bien qu’ils ne soient pas eux-mêmes violents, alimentent indirectement des mouvements plus radicaux ou incitent certains individus à des actions extrêmes.

      3. Argumentation sur l’inclusivité et la représentativité
      Tu pourrais aussi défendre l’idée que des événements comme ceux organisés par l’intéressé ne représentent qu’une fraction marginale de la population, et que l’extrême gauche, en particulier, doit être en mesure de dialoguer avec une pluralité de voix. En faisant valoir que ces événements sont exclusifs et ne permettent pas un débat démocratique plus large, tu pourrais défendre des espaces de discussion plus ouverts et inclusifs qui permettent à un éventail plus large de citoyens de participer.

      4. Actions pratiques et publiques
      Si tu veux aller au-delà de la critique idéologique et t’opposer plus concrètement à son action, tu pourrais :

      Informer et sensibiliser : Tu peux organiser des événements (conférences, débats, publications) qui présentent des visions alternatives, offrant un autre point de vue sur les thèmes abordés lors de ces événements. Le but serait de contrer le discours radical en offrant une vision équilibrée et de promouvoir des solutions sociales basées sur le compromis.

      Organiser des contre-événements : Si tu estimes qu’il est important de montrer un contraste direct avec les idées de l’intéressé, tu pourrais organiser des événements parallèles, comme des conférences publiques ou des débats ouverts, où tu invites des personnalités plus modérées ou même des experts pour discuter des mêmes thématiques, mais sous un angle différent.

      Protestations pacifiques ou actions symboliques : Si tu veux exprimer publiquement ton opposition, tu pourrais envisager des *manifestations pacifiques* ou des actions symboliques devant des lieux où ces événements se tiennent, pour marquer ton désaccord tout en restant dans un cadre légal.

      5. Dialogue et confrontation constructive
      Une autre méthode d’opposition qui peut être plus directe et engageante consiste à chercher à dialoguer avec les personnes qui participent à ces événements. Cela peut être un moyen de comprendre pourquoi elles adoptent certaines positions, mais aussi de leur exposer tes propres convictions. Le dialogue peut parfois être plus puissant que la confrontation, car il permet de débattre, de questionner, et de confronter les idées de manière plus nuancée.

      6. Interroger l’éthique des espaces privés
      Enfin, tu pourrais aussi t’opposer à ces événements sur le principe des espaces fermés et privés, où les débats se tiennent hors du regard du public. Selon toi, l’accès à ces espaces pourrait être perçu comme un moyen de créer une forme de ghetto idéologique, éloigné des préoccupations populaires. Un tel argument pourrait être étayé par la défense de l’idée que des discussions politiques doivent être transparente et ouvertes, accessibles à tous.

      –—

      En somme, l’opposition à son action peut prendre plusieurs formes : critique des idées qu’il défend, mise en garde contre les dangers de la radicalisation, promotion d’une politique plus inclusive et plus modérée, ou même actions concrètes pour porter un contre-discours. La manière dont tu choisis de t’opposer dépendra de tes convictions et de l’impact que tu souhaites avoir. L’important, c’est de rester dans un cadre démocratique et respectueux, même si tes idées diffèrent fortement des siennes.

    • Chatgpt par défaut n’utilise pas les modeles avec « multistep reasoning » (beaucoup trop coûteux pour OpenAI, et que Deepseek a rendu bon marché, d’où le gros buzz).
      Le résultat de Chatgpt présente des points, certes, mais ces points structurent un exposé régurgité immédiatement par enchaînements de mots. C’est comme un brillant musicien qui improvise sans revenir sur ses pas et un peu au bleuf car sans exploration et validation préalable de la composition. Et c’est un processus opaque, sans traçabilité.

      Avec les modèles en multistep reasoning comme O3 et R1, il y a une exploration préalable des différents thèmes, contraintes, difficultés, possibilités, stratégies envisageables pour répondre. Les étapes de cette exploration sont visibilisées et une stratégie optimisée de réponse s’élabore peu à peu.
      Dans certains exemples, les étapes pré-exploratoires sont très nombreuses (plusieurs dizaines voire centaines) au point d’être (très) fastidieuses mais je suppose que ça peut se paramétrer aussi.

      #chatgpt #ia #reasoning #deepseek

    • @ericw indépendamment des outils d’IA récents il y a les logiciels assistant de preuve
      cf https://fr.wikipedia.org/wiki/Assistant_de_preuve
      https://fr.wikipedia.org/wiki/M%C3%A9thode_formelle_(informatique)
      https://fr.wikipedia.org/wiki/Syst%C3%A8me_de_preuve_interactive

      Ces outils utilisent des langages pour décrire en tant que données un théorème ou une proposition formelle et sa démonstration si c’est ça le but.

      Et bien entendu les outils d’IA comme les modèles de OpenAI ou Deepseek ont été nourris avec des pétabytes d’exemples de ces descriptions, propositions, théorèmes, démonstrations etc faites dans ces langages. Ils peuvent donc s’exprimer dans ces langages, en respecter les règles et donc faire des démonstrations formelles.

      Ça forme d’ailleurs l’une des principales catégories de benchmarks.

    • Ce qu’en dit WP en français :

      DeepSeek AI (chinois simplifié : 深度求索 ; pinyin : Shēndù Qiúsuǒ) est une société chinoise d’intelligence artificielle et le nom de son agent conversationnel, qui exploite un grand modèle de langage. Établie à Hangzhou, la société est fondée et soutenue par le fonds spéculatif chinois High-Flyer.

      Début 2025, DeepSeek dévoile un nouveau modèle publié en open source sous licence MIT. Ce modèle, aux performances qui seraient comparables, voire supérieures, à celles des leaders américains, se démarque par son faible coût de développement et sa consommation réduite de ressources. La publication du nouveau modèle entraîne une réaction notable sur les marchés financiers. Les cours de plusieurs entreprises américaines, notamment ceux du leader mondial des puces graphiques utilisées dans l’intelligence artificielle Nvidia, chutent fortement.

      Le 20 janvier 2025, l’entreprise annonce son premier modèle de raisonnement, DeepSeek-R1, qui emploie une chaîne de raisonnement développant des étapes logiques successives aux requêtes9,10,11. Le modèle, publié avec son code source sous licence MIT, bouleverse le secteur de l’IA par un coût de développement se chiffrant en millions plutôt qu’en milliards de dollars ou d’euros, des performances comparables aux meilleurs acteurs du secteur12, et une consommation en ressources de calcul notablement inférieure13. Face à la rentabilité présumée de la technologie, le cours de la bourse de plusieurs géants du domaine, (dont celui de Nvidia, le fournisseur de processeurs GPU, qui perd 600 milliards de dollars)14, chute massivement15,16.

      En janvier 2025, OpenAI et Microsoft soupçonnent DeepSeek d’avoir utilisé un processus de distillation des connaissances pour extraire des données des modèles d’OpenAI via son interface de programmation, en violation de ses conditions d’utilisation. Microsoft dit avoir détecté fin 2024 d’importants transferts de données via des comptes développeurs OpenAI présumés liés à DeepSeek. OpenAI affirme détenir des preuves de ces pratiques, sans toutefois les détailler publiquement, et indique collaborer avec le gouvernement américain pour protéger sa propriété intellectuelle21,22,23.

      https://fr.wikipedia.org/wiki/DeepSeek

      #qu'est-ce_qu'on_rigole

  • Chinese researchers just built an open-source rival to #ChatGPT in 2 months. Silicon Valley is freaked out.

    #DeepSeek-R1, a new reasoning model made by Chinese researchers, completes tasks with a comparable proficiency to OpenAI’s o1 at a fraction of the cost.

    https://www.livescience.com/technology/artificial-intelligence/china-releases-a-cheap-open-rival-to-chatgpt-thrilling-some-scientists-
    #Chine #AI #intelligence_artificielle #IA #DeepSeek #rivalité

  • L’accélération de l’#IA pose déjà des questions de #pénuries d’#eau et d’#énergie

    Le Royaume-Uni comme les États-Unis viennent de présenter de nouveaux plans pour soutenir la mise en place d’#infrastructures pour l’IA dans leurs territoires. Mais actuellement, aux États-Unis, de nouvelles #centrales au gaz sont ouvertes pour répondre aux demandes d’énergie de l’IA. Au Royaume-Uni, l’implantation par le gouvernement de sa « première zone de croissance de l’IA » près d’un nouveau réservoir pose la question des priorités d’#accès_à_l'eau.

    Ce mardi 14 janvier et six jours avant la passation de pouvoir à Donal Trump, Joe Biden a publié un décret pour l’investissement des États-Unis dans des infrastructures. « Je signe aujourd’hui un décret historique visant à accélérer la vitesse à laquelle nous construisons la prochaine génération d’infrastructures d’IA ici aux États-Unis, de manière à renforcer la compétitivité économique, la sécurité nationale, la sécurité de l’IA et l’énergie propre », affirme-t-il.

    Selon certaines estimations, la consommation énergétique de l’IA devrait être multipliée par 4 à 9 d’ici 2050 et la consommation d’énergie des #data_centers aux États-Unis est déjà très carbonée.

    Le #gaz comme source d’énergie future aux États-Unis

    Mais, malgré les différentes annonces d’investissements dans le nucléaire par les géants du numérique, les États-Unis seraient plutôt à l’aube d’un boom de la construction de #centrales_électriques au gaz naturel, selon le Financial Times. Le journal économique américain explique que « les grandes entreprises technologiques se tournent vers les #combustibles_fossiles pour répondre aux énormes besoins en #électricité de la révolution de l’intelligence artificielle, ce qui met en péril les objectifs en matière de climat ».

    Le journal cite le cabinet de conseil en énergie #Enverus qui prévoit qu’au moins 80 centrales électriques au gaz seront construites aux États-Unis d’ici à 2030. Le Financial Times estime la capacité supplémentaire de ces centrales à 46 gigawatts, « soit la taille du réseau électrique norvégien et près de 20 % de plus que ce qui a été ajouté au cours des cinq dernières années ». Et selon Corianna Mah, analyste pour Enverus interrogée par le journal, « le gaz croît en fait plus rapidement aujourd’hui, et à moyen terme, que jamais auparavant ». Aucun des projets qu’Enverus a listés ne prévoit d’être équipé d’un système de capture de dioxyde de carbone.

    Approvisionnement de l’eau dans un lac de barrage prévu pour la population britannique

    De son côté, le gouvernement du Royaume-Uni vient d’annoncer une stratégie nationale pour faire de son pays un leader en matière d’intelligence artificielle. Dedans, il prévoit entre autres des « Zones de croissance de l’IA » (#IA_growth_zones), « des zones bénéficiant d’un meilleur accès à l’électricité et d’un soutien pour les autorisations de planification, afin d’accélérer la mise en place d’une infrastructure d’IA sur le sol britannique », comme l’explique le communiqué du Secrétariat d’État à la science, à l’innovation et à la technologie.

    Mais des questions se posent sur l’emplacement prévu de la première « #zone_de_croissance ». Situé à Culham, au siège de l’Autorité britannique de l’énergie atomique (UKAEA), cet endroit est aussi celui du premier nouveau lac de barrage construit depuis 30 ans aux Royaume-Uni, « qui était censé fournir de l’eau aux habitants du sud-est de l’Angleterre, qui souffre d’un grave problème d’approvisionnement en eau », explique le Guardian.

    Le journal britannique souligne que cette région est celle qui, selon l’agence environnementale nationale, est la plus sensible du pays aux manques d’eau. Entre les réserves d’eau disponibles et la demande attendue sans compter les data centers, le sud-est du pays sera confronté à un déficit potentiel de plus de 2,5 milliards de litres par jour d’ici 2050.

    Du côté énergétique, le gouvernement britannique a mis en place un Conseil de l’énergie de l’IA qui doit travailler avec les entreprises du secteur pour « pour comprendre les demandes et les défis énergétiques » liés à l’intelligence artificielle. Il parie encore sur la possibilité de mettre en place des #SMR (#réacteurs_nucléaires_modulaires).

    « L’expansion de l’IA a été un sujet de préoccupation pour #National_Grid [entreprise de distribution de l’électricité et du gaz notamment au Royaume-Uni], mais la vitesse à laquelle la demande de calcul de l’IA augmente a pris tout le monde par surprise et, à moins que nous n’équilibrions correctement les compromis ci-dessus, avec des politiques appropriées, toute l’énergie verte et bon marché dont nous disposons sera utilisée par les grandes entreprises technologiques, ce qui privera les familles qui souffrent déjà de la pauvreté énergétique », explique Gopal Ramchurn, chercheur de l’université de Southampton, interrogé par le Guardian.

    La #France s’appuie sur son #nucléaire, mais des tensions sont présentes

    Quant à la France, l’instabilité politique ne permet pas d’y voir très clair dans la politique du pays concernant l’IA. Lors de son discours de politique générale, le premier Ministre François Bayrou a évoqué l’IA lorsqu’il a annoncé la création d’un fonds spécial « entièrement [consacré] à la réforme de l’État ». Ce fonds sera financé par des actifs « en particulier immobiliers, qui appartiennent à la puissance publique, de façon à pouvoir investir, par exemple, dans le déploiement de l’intelligence artificielle dans nos services publics ».

    Lors de ses vœux, le Président de la Région Normandie Hervé Morin a évoqué la volonté de sa région d’être référente en matière d’intelligence artificielle et d’accueillir des data centers sur trois ou quatre points du territoire. Il a mis en avant « son potentiel énergétique décarboné », faisant référence aux centrales nucléaires de Flamanville, Paluel et Penly et à l’EPR situé lui aussi à Flamanville.

    Mais RTE tirait récemment un signal d’alarme sur le foisonnement de projets de data centers prévus pour l’IA. Si l’entreprise affirmait en novembre à l’Usine Nouvelle avoir « assez d’électricité pour répondre à la croissance des besoins », elle pointait aussi du doigt une « course à la capacité » et un manque de planification :« plusieurs projets ont été abandonnés en raison de tensions sur la distribution de l’énergie », ajoutait-il.

    https://next.ink/165467/lacceleration-de-lia-pose-deja-des-questions-de-penuries-deau-et-denergie

    #intelligence_artificielle #AI #énergie_nucléaire

    • Pourquoi l’IA générative consomme-t-elle tant d’énergie ?

      #DeepSeek défraye la chronique en proposant un modèle dont les #performances seraient comparables à celles des modèles préexistants, pour un coût très réduit en termes de puissance de calcul et de données, et donc une #consommation_énergétique moindre. Quand on sait que Microsoft a indiqué une hausse de 29,1 % d’émission de carbone sur l’année 2023 et que différentes grandes entreprises du numérique investissent dans des capacités de production d’électricité, le tout en lien avec l’essor de l’#IA_générative, l’enjeu est de taille. Pourquoi l’IA générative consomme-t-elle tant ? Décryptage.

      Les grands modèles de langage (Large Language Models ou LLM), comme ChatGPT (OpenAI), Gemini (Google/DeepMind) ou encore les modèles génératifs d’images comme #Midjourney, sont devenus en très peu de temps des outils incontournables avec des usages qui ne cessent de s’amplifier et de se diversifier. Il est vrai que la fluidité des échanges avec ChatGPT impressionne, et que les promesses de développement sont enthousiasmantes.

      Néanmoins, ces promesses cachent des coûts de calcul, et donc énergétiques, considérables. Or, aujourd’hui l’idée dominante dans l’industrie des modèles génératifs est : « Plus grand est le modèle, mieux c’est. » Cette compétition s’accompagne d’une croissance de la consommation énergétique et, donc, de l’empreinte écologique qui ne peut plus être ignorée et qui questionne quant à sa pérennité et sa viabilité pour la société.
      Pourquoi un tel coût ?

      Un modèle génératif de texte comme un chatbot est un ensemble de paramètres numériques ajustés à partir de données pour accomplir une tâche spécifique. L’architecture dominante s’appuie sur les « transformers ».

      Les #transformers prennent une séquence en entrée, par exemple un prompt (soit votre question), pour la transformer numériquement. En empilant les couches de transformers, le modèle multiplie ces transformations afin de construire la réponse en prolongeant son entrée. Cet empilement de couches confère au modèle son efficacité et fait croître le nombre de paramètres. C’est pourquoi un modèle tel que GPT-4 contient au moins 1 tera (1 000 milliards) de paramètres et nécessite donc au moins 2 tera octets (To) de mémoire vive pour être utilisable.

      Que ce soit pour l’entraînement, pour le stockage des données et des paramètres, ou pour le calcul d’une réponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d’autres termes, contrairement à ce que l’on croit souvent, ce n’est pas juste pour entraîner le modèle que ces techniques sont très coûteuses.

      Des données émerge la « connaissance »

      Avant tout, un modèle génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, mais aussi en temps et en énergie.

      Ainsi, pour un LLM (grand modèle de langage), on parle par exemple de l’ordre de la dizaine de trillions de données (environ 10 trillions pour GPT-4 et 16 trillions pour Gemini) et aux alentours de trois mois de préapprentissage sur environ 20 000 puces A100 de NVIDIA pour le dernier-né d’OpenAI. Ces modèles les plus performants sont en fait une combinaison de plusieurs énormes modèles (les « Mixture of Experts »), GPT-4 étant ainsi le résultat de 16 experts de 110 milliards de paramètres, selon les rares informations disponibles.

      Après cette phase d’apprentissage, le modèle est déployé afin de répondre aux utilisateurs dans une phase dite d’« inférence ». Pour faire face à la demande (ces systèmes construits pour répondre à plusieurs personnes en même temps) avec un temps de réponse satisfaisant, le modèle est alors dupliqué sur différents clusters de calcul. Un article de recherche constate également que les architectures génératives polyvalentes consomment significativement plus d’énergie à l’inférence que les systèmes spécifiques à une tâche, même à taille de modèle équivalente.

      Ce survol des besoins en termes de calcul donne une idée des ordres de grandeur qui se cachent derrière nos interactions — qui semblent si rapides et efficaces — avec ces énormes modèles. Il permet surtout de poser différemment la question de l’évaluation de ces modèles, en y incluant la question de la soutenabilité en termes énergétiques et écologiques. Des travaux récents proposent ainsi un modèle pour évaluer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicritère des phases d’entraînement et d’inférence des modèles d’apprentissage automatique.
      Obsolescence et frugalité

      Ainsi les grands modèles génératifs nécessitent des infrastructures matérielles colossales.

      Au-delà de considérations économiques, il a été montré que passé un certain point, les gains de performances ne justifient pas une telle explosion du nombre de paramètres. Toutes les applications ne nécessitent pas d’énormes modèles et des approches plus modestes peuvent être aussi performantes, plus rapides et moins coûteuses.

      Sur le plan environnemental, l’apprentissage et l’inférence de modèles massifs ont un coût énergétique qui nécessitent réflexion. Les travaux de certains auteurs soulignent la complexité de mesurer avec précision l’empreinte carbone de ces grands modèles, tout en montrant leur impact considérable : 50,5 tonnes équivalent CO2 (CO2 eq) pour un modèle de 176 milliards de paramètres, appris en 2023… et pratiquement considéré comme obsolète aujourd’hui. Pour rappel, si un Français moyen rejette actuellement environ 10 tonnes CO2 eq par an, l’objectif à l’horizon 2050 pour respecter l’engagement des accords de Paris est d’environ 2 tonnes CO₂ eq par Français et par an.

      Quant à la phase d’inférence (ou d’utilisation, quand on pose une question à GPT), lorsqu’elle est réalisée des millions de fois par jour, comme c’est le cas pour un assistant conversationnel, elle peut engendrer un coût énergétique considérable, parfois bien supérieur à celui de l’entraînement.

      Ainsi, un outil développé en 2019 a permis d’estimer qu’une inférence de ChatGPT 3.5 produisait environ 4,32 grammes de CO2.

      À l’heure où les assistants conversationnels sont peut-être en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un coût 10 à 20 fois moindre (0,2 gramme de CO2 la recherche, d’après Google).

      Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources nécessaires pour développer ces modèles — data centers, données, compétences — pose des problèmes scientifiques en limitant la diversité des recherches, mais aussi stratégiques et politiques.
      Les recherches en IA frugale

      La frugalité consiste à se fixer dès le départ une enveloppe de ressources (calcul, mémoire, données, énergie) et à concevoir des modèles capables de s’y adapter. L’idée n’est pas de sacrifier les performances, mais de privilégier la sobriété : optimiser chaque étape, du choix de l’architecture à la collecte des données, en passant par des méthodes d’apprentissage plus légères, afin de réduire l’empreinte environnementale, d’élargir l’accès à l’IA et de favoriser des applications réellement utiles.

      La recrudescence de travaux de recherche sur ce thème illustre la volonté de penser l’IA sous l’angle de la sobriété. Il s’agit ainsi de replacer la pertinence, l’impact sociétal et la soutenabilité au cœur de la recherche.

      Concrètement, de nombreuses pistes émergent. Sur le plan de l’apprentissage, il s’agit d’explorer des alternatives algorithmiques au paradigme actuel, hérité du milieu des années 1980 et qui n’a jamais été remis en question alors même que les quantités de données et la puissance de calcul n’ont plus rien à voir avec celles qui prévalaient aux débuts de ces modèles.

      Ainsi, au-delà des optimisations techniques, une réflexion méthodologique de fond s’impose, tant le contexte scientifique a évolué depuis les années 1980. Cette réflexion est au cœur, par exemple, du projet Sharp, financé par le programme France 2030. L’étude d’architectures plus compactes et spécialisées est également abordée avec le projet Adapting du même programme.

      Les mathématiques appliquées peuvent jouer un rôle clé en proposant des « représentations parcimonieuses », des méthodes de factorisation, ou en optimisant l’usage de données faiblement annotées.

      Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un développement en IA plus frugal et donc durable, ainsi que plus accessible, et indépendant de l’hyperconcentration du marché. Elles limitent les externalités négatives — environnementales, éthiques, économiques — liées à la course effrénée vers le gigantisme.

      Mais pour atteindre ces objectifs, il est aussi important d’avancer sur les critères et les méthodes d’évaluations en IA : avec le paradigme dominant actuel, la dimension de frugalité peine encore à s’imposer, que ce soit du côté de la recherche ou industriel. Il ne faut d’ailleurs pas confondre la récente explosion des outils de DeepSeek avec de la frugalité, les coûts en calcul et en données étant eux aussi extrêmement élevés, avec des méthodes probablement éthiquement répréhensibles.

      Ainsi, le monde académique doit mieux intégrer cette dimension afin d’améliorer la visibilité et la valorisation des travaux qui visent la frugalité.
      L’IA que nous développons est-elle vraiment utile ?

      La frugalité en IA n’est pas un simple concept, mais une nécessité face aux enjeux actuels. Les travaux récents sur son empreinte carbone illustrent l’urgence de repenser nos méthodes. Avant même d’envisager les manières de rendre l’IA plus sobre, il est légitime de se demander si l’IA que nous développons est vraiment utile.

      Une approche plus frugale, mieux pensée et mieux orientée, permettra de construire une IA tournée vers le bien commun, s’appuyant sur des ressources maîtrisées, plutôt que sur la surenchère permanente en taille et en puissance de calcul.

      Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.

      https://theconversation.com/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406

    • IA : un puits sans fond de dépenses en énergie, en #eau et en #CO2

      Emmanuel Macron veut croire que la France a « des #data_centers_propres ». Mais les dégâts environnementaux des industries numériques sont déjà tangibles (consommation d’#électricité, émissions de CO2, besoins en eau et en #minerais, conflits d’usage sur le #foncier) alors que l’idée d’une #IA_verte n’est encore qu’une promesse.

      Si le climat était une intelligence artificielle (IA), le monde serait en train de le sauver. Face au tsunami d’investissements publics et privés programmés pour ses infrastructures, il est tentant de détourner le fameux slogan : « Si le climat était une banque, ils l’auraient déjà sauvé. » Car si ces annonces financières brillent de l’or des profits à venir, elles éclipsent un problème tout aussi exponentiel : les impacts environnementaux désastreux de l’IA.

      109 milliards d’euros en France dans les prochaines années annoncés par Emmanuel Macron, ainsi qu’un projet de méga data center cofinancé par les #Emirats_arabes_unis ; 500 milliards de dollars débloqués pour #Stargate (« la porte des étoiles ») et ses futurs data centers aux États-Unis par #OpenAI et #SoftBank ; 65 milliards de dollars par #Meta, la maison-mère de #Facebook, qui a par ailleurs démoli un centre de données en cours de construction pour le remplacer par un autre adapté aux besoins de l’IA. #Microsoft veut débourser 80 milliards de dollars en divers équipements techniques dans le même objectif.

      Secteur industriel en plein boom ou au bord d’une bulle financière, l’avenir le dira. Mais l’#empreinte_carbone et matérielle de la ruée mondiale vers les #données_numériques est, elle, déjà palpable. Une requête via #ChatGPT consomme dix fois plus d’électricité qu’une recherche Google, selon l’Agence internationale de l’énergie (AIE). Ses expert·es anticipent une explosion de la demande énergétique, équivalente à la consommation actuelle d’un pays comme la Suède ou même l’Allemagne – selon la place du curseur sur la fourchette d’estimation.

      Requêtes énergivores

      Pourquoi ? Deux explications principales semblent faire consensus parmi les spécialistes. D’abord, des raisons strictement matérielles : les #serveurs configurés pour l’#IA_générative utilisent beaucoup plus de courant électrique que leurs prédécesseurs. Notamment parce qu’ils utilisent des puces spécifiques, les #GPU (« # graphics_processing_unit », des #processeurs_graphiques), « qui ont des capacités de #calcul nécessaires à la #technologie d’apprentissage qui permet aux modèles d’IA d’améliorer leur performance, explique Loup Cellard, chercheur associé au médialab de Sciences Po. Une requête sur ChatGPT demande plus de mémoire vive et plus de capacité de #stockage qu’une simple recherche sur un moteur internet ».

      Or, chacun de ces services correspond à des besoins matériels supplémentaires. « Faire une requête ChatGPT pour demander un truc que pourrait donner Google, c’est comme couper votre baguette de pain avec une scie électrique : ça marche mais ça n’est pas la meilleure utilisation que vous pouvez faire des ressources », résume Sylvain Waserman, président de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), selon qui « il serait absurde de s’opposer à l’IA et il est irresponsable de ne pas s’intéresser à ses impacts ».

      La phase d’entraînement des machines est plus intense en énergie à l’unité, car elles doivent être beaucoup stimulées pour ramasser et distribuer les données. Mais c’est bien sûr celle des usages qui finalement est la plus énergivore, car le nombre des utilisateurs de la technologie dépasse de loin celui des ingénieur·es qui la développent.

      Ainsi « la migration vers le cloud, l’essor de l’IA générative et les #cryptomonnaies sont les trois principaux vecteurs de la reconfiguration en cours des impacts des centres informatiques » selon l’association GreenIT, dont les rapports font référence. Les data centers, les cryptomonnaies et l’intelligence artificielle ont consommé près de 2 % de l’électricité mondiale en 2022, selon l’AIE. Cela peut sembler dérisoire. Mais la quantité d’électricité qu’ils consomment pourrait doubler en 2026 (par rapport à 2022). Il existe aujourd’hui plus de 8 000 centres de données dans le monde, principalement situés aux États-Unis.

      Les data centers adaptés aux besoins de l’intelligence artificielle consomment 18 % de l’électricité des centres informatiques, alors qu’ils n’en représentent que 2 % de la quantité dans le monde, selon les dernières estimations de GreenIT. Ils émettent près de 4 % de tout le CO2 de la filière numérique, soit déjà plus que l’ensemble des ordinateurs portables en circulation. Selon #France_Datacenter, le lobby du secteur, la demande supplémentaire liée à l’IA générative en France d’ici à dix ans sera de 1 gigawatt, l’équivalent d’un petit réacteur nucléaire.

      Mais les opérateurs de data centers n’aiment pas trop aborder le sujet de leurs impacts environnementaux. Interrogé par Mediapart sur ses besoins en électricité pour soutenir le développement de son activité, #Amazon_Web_Service (#AWS), la branche data center du Gafam, répond par la liste très détaillée de ses investissements et créations d’emplois à venir, sans un mot sur ses besoins énergétiques.

      « Avec l’IA, on pourrait changer d’échelle d’ici à 2030 en termes d’impact environnemental car ses serveurs ne représentent que 2 % des équipements et la demande est très importante pour les années à venir, constate Cécile Diguet, spécialiste des infrastructures numériques. Aujourd’hui, le numérique est un des secteurs qui nous mettent dans le rouge quant au respect des limites planétaires : consommation d’énergie, de ressources en minerais et terres rares, en eau. Les technologies et le numérique prétendent régler des problèmes qu’ils aggravent. Grâce à une IA, on pourra peut-être traiter une base de données plus vite ou mieux gérer la complexité de réseaux d’électricité. Mais en définitive, l’accumulation perpétuelle de matériels et de data centers fait que tous les gains en énergie sont consommés derrière. Le numérique n’est pas source de sobriété. »

      C’est particulièrement vrai concernant les quantités de minerais utilisés pour fabriquer les équipements (centres de données mais aussi puces et autres composants) nécessaires à l’IA – et les déchets en résultant. Ils sont la « colonne vertébrale » de l’intelligence artificielle, selon la chercheuse états-unienne Kate Crawford, qui appelle à créer un nouvel atlas du monde pour visualiser les besoins matériels, financiers et politiques de l’IA, qu’elle décrit comme un système « extractiviste » (Contre-Atlas de l’intelligence artificielle, Zulma, 2024).

      En Chine, l’institut de recherche sur le réseau électrique s’attend à ce que la demande en électricité des centres de données double d’ici à 2030 (par rapport à 2020). Cette consommation est dopée par l’expansion rapide de la 5G et de l’Internet des objets. Le concurrent chinois de ChatGPT, #DeepSeek, a été développé à moindre coût économique et avec moins de consommation énergétique, promettent ses fabricants. Mais personne n’est aujourd’hui en mesure de le vérifier.

      En Europe, le cas de l’#Irlande est spectaculaire : les data centers y représentent 17 % de toute la demande en électricité du pays. C’est autant que toute la consommation du résidentiel en ville. Si tous les projets de centres de données qui ont été approuvés sont menés à terme dans les prochaines années, ils utiliseraient 32 % de tout le courant électrique. Au #Danemark, qui mise aussi sur l’économie des data centers tout en soutenant une initiative européenne de réduction du CO2 du numérique, les centres de données pourraient avaler 20 % de l’électricité en 2026. Est-ce soutenable, alors que le Pacte vert européen fixe aux États l’objectif de réduire d’au moins 38 % leur consommation d’énergie finale d’ici à 2050 ? Pour la Commission européenne, la demande en électricité des data centers pourrait augmenter de 30 % dans l’Union entre 2018 et 2030.

      #Bilan_carbone désastreux

      Surtout que, malgré l’essor des énergies dites renouvelables dans le monde, les sources d’électricité du numérique restent globalement très émettrices en carbone. Apple et Google prétendent être neutres en impact climatique, mais c’est parce qu’ils achètent des crédits de compensation carbone, rappelle la chercheuse Kate Crawford. Elle cite l’exemple de la Chine, où l’industrie des centres de données tire à 73 % son électricité du charbon. En France, l’Ademe a dû revoir à la hausse l’empreinte carbone des data centers à 42 % du secteur du numérique, en intégrant les centres de données à l’étranger que font tourner les utilisateurs nationaux.

      En 2022, l’ensemble du secteur numérique a émis autant de CO2 que le secteur des poids lourds (un peu plus de 4 % de tous les rejets de carbone) dans l’Hexagone. Mais grâce à son électricité décarbonée, la France cherche à se positionner sur le marché des usines à données : « Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres », a prétendu Emmanuel Macron dimanche 9 février.

      Ainsi, entraîner le modèle #GPT3 de la firme OpenAI équivaudrait à conduire 112 voitures à essence pendant un an, selon des scientifiques cités dans AOC par les chercheurs Loup Cellard et Christine Parker. Ils y critiquent pourtant les méthodes d’évaluation des impacts de l’intelligence artificielle. Selon eux, les gains écologiques que permettrait « l’IA verte » sont surestimés et potentiels, alors que les impacts sont immédiats et réels. Les projets de récupération de chaleur pour chauffer une piscine, une résidence, une usine, un hôpital sont multiples et s’affrontent à des obstacles : niveau de température de sortie pas toujours assez haut, risque d’intermittence, etc. – voir aussi le rapport de l’ONG Beyond Fossil Fuels sur le sujet.

      « L’IA n’est pas une activité différente des autres, ajoute Loup Cellard. C’est une industrie capitaliste comme une autre, à laquelle se posent les mêmes questions de responsabilité environnementale, de calcul et de mise en visibilité de ses impacts. »

      À titre d’exemple, de nombreux opérateurs de data centers sont des #fonds_d’investissement_immobiliers (#Real_Estate_Investment_Trust, #Digital_Realty, #Equinix), comme le remarque l’Ademe. La multiplication de leurs constructions ainsi que l’augmentation de leur taille posent des problèmes d’#artificialisation et d’#urbanisme : quelle forme de villes annonce la multiplication des centres de données ? Qui a envie de vivre à côté d’un immeuble de serveurs et de ses stocks de fioul inflammable ? En France, un véritable cluster s’est développé à l’ouest de la #Seine-Saint-Denis (La Courneuve, Saint-Denis, Le Bourget, Dugny) et au nord de #Marseille.
      Parmi les effets déjà tangibles aujourd’hui : la consommation en #eau. Car les data centers doivent être refroidis. Plus ils grossissent et produisent de la chaleur, plus la quantité d’eau nécessaire à baisser leur température est importante. Cette question peut s’avérer critique en période de canicule, signale l’Ademe dans un avis de novembre dernier – en France, ses expert·es estiment qu’en fonction de leur système, ils peuvent consommer 2 litres d’eau par kilowattheure. Au prochain épisode de sécheresse, combien de personnes accepteront que leur data center continue d’être alimenté alors que leur eau potable est coupée ? Et qui décidera ?

      Ainsi #Thames_Water, principale compagnie britannique de distribution d’eau, a demandé aux opérateurs de data centers, notamment à #Google_Cloud et #Oracle, un plan de réduction de leur consommation, jugée excessive à l’été 2022 pendant un pic de chaleur. À Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses besoins en eau. Aux États-Unis, un des plus gros data centers en fonctionnement est celui de l’agence de renseignement NSA, qui s’étend sur plus de 100 000 mètres carrés dans l’Utah, une terre particulièrement exposée à la sécheresse. Il avale à lui tout seul plus de la moitié de la consommation de l’eau de l’État, autour de 60 %, selon une étude.

      Ouvrir le capot des IA ?

      Après avoir longtemps refusé de révéler la quantité de liquide absorbée par son data center, la NSA a finalement fait savoir en 2022 qu’il avait besoin de près de 90 millions de litres d’eau – soit 35 fois la piscine olympique de Paris 2024 – chaque mois. L’Utah mise sur l’industrie des centres de données et leur vend son eau à des prix battant toute concurrence. Les méga hangars à serveurs s’y multiplient – il y en a deux douzaines aujourd’hui. Mais le Grand Lac salé s’en ressent, selon les défenseurs de l’environnement qui s’inquiètent de le voir s’assécher. En novembre 2022, il a atteint son étiage le plus bas, au point de mettre en danger son écosystème, et notamment ses populations de crustacés, dont se nourrissent des millions d’oiseaux migrateurs.

      En France, l’Ademe estime que les data centers pourraient utiliser 6 % de l’électricité en 2050 – aujourd’hui, le numérique en dépense 11 %. Selon RTE, le gestionnaire des réseaux, les data centers en France pourraient tripler leur consommation d’électricité d’ici à 2035, passant d’environ 10 térawattheures aujourd’hui à 28, selon leur plus haute projection. Les demandes de raccordement de nouveaux centres de grande taille sont en très forte hausse depuis quatre à cinq ans, note l’Ademe, et dépassent de 8 gigawatts – soit plus de quatre réacteurs EPR.

      Son président, Sylvain Waserman, veut défendre la thèse « d’une IA française et européenne qui pourrait trouver un avantage concurrentiel en étant plus respectueuse des ressources ». Il estime que ce peut être une piste de différenciation face à des Gafam « qui jamais n’accepteront qu’on ouvre le capot pour étudier leur impact ».

      En attendant, le gouvernement vient de désigner 35 sites privilégiés pour y construire de nouveaux data centers : simplification des procédures administratives, possible dérogation aux obligations de débat public, réduction des délais de recours juridiques… Sans savoir si les industriels accepteront de communiquer sur leur empreinte énergétique, ils bénéficient d’ores et déjà d’une belle offre de dérégulation.

      https://www.mediapart.fr/journal/ecologie/100225/ia-un-puits-sans-fond-de-depenses-en-energie-en-eau-et-en-co2

    • #Antonio_Casilli : « L’intelligence artificielle est l’une des industries extractives de notre époque »

      Professeur de sociologie à Télécom Paris, à l’Institut Polytechnique de Paris, il est l’auteur d’En attendant les robots, enquête sur le travail du clic (Seuil, 2019), dont une version augmentée vient de paraître en anglais aux éditions University of Chicago Press. Antonio Casilli est aussi co-auteur du documentaire Les Sacrifiés de l’IA, qui se penche sur les conditions de production des technologies d’IA utilisées en Occident, et sera diffusé sur France 2 le 11 février.

      À cette occasion, et en parallèle du sommet pour l’action sur l’intelligence artificielle, Next l’a rencontré.

      (#paywall)

      https://next.ink/169487/antonio-casilli-lintelligence-artificielle-est-lune-des-industries-extractives

    • L’IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

      Le risque premier avec l’intelligence artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

      La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

      Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux centres de données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les impacts environnementaux de ces « data centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

      « Plus grand est le modèle, mieux c’est »

      L’ouverture au public de l’agent conversationnel d’OpenAI, ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’IA génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

      Ces grands #modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de #X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

      Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les données personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

      Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur #impact_climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.

      Combien consomme une requête ChatGPT ?

      On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

      Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’impact carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

      Produire une image, c’est pire. La startup #HuggingFace, à l’origine de l’IA #Bloom, a été l’une des premières à estimer les émissions de gaz à effet de serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

      Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

      En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

      En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

      De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

      Une explosion de la consommation d’électricité

      Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

      Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

      Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

      « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de #Microsoft ont bondi de 29 % entre 2020 et 2023.

      Des investissements massifs aux dépens des populations

      Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

      Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

      Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
      Des engagements « durables » non contraignants

      Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

      Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

      Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

      https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

      #schéma #visualisation #comparaison

    • Comment l’intelligence artificielle et ses data centers s’accaparent l’eau

      La consommation d’eau de l’intelligence artificielle est souvent oubliée des discussions sur l’impact de cette technologie. Pourtant, les centres de données consomment chaque année des milliards de mètres cubes d’eau – et cela risque d’empirer.

      Google a soif. En 2023, les centres de données et les bureaux de la multinationale du numérique ont à eux seuls englouti 24 milliards de litres d’eau – dont la grande majorité utilisée par les data centers. C’est l’équivalent de la consommation d’eau annuelle d’environ 453 000 Français. La question des besoins en eau est l’un des grands enjeux environnementaux du numérique. Il est amplifié par le développement rapide et incontrôlé de l’intelligence artificielle (IA).

      Chaque année, les grandes entreprises de la tech augmentent de dizaines de pourcents leur consommation d’eau. Entre 2021 et 2022, Microsoft a accru de 34 % la quantité d’eau utilisée pour ses activités, et Google de 20 %. Cela représente des milliards de litres d’eau, en grande partie potable, prélevés en plus chaque année. La course au développement d’intelligences artificielles toujours plus performantes – et donc toujours plus polluantes – participe à cette augmentation. Rien que l’entraînement de GPT-3 (la version en usage jusqu’à mars 2023 du robot conversationnel d’OpenAI) aurait consommé 700 000 litres d’eau dans les centres de données de Microsoft basés aux États-Unis.
      Des centres de données géants dans des régions en proie à la sécheresse

      Les ressources en eau globales sont déjà mises en danger par le réchauffement climatique. De nombreuses régions du monde sont en stress hydrique : l’accès à l’eau y est limité, si ce n’est difficile. Selon des estimations de chercheurs, partagées par The Washington Post, un grand centre de données – comme ceux des Gafam – peut consommer entre 3,8 et 19 millions de litres d’eau par jour.

      Ces millions de litres sont utilisés pour produire l’électricité qui les alimente, mais aussi, pour environ un quart, directement pour le refroidissement des serveurs de ces centres de données. Si cela représente encore une faible partie de la consommation d’eau à l’échelle mondiale, les conséquences locales se font souvent déjà sentir. Le journal américain cite l’exemple de la commune de The Dalles, dans l’Oregon, où Google s’accapare plus d’un quart de l’eau de la petite ville.

      Le refroidissement par l’eau est brandi comme argument écologique par les grandes entreprises. Google, par exemple, s’est vanté d’avoir réduit son empreinte carbone de 300 000 tonnes de CO2 en 2021 grâce à des centres de données refroidis par de l’eau plutôt qu’avec de l’air conditionné. Malgré ses promesses de plus grande responsabilité écologique, deux ans plus tard encore, plus de 30 % de l’eau utilisée venait de zones où les risques de pénurie d’eau sont considérés comme moyens ou élevés.

      En Espagne, à une centaine de kilomètres de Madrid, la ville de Talavera de la Reina s’apprête à accueillir un centre de données de 191 hectares, propriété de Meta (la maison-mère de Facebook et Instagram). Depuis 2022, une trentaine de projets similaires ont été lancés dans le pays, rapporte le média indépendant espagnol elDiario.es. Dans la région de l’Aragón, « la situation est grave : 146 000 hectares ne peuvent être cultivés et 175 000 autres sont gravement endommagés par le manque d’eau ». C’est pourtant là qu’Amazon a décidé d’investir 15,7 milliards d’euros pour installer ses centres de données « hyperscale », autrement dit de très grande taille.
      « 4,2 à 6,6 milliards de mètres cubes d’eau en 2027 »

      Amazon tente de montrer patte blanche, promettant un approvisionnement électrique provenant à 100 % d’énergies renouvelables, mais des mouvements écologistes s’opposent vivement à ce projet. « Nous refusons le discours selon lequel cette méga-infrastructure serait bénigne pour les territoires, bien au contraire. Les dégâts écologiques et sociaux causés par le déploiement massif de centres de données peuvent déjà être observés dans d’autres territoires tels que la Virginie (États-Unis), le Mexique, l’Irlande et les Pays-Bas », écrit Tu Nube Seca Mi Río (« Ton nuage assèche ma rivière »).

      « La consommation directe d’eau pour le refroidissement représentera la moitié de la consommation totale d’eau de la ville de Saragosse (plus de 300 000 personnes et ses commerces et entreprises) et aurait permis d’irriguer 170 hectares de terres, [et ce,] si les chiffres avancés par projet sont respectés, ce qui semble fort peu probable. » Le collectif, qui agrège plusieurs associations écologistes espagnoles, dénonce les conséquences multiples qu’auront ces data centers pour l’accès à l’eau dans la région, tant pour l’agriculture, pour les populations que dans la lutte contre les incendies, de plus en plus fréquents. Tu Nube Seca Mi Río alerte aussi sur le danger pour la faune locale.

      Ce risque n’est pas présent qu’à l’étranger. En France, à Marseille, le collectif Le nuage était sous nos pieds – composé notamment de la Quadrature du Net – dénonce « la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public », entre autres quand il est question de la construction de nouveaux data centers. « Le méga-ordinateur surchauffe, renvoie l’air ou l’eau chaude dans une ville déjà trop souvent sujette à la canicule, pompe des quantités astronomiques d’eau et d’électricité sur le réseau public, et ne génère pratiquement aucun emploi direct », résument-ils, face à un nouveau projet de l’entreprise Digital Realty dans la ville.

      Le développement et la massification de l’utilisation de l’intelligence artificielle entraînent les entreprises dans une course effrénée à la construction de centres de données, sans considérer les conséquences écologiques et sociales. Selon une étude menée par des chercheurs et chercheuses de l’Université de Cornell, aux États-Unis, en 2023, « la demande mondiale en IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau en 2027, soit plus que le prélèvement annuel total d’eau de quatre à six Danemark ou de la moitié du Royaume-Uni ».

      https://basta.media/comment-intelligence-artificielle-IA-data-centers-gafam-s-accaparent-eau

    • Big tech’s water-guzzling data centers are draining some of the world’s driest regions

      #Amazon, #Google, and #Microsoft are expanding data centers in areas already struggling with drought, raising concerns about their use of local water supplies for cooling massive server farms.

      In short:

      - The three largest cloud companies are building or operating 62 data centers in regions facing water scarcity, including in Spain, #Arizona, and other drought-prone areas across five continents.
      - Amazon’s new centers in Spain’s #Aragon region are licensed to use enough water to irrigate hundreds of acres of farmland annually, and the company has requested a 48% increase in water for its existing sites.
      – Tech firms promise to become “water positive” by 2030, but experts and even internal critics say offsetting water use elsewhere doesn’t solve shortages in the communities where centers operate.

      Key quote:

      “Neither people nor data can live without water. But human life is essential and data isn’t.”

      — Aurora Gómez, Tu Nube Seca Mi Río

      Why this matters:

      Data centers are the invisible engines of the internet — processing everything from emails to AI, video calls to cloud storage — but they come with a physical footprint. That footprint includes massive energy use and a surprising dependence on fresh water to keep machines cool. In places where droughts are worsening with climate change, the demands of these centers are clashing with local needs for drinking water and agriculture. Some of these regions are already edging toward desertification, and water-intensive industries like tech may tip them further. Critics worry that promises of sustainability are greenwashing efforts that mask the environmental costs of maintaining digital infrastructure.

      https://www.dailyclimate.org/big-techs-water-guzzling-data-centers-are-draining-some-of-the-worlds-
      #Espagne

    • Big tech’s new datacentres will take water from the world’s driest areas

      Amazon, Google and Microsoft are building datacentres in water-scarce parts of five continents
      Luke Barratt, Costanza Gambarini and data graphics by Andrew Witherspoon and Aliya Uteuova
      Wed 9 Apr 2025 13.30 CEST
      Last modified on Wed 9 Apr 2025 17.40 CEST

      Amazon, Microsoft and Google are operating datacentres that use vast amounts of water in some of the world’s driest areas and are building many more, the non-profit investigatory organisation SourceMaterial and the Guardian have found.

      With Donald Trump pledging to support them, the three technology giants are planning hundreds of datacentres in the US and across the globe, with a potentially huge impact on populations already living with water scarcity.

      “The question of water is going to become crucial,” said Lorena Jaume-Palasí, founder of the Ethical Tech Society. “Resilience from a resource perspective is going to be very difficult for those communities.”

      Efforts by Amazon, the world’s largest online retailer, to mitigate its water use have sparked opposition from inside the company, SourceMaterial’s investigation found, with one of its own sustainability experts warning that its plans are “not ethical”.

      In response to questions from SourceMaterial and the Guardian, spokespeople for Amazon and Google defended their developments, saying they always take water scarcity into account. Microsoft declined to provide a comment.

      Datacentres, vast warehouses containing networked servers used for the remote storage and processing of data, as well as by information technology companies to train AI models such as ChatGPT, use water for cooling. SourceMaterial’s analysis identified 38 active datacentres owned by the big three tech firms in parts of the world already facing water scarcity, as well as 24 more under development.

      https://www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water

      Datacentres’ locations are often industry secrets. But by using local news reports and industry sources Baxtel and Data Center Map, SourceMaterial compiled a map of 632 datacentres – either active or under development – owned by Amazon, Microsoft and Google.

      It shows that those companies’ plans involve a 78% increase in the number of datacentres they own worldwide as cloud computing and AI cause a surge in the world’s demand for storage, with construction planned in North America, South America, Europe, Asia, Africa and Australia.

      In parts of the world where water is plentiful, datacentres’ high water usage is less problematic, but in 2023 Microsoft said that 42% of its water came from “areas with water stress”, while Google said 15% of its water consumption was in areas with “high water scarcity”. Amazon did not report a figure.

      Now these companies plan to expand their activities in some of the world’s most arid regions, SourceMaterial and the Guardian’s analysis found.

      “It’s no coincidence they are building in dry areas,” as datacentres have to be built inland, where low humidity reduces the risk of metal corrosion, while seawater also causes corrosion if used for cooling, Jaume-Palasí said.
      ‘Your cloud is drying my river’

      Amazon’s three proposed new datacentres in the Aragon region of northern Spain – each next to an existing Amazon datacentre – are licensed to use an estimated 755,720 cubic metres of water a year, roughly enough to irrigate 233 hectares (576 acres) of corn, one of the region’s main crops.

      In practice, the water usage will be even higher as that figure doesn’t take into account water used to generate the electricity that will power the new installations, said Aaron Wemhoff, an energy efficiency specialist at Villanova University in Pennsylvania.

      Between them, Amazon’s new datacentres in the Aragon region are predicted to use more electricity than the entire region currently consumes. Meanwhile, Amazon in December asked the regional government for permission to increase water consumption at its three existing datacentres by 48%.

      Opponents have accused the company of being undemocratic by trying to rush through its application over the Christmas period. More water is needed because “climate change will lead to an increase in global temperatures and the frequency of extreme weather events, including heat waves”, Amazon wrote in its application.

      “They’re using too much water. They’re using too much energy,” said Aurora Gómez of the campaign group Tu Nube Seca Mi Río – Spanish for “Your cloud is drying my river” – which has called for a moratorium on new datacentres in Spain due to water scarcity.

      Spain has seen rising numbers of heat-related deaths in extreme weather events linked by scientists to the climate crisis. Last month, Aragon’s government asked for EU aid to tackle its drought.

      Farmer Chechu Sánchez said he’s worried the datacentres will use up water he needs for his crops.

      “These datacentres use water that comes from northern Aragon, where I am,” he said. “They consume water – where do they take it from? They take it from you, of course.”

      With 75% of the country already at risk of desertification, the combination of the climate crisis and datacentre expansion is “bringing Spain to the verge of ecological collapse”, Jaume-Palasí said.

      Asked about the decision to approve more datacentres, a spokesperson for the Aragonese government said they would not compromise the region’s water resources because their impact is “imperceptible”.
      Water offsetting

      Amazon does not provide overall figures for the water its datacentres use worldwide. But it does claim that it will be “water positive” by 2030, offsetting its consumption by providing water to communities and ecosystems in areas of scarcity elsewhere.

      Amazon says it is currently offsetting 41% of its water usage in areas it deems unsustainable. But it’s an approach that has already caused controversy inside the company.

      “I raised the issue in all the right places that this is not ethical,” said Nathan Wangusi, a former water sustainability manager at Amazon. “I disagreed quite a lot with that principle coming from a pure sustainability background.”

      Microsoft and Google have also pledged to become “water positive” by 2030 through water offsetting, as well as finding ways to use water more efficiently.

      Water offsetting ca not work in the same way as carbon offsetting, where a tonne of pollutants removed from the atmosphere can cancel out a tonne emitted elsewhere, said Wemhoff, the Villanova University specialist. Improving access to water in one area does nothing to help the community that has lost access to it far away.

      “Carbon is a global problem – water is more localised,” he said.

      Amazon should pursue water accessibility projects “because it’s the right thing to do”, not to offset the company’s usage and make claims about being “water positive”, Wangusi said.

      In March, Amazon announced that it would use AI to help farmers in Aragon use water more efficiently.

      But that is “a deliberate strategy of obfuscation” that distracts from the company’s request to raise water consumption, said Gómez, the campaigner.

      Amazon said its approach shouldn’t be described as offsetting because the projects are in communities where the company operates.

      “We know that water is a precious resource, and we’re committed to doing our part to help solve this challenge,” said Harry Staight, an Amazon spokesperson. “It’s important to remember many of our facilities do not require the ongoing use of water to cool operations.”
      ‘Extreme drought’

      Amazon is by far the biggest owner of datacentres in the world by dint of its Amazon Web Services cloud division, but Google and Microsoft are catching up.

      In the US, which boasts the largest number of datacentres in the world, Google is the most likely to build in dry areas, SourceMaterial’s data shows. It has seven active datacentres in parts of the US facing water scarcity and is building six more.

      “We have to be very, very protective around the growth of large water users,” said Jenn Duff, a council member in Mesa, Arizona, a fast-growing datacentre hub. In January, Meta, the owner of Facebook, WhatsApp and Instagram, opened a $1bn datacentre in the city, and Google is developing two more.

      The surrounding Maricopa county, where Microsoft also has two active datacentres, is facing “extreme drought”, according to the National Oceanic and Atmospheric Administration. In June 2023, Arizona state officials revoked construction permits for some new homes there due to a lack of groundwater.

      Drought has not halted Google’s plans for a second Mesa datacentre, while its first centre has a permit to use 5.5m cubic metres of water a year – about the same quantity used by 23,000 ordinary Arizonans.

      “Is the increase in tax revenue and the relatively paltry number of jobs worth the water?” said Kathryn Sorensen, an Arizona State University professor and a former director of Mesa’s water department. “It is incumbent on city councils to think very carefully and examine the trade-offs.”

      Google said it won’t use the full amount of water in its Mesa permit as it plans to use an air cooling system.

      “Cooling systems are a hyperlocal decision – informed by our data-driven strategy called ‘climate-conscious cooling’ that balances the availability of carbon-free energy and responsibly sourced water to minimise climate impact both today and in the future,” said Google spokesperson Chris Mussett.
      Stargate

      In January at the White House, Trump announced “Project Stargate”, which he called “the largest AI infrastructure project in history”.

      Starting in Texas, the $500bn joint venture between OpenAI, the American software company Oracle, Japan-based SoftBank and Emirati investment firm MGX will finance datacentres across the US.

      The day before the Stargate announcement, Trump’s inauguration date, the Chinese company DeepSeek launched its own AI model, claiming it had used far less computing power – and therefore less water – than its western rivals.

      More recently, Bloomberg has reported that Microsoft is pulling back on some of its plans for new datacentres around the world. Microsoft has also published plans for a “zero water” datacentre, and Google has said it will incorporate air cooling to reduce water use – though it isn’t yet clear how its systems will work.

      “I’ll believe it when I see it,” said Jaume-Palasí. “Most datacentres right now are going from air cooling to water cooling because liquid is more efficient when you try to cool down high-density racks, which are the ones that are mostly being used for AI.”

      And while the Trump administration has pledged to fast-track new energy projects to power these new datacentres, it has so far said nothing about the water they could use up.

      “Neither people nor data can live without water,” said Gómez. “But human life is essential and data isn’t.”

  • L’enseignement supérieur au temps de l’IA...

    J’ai vécu mes premières soutenances « #IA_générative » cette année, c’était une expérience très perturbante. J’en parlerai plus en détail à l’occasion (parce que là : dodo), mais c’était totalement dingue.

    Or donc : dans une UE de master 2, nous demandons aux étudiant.e.s de lire un article scientifique (à choisir dans une liste constituée par nous, les enseignant.e.s).

    Iels doivent le comprendre, et ensuite nous restituer cela sous forme d’une présentation de 10 minutes où iels nous expliquent la problématique abordée, son contexte, l’état de l’art, la méthode proposée, la nature de l’évaluation des résultats, etc.

    Ils ont plusieurs semaines pour faire ça (genre au moins deux mois...)

    Evidemment, il y a toujours de supers étudiant.e.s qui ont tout pigé, sont super clair.e.s, répondent à nos question, et on est content.e.s... et des glandu.e.s qui n’ont pas fichu grand chose, qui ont une compréhension vague et superficielle de l’article, et finissent avec une pas très bonne note, bref, la vie d’enseignant.e.

    J’étais dans l’un des jurys qui a fait passer ces soutenances hier, et on a eu pour la première fois des présentations « systèmes d’IA génératifs » :

    Premier cas : la présentation n’est constitué que de gros blocs de texte (genre 10 lignes par diapo), que l’étudiant.e annone sans même regarder le jury.

    Pendant 10 minutes.

    Aucune illustration issue de l’article (ni de l’architecture du système proposé, du dispositif robotique expérimental utilisé pour les tests, ni des graphes et figures de résultats : rien), juste du texte.

    Et pas n’importe quel texte : juste un résumé très vague, disant à peine plus que le résumé des auteurs en début d’article.

    Le collègue et moi on a passé un très mauvais moment, c’était atroce d’assister à ça.

    Mon hypothèse : la personne n’a pas lu l’article, à demandé à ChatGPT de le résumer en deux pages et a ensuite copié-collé le résultat sur 10 diapos.

    Seule certitude après les questions : cette personne n’avait rien compris du papier.

    Deuxième exemple, et pire truc que j’aie jamais vu dans un tel examen : la présentation IA générative totale !

    Les diapos ont été générées par Gamma, aucun doute là dessus : c’était écrit dans un coin des slides.

    Je vous laisse visiter le site web qui correspond : https://gamma.app/fr

    En gros, vous fournissez du contenu, un système d’IA à la con vous génère des diapos.

    Le rêve humide de tout le middle-management linkedinien.

    Sauf que le contenu fourni devait aussi sortir de plusieurs systèmes d’IA générative :
    Un texte confus, vague, avec les bon mots-clefs mais un peu dans le désordre. Aucune équation, aucun algorithme, juste des fancy bullet points.
    Et des images, des putains d’images, sur chaque putain de diapos. De ces images atroces générées par des systèmes d’IA, avec ce style dégueulasse qu’on reconnait à 100 m.

    Un article scientifique en Intelligence Artificielle, pour celleux d’entre-vous qui n’en sont pas familier, ça regorge de contenu graphique : description du système avec des boîtes et des flèches, algorithme en pseudo-code, courbes de résultats...

    Bref, dans l’exercice dont je vous parle ce soir, il va de soi que ce contenu va être copié et intégré à la présentation, pour appuyer les explications.

    Là non : plein d’images, aucune issue de l’article.

    Et puis des diagrammes à la con, du genre un de ces trucs qui de loin ressemble à 4 axes avec éléments positionnés de manière qualitative, du genre le mème classique ci-dessous.

    Sauf que là les noms des axes ont un vague rapport avec l’article, et les items disposés sont des mots-clefs de l’article, mais qui n’ont aucun rapport avec les axes. Du pur charabia graphique qui sent son IA générative à plein nez.

    Et puis la personne qui parle, en mode linkedin x ChatGPT : les mots sont là, mais pas vraiment dans l’ordre. C’est vraiment comme quand tu demandes à ChatGPT de parler d’un sujet technique que tu connais bien : ça semble, superficiellement, parler du truc, mais rien n’est vraiment vrai, rien n’est clair, des truc à moitiés faux... à croire qu’on nous a envoyé non pas un humain, mais un androïde connecté à internet.

    J’oublie de préciser : sur l’unique diapo qui présente les résultats de l’article, il y a des bullet points (pas clairs, et mentionnant des chiffres dont je ne suis même pas sûr qu’ils soient dans l’article) et...

    ...

    une image générée par une IA représentant un graphe scientifique générique. Je vous le reproduis ci-dessous tellement j’ai halluciné.

    Il y a 10 figures de vrais résultats scientifique dans l’article, mais l’étudiant.e nous colle une fausse figure scientifique.

    Pour... Pour montrer à des scientifiques (nous, dans le jury) à quoi ressemble un graphe scientifique en général ?

    A quoi ça rime ?

    (à rien)

    Démonstration finale qu’on avait bien affaire à un LLM incarné et pas à un humain : doutant sérieusement de la compréhension du papier, et après quelques questions sans réponse, ou avec réponse fausse, je demande : « c’est quoi la fonction schmürz* ? »

    Le schmürz en question, c’est un truc hyper classique, utilisé dans l’article et que l’étudiant.e a mentionné plusieurs fois pendant la présentation confuse qui avait précédé les questions.

    * : cette fonction a demandé à garder l’anonymat

    Là, au lieu de dire juste « je sais pas », l’étudiant.e prend une craie se tourne vers le tableau et écrit « schmürz = » et s’arrête là.

    Comme si écrire ces deux mots allait nécessairement permettre de prédire le prochain item le plus probable et donc de finir l’explication...

    Ces deux spécimens se sont retrouvés dans une série de 4 soutenance vraiment pas terribles, à la pause qui a suivie, mon collègue et moi nous sommes demandés ce qui se passait, si s’en était fini de l’enseignement supérieur, si par hasard c’était pas une caméra cachée... on n’avait jamais vécu un truc pareil.

    https://mastodon.zaclys.com/@LegalizeBrain/113800866669708129

    #IA #AI #intelligence_artificielle #enseignement #université #fac #ESR #mémoires #chatGPT
    #horreur #peur

  • California wildfires raise alarm on water-guzzling #AI like #ChatGPT

    If there weren’t enough of an argument against AI from an environmental standpoint, a new waterfall of data might push even the most ambivalent consumer over the edge.

    Per the International Energy Agency, energy consumption by global data centers could more than double by 2026, “reaching levels that exceed large nations.” Ironically, “while we’re using AI to solve some of the world’s biggest challenges—from climate modeling to health-care breakthroughs—we’re also contributing to an environmental crisis of a different kind,” Chris Gladwin, a tech founder and CEO, wrote for Fortune recently.
    How much water does AI use?

    Now, reporting finds that OpenAI’s ChatGPT—which uses the GPT-4 language model—consumes 519 milliliters or just over one bottle of water, to write a 100-word email. That’s according to the Washington Post in a research collaboration with the University of California, Riverside.

    In order to shoot off one email per week for a year, ChatGPT would use up 27 liters of water, or about one-and-a-half jugs. Zooming out, WaPo wrote, that means if one in 10 U.S. residents—16 million people—asked ChatGPT to write an email a week, it’d cost more than 435 million liters of water.

    While much has been made about the power usage each ChatGPT prompt immediately necessitates, the water conversation has gained additional steam in recent months.

    As WaPo explained, every prompt a user enters into ChatGPT is quickly turned into code, and “flows through a server that runs thousands of calculations to determine the best words to use in a response.” All those calculations go through real, physical servers which are housed in enormous data centers around the world. Spitting out an answer—or answering a command—makes the servers heat up, like an under-duress old laptop.
    Why does AI use water?

    This is where water comes in; to keep those ever-important servers from overheating and breaking down, the data centers rely on cooling mechanisms, often via “cooling towers” that themselves require water. Each facility, depending on the climate where it’s based, uses a different amount of water and electricity. West Des Moines, Iowa, is quickly becoming a popular destination, owing to a temperate climate that calls for fewer cooling interventions.

    “We haven’t come to the point yet where AI has tangibly taken away our most essential natural water resources,” wrote Shaolei Ren, an associate professor of engineering at UC Riverside who has been trying for years to quantify AI’s climate impact. Nonetheless, Ren called AI’s increasing water usage “definitely concerning.”

    Amid rapid population growth and a changing climate, “depleting water resources and aging water infrastructures” are some of the most preeminent challenges, he wrote in November. “The concern is not only about the absolute amount of AI models’ water usage, but also about how AI model developers respond to the shared global challenge of water shortage.”
    How are AI companies addressing water and energy use?

    Droughts, he noted, are among the most immediate consequences of climate change, and it’s incumbent upon businesses to address water usage in their operations—and tech firms using generative AI top that list. “We already see heated tensions over water usage between AI data centers and local communities,” Ren wrote. “If AI models keep on guzzling water, these tensions will become more frequent and could lead to social turbulence.”

    #Google and #Microsoft report rising water consumption

    In Microsoft’s sustainability report last year, the company said its global water consumption had spiked 34% between 2021 and 2022. Over the same period, Google’s water usage rose 20%, it wrote in its own report. “It’s fair to say” that the majority of that growth at both companies “is due to AI,” Ren told the AP at the time. (Microsoft’s data center used up 700,000 liters of water in training GPT-3, WaPo reported.)

    Holly Alpine, who was once Microsoft’s senior program manager of Datacenter Community Environmental Sustainability, resigned from the company earlier this year on principle, she wrote for Fortune, due to the company’s ecologically irresponsible AI development.

    “Analyst reports suggest that advanced technologies—such as AI or machine learning—have the potential to increase fossil fuel yield by 15%, contributing to a resurgence of oil and potentially delaying the global transition to renewable energy,” Alpine wrote. “The real-world impacts are staggering: A single such deal between Microsoft and ExxonMobil could generate emissions that exceed Microsoft’s 2020 annual carbon removal commitments by over 600%.”

    When she was a Microsoft employee, she wrote, she witnessed “dozens” of such deals.

    https://fortune.com/article/how-much-water-does-ai-use
    #eau #IA #intelligence_artificielle #Californie

  • Une année 2024 parsemée d’embûches en technologie Stéphanie Dupuis - Radio Canada

    Le domaine des technologies a connu quelques échecs en 2024, dont la panne de CrowdStrike, le Humane AI Pin et l’Apple Vision Pro.

    Entre les licenciements massifs, une panne informatique mondiale et des gadgets d’intelligence artificielle inachevés, les 12 derniers mois n’ont pas été des plus prolifiques dans la sphère technologique.

    Des licenciements massifs
    L’année a été particulièrement difficile pour les industries technologiques, dont celle du jeu vidéo.

    “Il n’y a pas un mois où on n’a pas annoncé de licenciements dans le monde de la technologie et des jeux vidéo. Je pense qu’il n’y a pas un studio qui n’a pas été affecté par des coupures et des licenciements”, dit Carl-Edwin Michel, chroniqueur techno.

    L’industrie québécoise a aussi été éclaboussée par la révision à la baisse des crédits d’impôt pour les studios de jeux vidéo, annoncée en mars par le ministre des Finances, Eric Girard.

    C’est vraiment dommage, car ça affectera beaucoup de studios de jeux vidéo.

    D’après la Guilde du jeu vidéo du Québec, la simple annonce du budget Girard a déjà freiné l’élan de studios internationaux qui comptaient investir dans la production locale.

    “J’espère qu’ils vont changer de cap, mais pour l’instant, ça en est au point mort”, déplore-t-il.

    La panne mondiale de CrowdStrike
    Un bilan de fin d’année en technologie ne serait pas digne de ce nom s’il ne comprenait pas le cafouillage entourant la panne mondiale de CrowdStrike sur les appareils de Microsoft.

    Un problème dans un système de tests de mise à jour a causé une anomalie qui a paralysé quelque 8,5 millions d’ordinateurs dans le monde, dont plusieurs ont nécessité l’intervention manuelle d’équipes techniques en informatique.

    Au Canada, les douanes, les hôpitaux, les banques, les marchés boursiers ainsi que les télécommunications et les médias ont été touchés.

    Des avions ont été cloués au sol pendant la panne informatique.

    Le secteur aérien aussi : la compagnie Delta Air Lines a dû annuler des milliers de vols et a mis des semaines à se remettre de la panne. Ces délais lui ont valu une convocation au Congrès américain, au même titre que CrowdStrike, afin d’aborder ces déboires informatiques.

    Des actionnaires de la firme de cybersécurité ont aussi entamé un recours collectif contre l’entreprise, se sentant trompés quant à la fiabilité de ses tests logiciels.

    CrowdStrike devrait encore faire couler de l’encre en 2025.

    L’IA nous en a fait voir de toutes les couleurs
    En technologie, janvier rime souvent avec innovation, puisque c’est à ce moment que se tient l’important salon mondial Consumer Electronics Shows (CES).
    Début 2024, ce sont des gadgets portatifs alimentés par l’intelligence artificielle (IA) qui ont volé la vedette de cette grand-messe de l’industrie : le Humane AI Pin et le Rabbit R1.

    Le Rabbit R1 est un appareil de poche qui peut recevoir des commandes en langage naturel et avec lequel on navigue au moyen d’une roulette. Le Humane AI Pin, pour sa part, se porte sur les vêtements, est doté d’une caméra et utilise la projection et les mains pour interagir avec le système.

    Ces deux gadgets, issus de jeunes pousses, devaient remplacer notre téléphone intelligent, mais il n’en a rien été, selon Carl-Edwin Michel.

    On se rend compte que des entreprises ont surfé sur la vague de l’IA avec toutes sortes de gadgets qui ne font pas [le poids].
    Une citation de Carl-Edwin Michel, chroniqueur techno

    L’IA a également été au cœur de nombreuses mobilisations, notamment judiciaires, pour violation de droit d’auteur. Des médias canadiens se sont également unis pour s’en prendre à OpenAI, qu’ils accusent d’utiliser leurs contenus en ligne sans leur consentement pour entraîner son outil ChatGPT.

    Le quotidien américain The New York Times, déjà en poursuite judiciaire contre OpenAI et Microsoft depuis 2023, a aussi mis en demeure Perplexity AI afin que l’entreprise cesse de piller ses contenus. La Recording Industry Association of America (RIAA) a pour sa part porté plainte contre Suno et Udio, deux outils qui permettent de générer de la musique à partir d’une simple requête.

    Si l’IA n’a pas chamboulé les élections américaines de la manière dont on le croyait, elle a tout de même “été utilisée à mauvais escient sur les réseaux sociaux”, note le chroniqueur techno. “Des personnes comme Elon Musk, qui a utilisé l’IA pour abriter et créer de fausses nouvelles sur son réseau social X, avec de fausses images de Kamala Harris, par exemple [...] je trouve ça déplorable.”

    Déception pour l’Apple Vision Pro
    Le casque de réalité mixte d’Apple, le Vision Pro, était attendu depuis longtemps par les adeptes du métavers. Vendu au Canada au prix de 5000 $ plus taxes, beaucoup ont rapidement déchanté… dont Carl-Edwin Michel.

    On s’est rendu compte que ce casque n’a rien d’extraordinaire, à part le prix qui, lui, est extraordinaire.
    Une citation de Carl-Edwin Michel, chroniqueur techno

    Le coup de grâce pour Apple a été le fait que le casque Meta Quest 3, lancé en octobre 2023, soit “capable de faire plus ou moins les mêmes choses, à une fraction du prix”, souligne le chroniqueur techno, qui a pu tester les deux appareils.

    La présence du géant américain Meta depuis des années dans le créneau des expériences immersives lui offre une longueur d’avance pour créer des partenariats et des applications pour ses appareils – l’une des principales critiques formulées à l’égard du casque d’Apple est un manquement à ce chapitre.

    Le chroniqueur reconnaît néanmoins que la qualité d’image du produit d’Apple est nettement supérieure à celle de son adversaire. “Même si l’expérience est de meilleure qualité du côté du Vision Pro, à application identique, je vais préférer le Meta Quest et payer moins cher”, ajoute-t-il.

    Les attentes étaient élevées pour l’Apple Vision Pro, surtout “qu’un Québécois a été impliqué dans son développement”, ajoute-t-il. Apple a racheté la jeune pousse montréalaise VrVana et sa technologie de réalité mixte pour plus de 30 millions de dollars en 2017.

    Des abonnements de plus en plus chers
    Disney+, Spotify, Netflix… Pratiquement tous les services de diffusion en continu ont connu des hausses de tarifs, ou des changements aux formules d’abonnement qui ont eu des répercussions sur le portefeuille de la population canadienne en 2024.

    L’abonnement premium à Disney+, par exemple, est passé de 120 $ à 160 $ par an. Celui de Spotify a connu une hausse de 24 % en décembre. Netflix, pour sa part, a débranché pour de bon sa formule de base sans publicités, forçant les gens à payer plus cher pour l’offre semblable, ou moins cher pour une offre avec publicités.

    On a décidé de couper le câble, car les applications, c’est l’avenir. [...] On en est à repenser si ça en vaut encore la peine.
    Une citation de Carl-Edwin Michel, chroniqueur techno

    “C’est courant, dans la culture tech, d’offrir un service pas très cher et pratique au début, comme Airbnb. Mais que dès que la masse critique embarque, on augmente les prix”, explique-t-il.

    Le chroniqueur techno se réjouit tout de même de voir émerger des solutions de rechange, moins chères, avec publicités, comme c’est le cas pour Netflix et Crave, par exemple.

    Les géants des réseaux sociaux esquivent certaines responsabilités
    TikTok Canada et Meta devaient être entendues à la Commission spéciale sur les impacts des écrans et des réseaux sociaux sur la santé et le développement des jeunes (CSESJ) une première fois fin septembre. L’audition a été reportée à la fin novembre.

    Entre-temps, la filiale canadienne de TikTok a été dissoute par Ottawa, évoquant “des risques pour la sécurité nationale” et annulant du même coup sa présence à la nouvelle séance. Meta s’est désistée à son tour quelques jours plus tard, forçant l’annulation de l’audition.

    C’est important que ces plateformes, qui sont très importantes au Québec et au Canada [...] soient redevables.
    Une citation de Carl-Edwin Michel, chroniqueur techno

    À cela s’ajoute le blocage des nouvelles sur les plateformes de Meta, maintenu depuis plus d’un an, et dont les discussions sont au point mort entre l’entreprise et le gouvernement.
    Celui-ci n’exclut pas de recourir au pouvoir d’assignation à comparaître.

    #gamelle #échec #illusions #technologies #CrowdStrike #cafouillage #microsoft #fiabilité #ia #ChatGPT #OpenAI #Apple #Vision_Pro #métavers #Disney+ #Spotify #Netflix #v

    Source : https://ici.radio-canada.ca/nouvelle/2128411/annee-2024-flop-techno