• Your Brain on #ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task

    This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI’s role in learning.

    https://arxiv.org/abs/2506.08872

    #cerveau #IA #AI #intelligence_artificielle #LLM #écriture #activité_cognitive #dette_cognitive #déclin_cognitif

  • Builder.ai s’effondre après avoir caché 700 développeurs derrière son « IA » RTS - Pascal Wassmer

    La start-up britannique Builder.ai, valorisée à 1,5 milliard de dollars, a fait faillite après la découverte d’une fraude massive. Son intelligence artificielle révolutionnaire « Natasha » cachait en réalité 700 développeurs indiens. L’entreprise avait gonflé ses revenus de 300% pour attirer Microsoft et d’autres investisseurs majeurs.

    Builder.ai promettait de révolutionner le développement d’applications. La start-up britannique assurait pouvoir créer des logiciels « aussi facilement que commander une pizza » grâce à son intelligence artificielle « Natasha ».


    La réalité était tout autre. Derrière cette prétendue IA se cachaient près de 700 développeurs basés en Inde. Ils réalisaient manuellement le travail de programmation pour les clients.

    L’entreprise fondée en 2016 par Sachin Dev Duggal s’est effondrée en mai dernier. Elle avait pourtant réussi à lever près de 500 millions de dollars auprès d’investisseurs prestigieux.

    Microsoft, le fonds souverain du Qatar et SoftBank comptaient parmi ses financeurs. Ils avaient tous été séduits par la promesse d’une intelligence artificielle révolutionnaire.

    Des revenus gonflés de 300%
    Une enquête interne a révélé l’ampleur de la tromperie. Builder.ai avait gonflé ses prévisions de chiffre d’affaires de 300% pour 2024. L’entreprise annonçait 220 millions de dollars de revenus. Un audit indépendant a établi le montant réel à 55 millions de dollars seulement.

    Les chiffres de 2023 ont également été revus à la baisse. De 180 millions de dollars annoncés, les revenus réels s’élevaient à 45 millions.

    Sachin Dev Duggal se surnommait le « sorcier en chef » de Builder.ai. Il a été contraint de démissionner en début d’année.

    Le scandale a éclaté après une enquête de Bloomberg révélant une fraude comptable dite de « round-tripping ». L’entreprise simulait des relations commerciales avec la société indienne VerSe Innovation.

    Des milliers d’emplois perdus
    La faillite a entraîné le licenciement de près d’un millier d’employés. Builder.ai doit désormais 85 millions de dollars à Amazon et 30 millions à Microsoft pour l’utilisation de services cloud.

    L’entreprise fait l’objet d’une enquête fédérale aux États-Unis. Le bureau du procureur de Manhattan a exigé l’accès aux états comptables et à la liste des clients.

    Cette affaire illustre le phénomène du « blanchiment d’IA ». Cette pratique consiste à présenter des services technologiques de base comme de l’intelligence artificielle authentique.

    L’objectif est de capitaliser sur l’enthousiasme des investisseurs pour l’IA. Builder.ai n’est pas un cas isolé dans le secteur technologique.

    Source : https://www.rts.ch/info/sciences-tech/2025/article/builder-ai-s-effondre-apres-avoir-cache-700-developpeurs-derriere-son-ia-2890991
    #ia #intelligence_artificielle #ai #algorithme #technologie #chatgpt #machine_learning #escroquerie #fraude #arnaque

  • Conférence de #Khrys :

    #IA, #Philosophie du Libre et #Féminisme

    L’objectif de cette #conférence est, tout d’abord, d’apporter une réflexion sur ce que l’on appelle intelligence artificielle et l’#idéologie qui se cache derrière ; ensuite, de montrer en quoi la #philosophie_du_libre et le féminisme peuvent nous guider dans les #choix techniques et politiques à venir en ce domaine. Le tout en revisitant l’histoire des techniques et #imaginaires liés à l’IA sous un angle féministe.

    https://videos-libr.es/w/cKZQqzVxRfC9suiynb2yKt
    #AI #intelligence_artificielle #whisper #OpenAI #technique #machine #apprentissages_profonds #systèmes_experts #chatGPT #Eliza #projet #patriarcat

  • Rassemblement contre l’extrême droite et le printemps de l’ouest de la #ligue_ligérienne
    https://nantes.indymedia.org/events/147643/rassemblement-contre-lextreme-droite-et-le-printemps-de-louest-de-

    La ligue ligérienne et d’autres groupes néo-fascistes de l’ouest (dont Jeau-Eudes Gannat et sa bande de l’alvarium d’Anger) prévoient de se rassembler du côté de Châteaubriant le samedi 14 Juin pour un “Printemps de l’ouest, journée de rencontre du Mouvement Chouan”. Un rassemblement “festif, familial et déterminé contre l’extrême droite”…

    #Antifascisme #Fascime #Jean-Eudes_Gannat #Chateaubriant

  • Fêtons ensemble les 5 ans de « Splann ! » le 28 juin, à #Châteaulin
    https://splann.org/fetons-ensemble-les-5-ans-de-splann-le-28-juin-a-chateaulin

    Venez rencontrer toute l’équipe de Splann !, dont nos cofondatrices, Inès Léraud et Morgan Large, le 28 juin, à Châteaulin (29). Une journée articulée autour de quatre tables rondes, un #fest-noz et un concert, à partir de 14 h. L’article Fêtons ensemble les 5 ans de « Splann ! » le 28 juin, à Châteaulin est apparu en premier sur Splann ! | ONG d’enquêtes journalistiques en Bretagne.

    #La_vie_de_« Splann !_ » #Ducasse #Run_ar_Puñs

  • Régis No - Mastodon
    https://piaille.fr/@regis_n/114539666116070626

    Quand un parent d’élève utilise #chatgpt pour m’expliquer que ma pédagogie n’est pas adaptée à son enfant, et qu’il oublie de remplacer [Prénom] par le prénom de son enfant...
    Je ne sais plus s’il faut en rire ou en pleurer...
    #teamprof #TeamMaths

    Pour cette raison, il serait vraiment bénéfique de s’en tenir à une méthode unique et stable pour aborder la proportionnalité. En particulier, la méthode dite de la quatrième proportionnelle (ou “produit en croix”) est celle qu’il a le mieux retenue. Elle est efficace, compréhensible, et adaptée à ses capacités actuelles, surtout si elle est soutenue par l’usage systématique de la calculatrice, qui compense son déficit attentionnel et l’aide à se concentrer sur le raisonnement plutôt que sur le calcul.

    Je comprends bien la richesse des différentes approches possibles en classe, mais pour [Prénom], la démultiplication des méthodes risque de nuire à ses repères cognitifs et à sa progression.

    Je vous remercie de votre compréhension et reste à votre disposition pour échanger à ce sujet si besoin.

    Bien cordialement,

    Régis No - Mastodon
    https://piaille.fr/@regis_n/114540451558689988

    Suite de l’histoire : j’ai fini par répondre très calmement (et sans chatgpt) que je n’enseignais pas la technique du « produit en croix » que son fils « a le mieux retenue » car elle n’est pas au programme de 6ème...

    Bonjour Monsieur,

    Je n’enseigne pas la méthode du produit en croix en classe de 6ème car elle n’est pas au programme. L’objectif est la compréhension du sens de la proportionnalité, notion très utilisée dans la vie quotidienne, avant la mise en place d’une procédure de calcul, certes efficace, mais difficilement justifiable et compréhensible en fin de 6ème. Pour plus d’informations, vous trouverez en pièce jointe une capture d’écran du programme de mathématiques concernant la proportionnalité, que vous pourrez retrouver en intégralité sur le site https://eduscol.education.fr/87/j-enseigne-au-cycle-3
    Cordialement,

  • #Signature #PDF - Signer et manipuler des PDF en ligne librement
    https://pdf.24eme.fr

    Logiciel libre pour signer et manipuler des PDF

    Free web software for signing (alone or with others), organizing (merge, sort, rotate, delete, extract pages, ...), editing metadatas or compressing PDFs.

    Pour faire suite à https://seenthis.net/messages/1073600 mais cette fois le stack est moins lourd cf https://github.com/24eme/signaturepdf/blob/master/installation.md et il y a quelques instances hébergées chez des #CHATONS

  • The Pulse #134: #Stack_overflow is almost dead
    https://newsletter.pragmaticengineer.com/p/the-pulse-134

    Four months ago, we asked Are #LLMs making Stack Overflow irrelevant? Data at the time suggested that the answer is likely “yes:”

    Since then, things at Stack Overflow went from bad to worse. The volume of questions asked has nearly dried up, new data shows

    #IA #AI #ChatGPT

    • les données sont là…
      https://gist.github.com/hopeseekr/f522e380e35745bd5bdc3269a9f0b132?ref=blog.pragmaticengineer.com#file-st

      SELECT YEAR(CreationDate) AS Year, MONTH(CreationDate) AS Month, COUNT(*) AS NumQuestions
      FROM Posts
      WHERE PostTypeId = 1 -- Questions only
      GROUP BY YEAR(CreationDate), MONTH(CreationDate)
      ORDER BY Year DESC, Month DESC;

      … avec quelques commentaires – dont le tout premier :

      The decline is definitely not just ChatGPT, look at 2018, aside from December it’s 150k-ish by 2022 it’s below 120k more like 110k, it was already in decline. This is mostly because people are hostile to questions — as you pointed out. ChatGPT merely made it unnecessary to interact with these people. The founders saw the writing on the wall, they brought in a corporate butcher in 2019 for a CEO, completely blundered relations with the community shortly after as they tried to become more enterprise friendly (Monica Cellio), then fired the community managers in 2020, sold the site in 2021. It’s like the Soviet Union which ended in 1986 it was just so big it took the giant five years to topple to the ground. For SO, it seems it died in 2019 and will close in 2026 (at best).

      Stack Overflow - Wikipedia
      https://en.wikipedia.org/wiki/Stack_Overflow

      On 3 May 2010, it was announced that Stack Overflow had raised $6 million in venture capital from a group of investors led by Union Square Ventures.

      In [September] 2019, Stack Overflow named Prashanth Chandrasekar as its chief executive officer and Teresa Dietrich as its chief product officer.

      In June 2021, Prosus, a Netherlands-based subsidiary of South African media company Naspers, announced a deal to acquire Stack Overflow for $1.8 billion.

    • Mon experience personnelle ne peut que confirmer les nombreux commentaires du lien ci dessus. Depuis pas mal d’années la plupart des questions sont celles de débutants qui viennent faire faire leur devoir ou incapable de chercher 30s des réponses existantes, et les réponses, quand il y en a, ne répondent pas au problème mais expliquent avec mépris que la question n’aurait pas du être posée.

      Mais même si poser des questions n’a plus d’intérêt, consulter les réponses précédentes reste très instructif. En fait, il faudrait geler le site pour éviter que les échanges pertinents de l’époque se retrouvent noyés par tout ce bruit inutile.

    • J’ai exactement le même ressenti que @inadvertance
      Et encore, aujourd’hui il n’y a même plus les questions d’étudiants venant faire leurs devoirs puisque ceux-ci passent par chatGPT, et là pareil je suis en train à l’instant d’en faire les frais : 64 devoirs corrigés, une dizaine de convocations pour qu’ils m’expliquent leur code parce que ça pue le chatGPT. Iels connaissent le fonctionnement : tu n’arrives pas à m’expliquer ce que fait ce code ? c’est zéro. Mon boulot c’est pas de corriger chatGPT, c’est d’évaluer si tu as assimilé des connaissances.

  • Quand l’#assurance prend en charge les #hallucinations des #chatbots dopés à l’#IA | Les Echos
    https://www.lesechos.fr/finance-marches/banque-assurances/quand-lassurance-prend-en-charge-les-hallucinations-des-chatbots-dopes-a-li

    Le Lloyd’s of London, plus grand marché mondial de l’assurance des entreprises, lance une solution couvrant les défaillances des chatbots. Le produit ouvre la voie à une adoption plus large de l’IA, tout en permettant aux assureurs de capter un marché en pleine expansion.

  • #Productivité en hausse, #motivation en baisse : la gueule de bois de l’#IA au #travail

    Les individus épaulés par l’intelligence artificielle produisent des résultats généralement plus qualitatifs. Mais cette collaboration s’accompagne de lourds coûts psychologiques.

    Depuis le lancement retentissant de #ChatGPT fin 2022, l’IA générative s’est rapidement imposée sur un nombre croissant de plateformes et d’appareils technologiques. À l’instar de nombreuses innovations majeures, son essor fulgurant a devancé la mise en place de cadres assurant une utilisation sûre et responsable.

    Les enseignants, par exemple, doivent désormais composer avec le fait que nombre (voire la totalité) de leurs élèves utilisent des outils d’IA générative comme ChatGPT et Gemini pour réaliser leurs devoirs.

    De même, les chefs d’entreprise sont aujourd’hui confrontés au défi de gérer une main-d’œuvre utilisant l’#IA_générative. Et de s’assurer que cette technologie facilite, plutôt qu’elle ne freine, la #performance des employés. Les leaders de la tech ont tendance à affirmer que l’IA générative améliorera la #créativité et le #bien-être humains. Mais la réalité est beaucoup moins claire.

    Une étude publiée par Harvard Business Review révèle que l’IA générative sur le lieu de travail est une arme à double tranchant : elle peut améliorer la productivité des employés, mais aussi éroder le #sens et l’#engagement au travail.

    La gueule de bois de l’IA

    L’étude a suivi 3 500 sujets humains pendant qu’ils effectuaient diverses tâches, allant du brainstorming d’idées à la rédaction d’e-mails. Certaines de ces tâches ont été réalisées avec l’aide de l’IA générative. D’autres non.

    Les chercheurs ont constaté que les résultats des travailleurs assistés par l’IA étaient généralement de meilleure #qualité. Les e-mails rédigés avec l’aide de l’IA, par exemple, étaient jugés plus encourageants et amicaux.

    Cependant, les sujets ayant initialement utilisé l’IA ont souffert psychologiquement lorsqu’ils ont été contraints de passer à une autre tâche qu’ils devaient accomplir seuls. Chez ces travailleur la motivation intrinsèque a chuté en moyenne de 11 % et l’ennui a grimpé en flèche de 20 % en moyenne après la perte de l’aide de l’IA. En revanche, ceux qui ont travaillé systématiquement sans IA n’ont signalé aucun changement émotionnel significatif.

    #Autonomie perdue, motivation en berne

    Le résultat est que les avantages de l’utilisation de l’IA générative sur le lieu de travail produisent souvent une sorte de #gueule_de_bois.

    « Bien que l’utilisation d’outils d’IA puisse sembler productive, elle peut laisser les travailleurs moins engagés lorsqu’ils passent à des tâches qui n’impliquent pas le support de l’IA - une réalité courante dans les flux de travail où toutes les tâches ne peuvent pas ou ne doivent pas être assistées par l’IA », indique le rapport.

    Selon l’étude, le #fardeau_psychologique ressenti par les employés ayant initialement utilisé l’IA trouve son origine dans un sentiment d’autonomie et de contrôle – ou plutôt dans leur absence. Le travail confié à l’IA pour chaque tâche tend à concerner les aspects les plus exigeants sur le plan cognitif, qui sont aussi généralement les plus gratifiants.
    « Les travailleurs retrouvent leur autonomie mais se sentent moins inspirés et moins stimulés », note le rapport.

    Cette nouvelle recherche peut aider les chefs d’entreprise à élaborer une feuille de route pour l’utilisation de l’IA par les employés.

    Une feuille de route pour un usage réfléchi

    Plutôt que de recommander l’interdiction de l’IA générative en milieu professionnel, les chercheurs de Harvard recommandent aux employeurs de maximiser les avantages de cette technologie tout en en limitant les coûts.

    Cela peut se faire, par exemple, en utilisant l’IA dès les premières étapes d’un projet – par exemple, la rédaction des grandes lignes d’une évaluation de performance – avant de passer à une créativité humaine sans IA. De plus, les employés qui viennent de terminer une tâche assistée par IA devraient immédiatement passer à une tâche non automatisée qui requiert un esprit critique pour maintenir leur capacité d’action et leur engagement.

    Selon les chercheurs, l’éducation devrait également être une priorité. Plutôt que d’espérer aveuglément que les individus et les équipes puissent intégrer l’IA générative à leurs flux de travail de manière bénéfique pour l’ensemble, les employeurs devraient lancer des initiatives de formation, des ateliers et des actions de communication qui clarifient les avantages et les inconvénients de cette technologie.

    https://www.zdnet.fr/actualites/productivite-en-hausse-motivation-en-baisse-les-effets-ambivalents-de-lia-au-t
    #AI #intelligence_artificielle #enseignement

    • Research: Gen AI Makes People More Productive—and Less Motivated

      The integration of generative AI into the workplace represents a tremendous opportunity to enhance productivity, creativity, and innovation. But new research shows that it can have a downside: a study of over 3,500 people found that using AI tools led to performance gains, but also made employees less motivated and more bored when they had to work on other tasks, without the use of AI. The researchers examine their findings to offer ways that leaders can redesign workflows and preserve the elements of work that drive intrinsic motivation. By doing so, companies can unlock the full potential of both AI and their workforce.

      https://hbr.org/2025/05/research-gen-ai-makes-people-more-productive-and-less-motivated

  • N’avons-nous pas répété depuis des siècles l’adage de Descartes :
    "Je pense, donc je suis" ?

    Mais est-ce toujours vrai à l’ère de #ChatGPT ?
    Selon OpenAI, 400 millions de personnes utiliseraient leur chatbot chaque semaine

    On salue l’#innovation
    On applaudit la #rapidité

    Mais on oublie souvent de regarder la partie immergée de l’iceberg, là où apparaissent les premiers signes de #dépendance fonctionnelle...

    Les premières études évoquent plusieurs répercussions préoccupantes :

    👉 Perte d’#autonomie → difficulté à réfléchir sans l’outil

    👉 Perte de #confiance_en_soi → angoisse à l’idée de prendre des décisions seul

    👉 Dépendance à l’outil → stress en l’absence de ses recommandations

    👉 Affaiblissement de la #réflexion personnelle → le cerveau s’habitue à externaliser ses processus de pensée

    On veut aller vite
    On veut être efficace

    Mais on oublie les impacts à long terme :

    1️⃣Déléguer notre réflexion à l’IA pourrait affaiblir gravement l’#intelligence_collective des organisations

    2️⃣ L’IA crée une #dépendance_cognitive qui pourrait limiter l’#innovation_humaine et la #pensée_critique

    Alors, quand un employé me dit, après une formation :
    “Vous m’avez ouvert les yeux… je vais recommencer à réfléchir par moi-même.”

    C’est une victoire !
    Pour lui
    Pour notre communauté
    Et pour son entreprise

    Nous devons former les équipes à penser sans l’IA et à renforcer notre innovation humaine avec elle

    Parce que si nous demandons aux machines de penser à notre place,
    nous perdrons ce qui fait de nous des êtres humains 🧠

    Et vous, comment préparez-vous vos équipes à préserver leur souveraineté cognitive face à l’IA ?

    https://www.linkedin.com/posts/laurie-michel-vivala_hyperconnectivitaez-ia-chatgpt-activity-7323307641005
    #IA #AI #intelligence_artificielle #pensée #iceberg #ressources_pédagogiques

  • Dates de l’infotour #Antinucléaire en Bretagne-Normandie
    https://nantes.indymedia.org/posts/143628/dates-de-linfotour-antinucleaire-en-bretagne-normandie

     Suite à notre texte d’invitation à un #infotour antinucléaire en Bretagne-Normandie ce printemps, nous sommes content.es de vous en annoncer les dates ! Bien que le contexte actuel soit particulièrement peu réjouissant, il y a toutes les bonnes raisons de lutter contre le nucléaire : relance nationale du nucléaire,…

    #Caen #Châteaulin #Coutances #Laval #Nantes #Rennes #Rouen #Saint-Nazaire #Trémargat #Valognes #Local

  • Quand l’IA générative est une exploitation
    https://lepavenumerique.substack.com/p/quand-lia-generative-est-une-exploitation

    Édito du Pavé Numérique du 2 avril 2025
    par Ivan Gaudé

    https://www.youtube.com/watch?v=ngZ0K3lWKRc

    Miyazaki : « La génération d’animation par IA est une insulte à la vie elle-même. »

    Le 25 mars, #OpenAI a intégré à #ChatGPT un nouveau générateur d’images [1] perfectionné (avant de devoir partiellement en limiter l’accès gratuit devant la demande). Aussitôt, sans que l’on sache vraiment pourquoi, les utilisateurs sont devenus obsédés par le style visuel de Ghibli (studio d’animation fondé par Hayao Miyazaki et Isao Takahata). Ils ont inondé les réseaux sociaux de photos modifiées par ChatGPT pour être « dans le style » de #Ghibli [2] (en fait principalement celui de #Miyazaki).

    Quel est le problème ? Qu’y a-t-il de plus innocent qu’une petite ghiblimation du quotidien ? Derrière la génération de ces images optimistes, il y a un hic, et même deux.

    D’abord, cette possibilité implique de toute évidence que l’IA générative d’OpenAI a été entraînée sur la production du studio, sans accord ni autorisation [3]. Et même si le cadre juridique d’une telle utilisation n’est pas encore clarifié, même si la loi ne protège pas un style (et encore moins un style collectif), il est indéniable qu’il s’agit d’une appropriation.

    Circonstance aggravante, cela semble aller directement à l’encontre de la volonté de Miyazaki lui-même, qui est réputé avoir qualifié la génération d’animation par IA « d’insulte à la vie elle-même » (la dureté de cette phrase semble viser plus particulièrement la génération de mouvements non humains, mais sa consternation devant le principe même de la technique est très visible [4]). Seulement, on ne lui a pas demandé son avis.

    Pas plus que ne demandent quoi que ce soit les partisans MAGA [5], qui sont nombreux à s’être emparés de cette machine à mèmes, notamment sur X, ou la Maison-Blanche elle-même qui n’a pas manqué d’enfourcher la tendance de la façon la plus déshumanisante possible. La ghiblimation en cours sert donc aussi à camoufler la violence politique sous un vernis visuel familier et rassurant. Et une œuvre dont les thèmes récurrents sont l’antifascisme, la solidarité et le respect de la nature est recyclée par une idéologie qui prône son exact opposé.

    En somme, la ghiblimation est une sublimation, au sens physique du terme : elle fait passer une œuvre solide directement à l’état gazeux. En extrayant un soi-disant « style » pour le séparer du reste de l’œuvre et donc de son sens, OpenAI a permis une forme d’expropriation du créateur, suivie d’une déclinaison infinie et gratuite, ouverte à tous les contresens puisque dénaturée ; une exploitation totale.

  • OpenAI opens an animated can of worms - POLITICO
    https://www.politico.com/newsletters/digital-future-daily/2025/03/31/openais-studio-ghibli-play-and-its-discontents-00261188
    https://www.politico.com/dims4/default/1b14a6c/2147483647/resize/762x/quality/90/?url=https%3A%2F%2Fstatic.politico.com%2F4d%2F02%2Fe4d3f2f441ac909d60b35c0

    The latest update of OpenAI’s new image-generation software has sparked a flood of viral images recreated in the style of Studio Ghibli, the Japanese animation studio — and kicked off a furious fight over the uses and abuses of AI, including its uncertain copyright status and its potential effect on the environment.

    As OpenAI CEO Sam Altman made clear, he and his fellow executives deliberately chose to create the first images highlighting their new image-generation tech in the warm, slightly nostalgic style of Hayao Miyazaki, Ghibli’s legendary chief animator.

    And it worked — huge numbers of people uploaded photos of their family and friends into ChatGPT, eager to recreate their cherished images in Ghibli’s iconic style. The company’s user base appears to have ballooned as a result.

    The ironies are many — including the fact that Miyazaki is particularly known for painstaking, hand-drawn work that has managed to survive and thrive in the age of computer animation. If Altman had wanted to highlight the raw potential of AI to take over whole realms of human art and talent, he couldn’t have picked a better vehicle. Some critics even claimed that exerting power over animators like Miyazaki was a deliberate part of OpenAI’s strategy.

    And there are even darker sides to the viral trend. Some used ChatGPT’s new capabilities to Ghibli-fy horrific historical scenes, including the 9/11 attacks and the murder of George Floyd. The White House itself used Ghibli’s wholesome style to depict a real-world immigration arrest.

    None of this appears to have been done with the permission of Miyazaki or Studio Ghibli. “I don’t even want to imagine what Miyazaki’s reaction would be to that,” said Susan Napier, a professor at Tufts University who wrote a book on the Japanese animator. She noted that Miyazaki once refused to attend an Oscars ceremony, despite winning an award, over his anger at the American invasion of Iraq.

    “The idea that this work that he has built is being repurposed by a government agency in the United States would be, I think, rather a nightmare,” Napier told DFD.

    Miyazaki has so far been silent. But if he did decide to sue, it’s not clear that he’d have a case.

    Multiple legal challenges targeting the use of copyrighted works to train AI models are wending their way through U.S. courts. At the heart of those cases is the “fair use” doctrine of copyright law, which allows individuals and companies to make limited use of copyrighted material without permission. Chris Lehane, OpenAI’s vice president of global policy, said this month that the company “continue[s] to apply that fair use doctrine consistent with the technology.” Like other AI companies, OpenAI recently pressed the White House to ensure that fair use extends to AIs trained on copyrighted material.

    Bradley Hulbert, an intellectual property lawyer and founding partner of MBHB, told DFD that there is no single test in American jurisprudence for when an AI-generated work infringes on copyright.

    The most stringent test, developed by the 9th Circuit Court of Appeals, includes an examination of whether the overall “look and feel” of a generated work is “substantially similar” to the original. But Hulbert said that’s not a universal standard — and for businesses like OpenAI to have certainty, he said either the Supreme Court or Congress should move to create one.

    So far, neither Studio Ghibli nor its affiliates have announced any plans to challenge OpenAI’s use of their image style. On Friday, the North American distributor for Studio Ghibli released a statement celebrating support for hand-drawn animation “in a time when technology tries to replicate humanity.”

    In response to a question from DFD regarding copyright concerns raised by the Ghibli trend, an OpenAI spokesperson said the company “continue[s] to prevent generations in the style of individual living artists, but we do permit broader studio styles — which people have used to generate and share some truly delightful and inspired original fan creations.”

    The spokesperson added that the company is “learning from real-world use and feedback, and we’ll keep refining our policies as we go. Our image generation tools are designed to support human creativity, not replace it.”

    As with many uses of AI, there’s no easy line to draw between what’s “creative” and what’s just theft.

    Dean Ball, a research fellow at the libertarian Mercatus Center and non-resident senior fellow at the pro-tech Foundation for American Innovation, called the Ghibli trend “a wonderful collective experience” and said there will be “lots of people that go and watch Miyazaki movies because of this.”

    Even Napier — who said Studio Ghibli’s wholesome, pro-environmental and animistic worldview is “being kind of blasphemed” by ChatGPT — suggested it was nice to see so many people joyfully depicting their families through the beautifully transcendent art style.

    The Ghibli trend also raised the hackles of environmentalists, many of whom were already worried by AI’s runaway use of energy resources. As the trend took off late last week, Altman — in a kind of humblebrag about his new platform’s popularity — warned that OpenAI’s GPU’s were “melting” and imposed rate limits on image generation. The admission prompted a surge of concern among people worried about AI’s carbon footprint.

    But Ball said that even if huge amounts of energy are being diverted to the creation of anime-style images, it shouldn’t be viewed as a waste of resources.

    “If we cure cancer in the next 10 years, we’re going to do it on chips that were originally designed to play video games,” Ball said.

    OpenAI’s new update puts the long-term fate of all artists into stark relief. It’s not just Ghibli — the technology appears able to recreate any art style, from Van Gogh to the Simpsons, with uncanny accuracy. Critics fret that ChatGPT, and other tech like it, will soon put most human artists out of work.

    “It’s conceivable that the opportunities for human-created art in the digital domain are going to change, and they may well diminish,” Ball admitted. But he framed the concern as an inevitable byproduct of technological progress — the latest iteration in the kind of creative destruction that replaced horses with automobiles.

    “Nobody’s entitled to have their craft stay completely the same forever,” Ball said.

    #Intelligence_artificielle #ChatGPT #Myazaki #Ghibli #Propriété_intellectuelle #Images

  • L’#IA générative a le potentiel de détruire la planète (mais pas comme vous le pensez)

    Le risque premier avec l’#intelligence_artificielle n’est pas qu’elle s’attaque aux humains comme dans un scénario de science-fiction. Mais plutôt qu’elle participe à détruire notre #environnement en contribuant au #réchauffement_climatique.

    La course à l’intelligence artificielle (IA) s’intensifie. Le 9 février, veille du sommet de l’IA à Paris, Emmanuel Macron promettait 109 milliards d’euros d’investissements publics et privés dans cette technologie pour les années à venir. Il entend concurrencer les États-Unis sur ce terrain, en faisant référence au programme « #Stargate » promis par Donald Trump, qui prévoit des dépenses de 500 milliards de dollars (484 milliards d’euros) dans l’IA aux États-Unis.

    Des deux côtés de l’Atlantique, ces centaines de milliards seront principalement investis dans la construction de nouveaux #centres_de_données pour entraîner puis faire fonctionner les outils d’intelligence artificielle. Pourtant, les #impacts_environnementaux de ces « #data_centers », mis de côté dans ce sprint à l’IA, présentent un danger réel pour notre planète.

    « Plus grand est le modèle, mieux c’est »

    L’ouverture au public de l’agent conversationnel d’#OpenAI, #ChatGPT, en novembre 2022 a marqué un tournant dans les usages de l’intelligence artificielle. Depuis, des dizaines d’#IA_génératives sont accessibles avec la capacité de résoudre des problèmes variés, allant de la rédaction d’un email professionnel à des suggestions de recette de tartes, en passant par des lignes de code informatique.

    Ces #grands_modèles_de_langage (en anglais, « #Large_language_models », ou #LLM), avec un grand nombre de paramètres, se sont développés ces dernières années, comme #Gemini de #Google, #Le_Chat de l’entreprise française #MistralAI ou #Grok de X. D’autres modèles permettent de créer de toutes pièces des images – on pense à #Dall-E ou #Midjourney –, des vidéos ou des chansons.

    Si leur utilisation est gratuite (bien que des versions payantes existent), le prix est payé non seulement par les utilisateurs dont les #données_personnelles sont captées, mais aussi par les populations les plus vulnérables au changement climatique. Avec leurs dizaines voire centaines de milliards de paramètres et des terabytes de #données pour les alimenter, faire tourner les systèmes d’IA générative demande beaucoup de #puissance_de_calcul de #serveurs, situés dans des centres de données. Donc beaucoup d’#électricité.

    Ces chiffres ne font qu’augmenter à mesure que les modèles se perfectionnent. « Aujourd’hui, l’idée dominante dans l’industrie des modèles génératifs est : "Plus grand est le modèle, mieux c’est" », résument les chercheurs Paul Caillon et Alexandre Allauzen dans The Conversation. Malgré un manque de transparence des entreprises, la consommation d’électricité de leurs modèles et leur impact climatique ont fait l’objet d’estimations par nombre de chercheurs et institutions.
    Combien consomme une requête ChatGPT ?

    On sait déjà que la version de ChatGPT sortie en mars 2023, #GPT-4, a demandé plus de puissance de calcul que la précédente. Le Conseil économique et social (Cese), dans un avis de septembre 2024, cite OpenAI et explique : entraîner la troisième version de son modèle de langage a demandé l’équivalent de l’énergie consommée par 120 foyers américains. La version suivante a multiplié par 40 cette consommation, avoisinant la consommation de 5000 foyers.

    Selon une étude, début 2023, une requête ChatGPT consommait environ 2,9 Wh d’électricité, soit presque dix fois plus qu’une simple recherche Google (0,3 Wh). D’autres études estiment l’#impact_carbone d’une requête à ChatGPT autour de 4 à 5 grammes d’équivalent CO2.

    Produire une #image, c’est pire. La startup #HuggingFace, à l’origine de l’#IA_Bloom, a été l’une des premières à estimer les #émissions_de_gaz_à_effet_de_serre de ces modèles. Dans une étude co-écrite avec l’Université états-unienne de Carnegie-Mellon, elle montre que la génération d’image est de loin la plus polluante des requêtes formulées à une IA générative (l’étude ne prend pas en compte les vidéos).

    Pour donner un ordre d’idée, générer 1000 images correspondrait à conduire environ 7 kilomètres avec une voiture essence. En comparaison, 1000 textes générés équivalent à moins d’un 1 mètre parcouru avec un même véhicule. Mais leur utilisation massive rend cet impact non négligeable. Selon le PDG d’OpenAI Sam Altman,, à la fin de l’année 2024, plus d’un milliard de requêtes étaient envoyées à ChatGPT par jour.

    En janvier 2023, soit quelques mois après qu’elle a été rendue accessible au public, ChatGPT avait accumulé 100 millions d’utilisateurs. Selon une estimation de Data for Good, rien que ce mois-là, l’utilisation de ChatGPT aurait pollué à hauteur de 10 113 tonnes équivalent CO2 – soit environ 5700 allers-retours en avion entre Paris et New York.

    En décembre 2024, selon son PDG, le service avait atteint les 300 millions d’utilisateurs… par semaine. Et ce, avec une version bien plus performante – donc bien plus polluante – que la précédente.

    De plus en plus de personnes utilisent l’IA au quotidien, et pour de plus en plus de tâches. Installés dans nos smartphones, accessibles en ligne ou même intégrés dans les frigos haut de gamme, les outils d’intelligence artificielle sont presque partout.

    Une explosion de la consommation d’électricité

    Selon l’Agence internationale de l’énergie, les centres de données représenteraient aujourd’hui environ 1 % de la consommation d’électricité mondiale. Mais cette consommation risque d’augmenter avec les usages croissants et le développement de nouveaux modèles d’IA. Selon l’agence, la consommation des centres de données pour l’IA et les #cryptomonnaies a dépassé 460 TWh en 2022. C’est autant que la consommation de la France. D’ici l’année prochaine, selon les scénarios, cette demande en électricité pourrait augmenter de 35 % (160 TWh en plus) à 130 % (590 TWh) ! « Soit l’équivalent d’au moins une Suède et au maximum une Allemagne » de plus dans le monde en quelques années.

    Une autre étude de l’ONG Beyond Fossils Fuels est encore plus alarmiste : « Au cours des six prochaines années, l’explosion de la demande en énergie des centres de données dans l’UE [Union européenne] pourrait entraîner une hausse de 121 millions de tonnes des émissions de CO2, soit presque l’équivalent des émissions totales de toutes les centrales électriques au gaz d’Italie, d’Allemagne et du Royaume-Uni en 2024 combinées » écrit l’ONG en février 2025.

    Les grandes entreprises de la tech cherchent à faire oublier leurs promesses écologiques. Selon le Financial Times, dans un article d’août 2024, les Gafam tentent de remettre en cause les règles de « zéro carbone net » qui leur permettent de compenser leurs émissions de CO2 par le financement d’énergies renouvelables (des règles déjà critiquées pour leur mode de calcul qui dissimule une grande partie de l’impact carbone réel de leurs consommation d’électricité).

    « Ces géants de la technologie sont sur le point de devenir les plus gros consommateurs d’énergie de demain, dans leur course au développement d’une intelligence artificielle énergivore », écrit le média britannique. Les émissions de gaz à effet de serre de Google augmentent par exemple de 13% par an (selon des chiffres de 2023). Une hausse notamment portée par l’augmentation de la consommation d’énergie de ses centres de données. Les émissions de Microsoft ont bondi de 29 % entre 2020 et 2023.

    Des investissements massifs aux dépens des populations

    Les chefs d’État des États-Unis comme de la France ont pourtant annoncé des investissements massifs dans l’IA pour les années à venir. L’Union européenne, par la voix d’Ursula von der Leyen, a également annoncé un investissement de 200 milliards en partenariat avec de grands groupes.

    Dans les trois cas, ces centaines de milliards d’euros sur la table serviront majoritairement à construire des centres de données pour permettre l’entraînement puis l’utilisation de ces technologies. En France, en amont du sommet de l’IA, le fonds canadien Brookfield a annoncé investir 15 milliards d’euros dans la construction de centres de données, tandis que les Émirats arabes unis ont mis entre 30 et 50 milliards sur la table pour la construction d’un centre de données géant.

    Il est peu probable que cette consommation d’électricité massive ne se fasse pas au détriment des populations. En Irlande, les centres de données monopolisent une part grandissante de l’électricité du pays, ils représentent aujourd’hui plus de 20 % de sa consommation. Cette situation crée des tensions avec les habitants, qui voient leurs factures augmenter alors que la consommation des ménages n’augmente pas.
    Des engagements « durables » non contraignants

    Aux États-Unis, raconte un article de Vert, Microsoft va rouvrir le premier réacteur de la centrale nucléaire de Three Mile Island, site d’un accident en 1979 qui avait irradié toute cette partie de la Pennsylvanie et traumatisé les habitants. Les géants de la Tech – Google, Amazon et Microsoft en tête – cherchent également à investir dans les « petits réacteurs modulaires » nucléaires, en cours de développement, pour alimenter leurs centres de données, ce qui pose la question de la sûreté d’une multitude de petites installations nucléaires face au risque d’accidents. Autre conséquence : le retour en grâce du charbon, fortement émetteur en gaz à effet de serre. Dans l’État de Géorgie, la promesse faite il y a trois ans de fermer toutes ses centrales à charbon a été abandonnée pour répondre au pic de demande d’électricité créé par les centres de données.

    Face à ces risques pour les populations locales comme pour celles les plus vulnérables au changement climatique dans le monde entier, les actions semblent faibles. Une déclaration d’intention a été signée à l’issue du sommet de l’IA, notamment avec l’Inde et la Chine. Il prévoit entre autres la création d’un observatoire de l’impact énergétique de l’IA, sous la responsabilité de l’Agence internationale de l’énergie. Il planifie également la création d’une « coalition pour l’IA durable » avec de grandes entreprises du secteur.

    Ces engagements en matière d’intelligence artificielle signés par les États et les entreprises présentes ne sont pas contraignants, et ne sont pas tournés vers l’action immédiate. De plus, ni le Royaume-Uni ni les États-Unis, qui concentre un tiers des centres de données du monde, n’ont signé ce texte.

    https://basta.media/l-ia-generative-a-le-potentiel-de-detruire-la-planete-mais-pas-comme-vous-l

    #environnement #climat #changement_climatique #pollution #visualisation #infographie

    • Se contenter de « calculer » la consommation énergétique directe de l’IA, c’est omettre de « calculer » ses effets induits, ses conséquences systémiques, puisque « grâce » à l’IA, on peut faire plus de croissance générale. Sans même parler des effets rebonds tous azimuts... Par exemple, on peut utiliser l’IA pour produire un article de blog. Cette utilisation d’IA consomme une unité d’énergie mais elle a aussi permis d’augmenter le volume de contenu qui lui même consomme de l’énergie sur les serveurs.

  • Les IA génératives ou la pensée en bouillie
    https://academia.hypotheses.org/60577

    Deux billets d’humeurs piquants au sujet des IA génératives écrits par des universitaires nord-américains ont été publiés ces derniers jours. Le premier, par le philosophe et poète Troy Jollmore, intitulé “Autrefois, mon métier était d’enseigner à des étudiant.e.s. A présent, … Continuer la lecture →

    ##ResistESR #En_partage #Lectures_/_Readings #Libertés_académiques_:_pour_une_université_émancipatrice #Pratiques_pédagogiques #Chatgpt #Intelligence_artificielle

  • #Guide de l’étudiant pour ne pas écrire avec #ChatGPT

    OpenAI a publié un « Guide de l’étudiant pour écrire avec ChatGPT » (https://openai.com/chatgpt/use-cases/student-writing-guide). Dans ce billet, je passe en revue leurs #conseils et je propose quelques contre-#arguments, d’un point de vue d’enseignant-chercheur. Après avoir abordé chacune des 12 suggestions d’OpenAI, je conclus en évoquant rapidement les aspects éthiques, cognitifs et environnementaux que tout étudiant devrait considérer avant de décider d’utiliser ou non ChatGPT. J’ajoute quelques commentaires en fin de billet au fil des retours critiques. (Version anglaise : A Student’s Guide to Not Writing with ChatGPT)

    « Déléguez la mise en forme des #citations à ChatGPT. L’IA excelle dans l’automatisation des tâches fastidieuses et chronophages telles que la présentation des citations. N’oubliez cependant pas de vérifier l’exactitude de vos bibliographies par rapport aux documents source. »

    Cette dernière phrase est probablement là pour des raisons juridiques, parce qu’ils savent qu’ils ne peuvent pas dire que ChatGPT produira systématiquement des résultats exacts. En effet, mettre en forme des citations et des #bibliographies consiste à présenter des métadonnées conformément à des règles formelles (les #styles_bibliographiques). On n’est pas ici dans le domaine du langage naturel. ChatGPT fera des #erreurs, qui prendront du temps à trouver et à corriger. Alors utilisez plutôt un logiciel de gestion bibliographique, tel que #Zotero. Il s’occupera de vos citations et bibliographies de manière fiable, parce qu’il est programmé pour. Il vous suffit de nettoyer les métadonnées des références au fur et à mesure que vous les collectez, et vos bibliographies ne contiendront jamais d’erreurs.

    –-

    « 2. Informez-vous rapidement sur un nouveau sujet. ChatGPT peut vous aider à démarrer vos recherches en vous permettant d’acquérir un #socle_de_connaissances sur un sujet. »

    ChatGPT est un simulateur de conversation humaine, et non un système d’information ou une base de connaissances. L’#information, ça se trouve dans des cerveaux, des documents et des bases de données. ChatGPT n’est pas doté de capacité de #compréhension : il ne fait que produire des réponses plausibles en tant que réponses, sans comprendre rien à rien. Il ne peut donc pas vous informer de manière fiable. Ne demandez pas à un intermédiaire qui n’a pas la capacité de comprendre une information de vous l’expliquer : à la place, faites un tour dans la #bibliothèque universitaire la plus proche et cherchez vous-même l’information, avec l’aide des bibliothécaires et des documentalistes.

    –-> J’ai tendance à conseiller de solliciter les enseignants, bibliothécaires et co-étudiants. Mais comme me le suggère Adrien Foucart sur Mastodon, peut-être que vous préférez apprendre par vous-même. Dans ce cas, le plus important est de développer vos compétences en recherche d’information. Selon moi, la référence reste le tutoriel CERISE (Conseils aux Etudiants en Recherche d’InformationS Efficace : https://callisto-formation.fr/course/view.php?id=263), que vous pouvez suivre de manière entièrement autonome.

    –-

    « 3. Demandez une feuille de route pour trouver des #sources pertinentes. ChatGPT peut guider votre recherche en vous suggérant des chercheurs, des sources et des termes de recherche pertinents. Mais n’oubliez pas : bien qu’il puisse vous orienter dans la bonne direction, ChatGPT ne remplace pas la lecture de #sources_primaires et d’articles évalués par des pairs. Et comme les #modèles_de_langage peuvent générer des informations inexactes, vérifiez toujours vos faits. »

    (Ce point est encore plus litigieux que le point 1, donc OpenAI nous gratifie de deux phrases complètes qui sont probablement là pour des raisons juridiques.) Parce que ChatGPT n’a pas de capacité de compréhension, il ne sait pas ce que sont des choses comme « une source » ou « une affirmation vraie ». Vous ne pouvez donc pas vous fier à ses indications. Vous perdrez du temps et ferez des erreurs. Encore une fois, demandez à un humain ou faites une recherche de documents et de données dans un vrai système d’information.

    –-

    « 4. Approfondissez votre compréhension en posant des questions précises à ChatGPT. »

    Parce que ChatGPT n’a pas de capacité de #compréhension, il ne connaît pas les réponses réelles à vos questions, seulement des réponses plausibles. Il génèrera des réponses vraies et fausses sans distinction. Cela retardera votre apprentissage. Encore une fois, passez par des humains, des documents et des données directement au lieu de demander à ChatGPT.

    –-

    « 5. Améliorez votre #écriture en demandant à ChatGPT comment il trouve votre structure. »

    Parce que ChatGPT n’a pas de capacité de compréhension, il ne comprend pas ce qu’est une structure de texte « attendue » ou « améliorée », même si vous lui décrivez. Il ne peut que rehausser la qualité de votre texte à ce qu’il pense être un niveau moyen, ou l’abaisser à ce même niveau. Dans les deux cas, vous obtiendrez des notes médiocres. Pour progresser réellement dans votre écriture, demandez conseil à un professeur ou joignez un groupe d’étudiants qui s’entraident là-dessus  ; si un tel groupe n’existe pas, réunissez quelques personnes et créez-le – ce sera une expérience utile en soi.

    –-

    « 6. Vérifiez votre raisonnement en demandant à ChatGPT de transformer votre texte en liste à puces. »

    Comme l’a récemment montré une étude australienne (https://pivot-to-ai.com/2024/09/04/dont-use-ai-to-summarize-documents-its-worse-than-humans-in-every-way), ChatGPT ne sait pas #résumer, seulement #raccourcir. À l’heure actuelle, savoir résumer reste un savoir-faire humain. Un #savoir-faire que vous pouvez acquérir en suivant un cours de #résumé dans un cursus en sciences de l’information, un programme de formation continue, un cours en ligne, etc. (Je suis plutôt partisan de faire les choses dans l’autre sens mais plusieurs collègues me disent que sur le fond cette méthode du reverse outlining leur est très utile et qu’ils la conseillent à des étudiants.)

    –-

    « 7. Développez vos idées à travers un dialogue socratique avec ChatGPT. »

    Enfin un conseil qui est lié à la fonction réelle de ChatGPT : simuler la communication humaine. Cependant, le #dialogue_socratique implique que vous conversez avec quelqu’un qui a une compréhension supérieure du sujet et qui vous amène progressivement au même niveau. Malheureusement, ChatGPT n’est pas Socrate. Utiliser ChatGPT comme partenaire d’entraînement vous restreindra à son niveau : celui d’une machine qui produit des phrases humaines plausibles. Proposez plutôt cet exercice à vos professeurs et à vos camarades, et mettez-vous avec quelqu’un de plus avancé que vous pour progresser.

    –-

    « 8. Mettez vos idées à l’épreuve en demandant à ChatGPT des #contre-arguments. »

    Pour améliorer votre capacité de #réflexion, vous devez être capable de trouver des contre-arguments, pas seulement d’y répondre. Utiliser ChatGPT pour faire la moitié du travail vous empêchera de progresser. Trouvez vous-même des contre-arguments. Et si vous avez besoin d’aide, ne demandez pas à ChatGPT : il ne peut produire que des arguments moyens, ce qui vous fera rapidement stagner. Faites plutôt appel à quelqu’un qui sait imaginer des arguments solides qui vous obligeront à réfléchir.

    –-

    « 9. Comparez vos idées à celles des plus grands penseurs de l’histoire. »

    ChatGPT peut vous divertir en créant de toutes pièces une pièce de théâtre entre philosophes, mais il n’a pas la capacité de concevoir un exercice aussi complexe de manière à ce que vous puissiez en tirer des enseignements. Suggérez plutôt cette idée à un enseignant, dont c’est le métier.

    –-

    « 10. Améliorez votre écriture en demandant à ChatGPT de vous faire des retours successifs. »

    Il s’agit d’une variante du point 5 sur le fait de solliciter des #avis. Une fois encore, utiliser ChatGPT limitera votre niveau à ce qu’une machine pense être le niveau de l’humain moyen. Faites plutôt appel à vos professeurs, organisez des sessions d’évaluation par les pairs avec vos camarades, et faites en sorte que ces sessions soient itératives si nécessaire.

    –-

    « 11. Utilisez la fonctionnalité #Mode_vocal_avancé de ChatGPT pour en faire un compagnon de #lecture. »

    (« Mode vocal avancé » signifie que ChatGPT vous écoute lire quelque chose à haute voix et tente de répondre à vos questions sur ce que vous venez de lire). Il s’agit d’une variante des points 2-4 concernant le fait de s’informer. ChatGPT n’a pas de capacité de compréhension. Il ne fournira donc pas d’interprétations fiables de ce que vous lisez. À la place, cherchez d’abord la définition des mots que vous ne connaissez pas dans des dictionnaires  ; cherchez des analyses rédigées par des humains pour y trouver des interprétations qui vous aideraient à comprendre ce que vous lisez  ; demandez leur avis à d’autres étudiants travaillant sur le même texte.

    –-

    « 12. Ne vous contentez pas de répéter ce que vous avez déjà fait – améliorez vos compétences. […] Demandez à ChatGPT de vous suggérer des moyens de développer votre capacité à penser de manière critique et à écrire clairement. »

    ChatGPT n’a pas de capacité de compréhension, donc la signification d’expressions comme « pensée critique » et « techniques d’écriture » lui échappent. Prenez ces expressions et entrez-les dans le moteur de recherche du catalogue de la bibliothèque de votre université  ; si vous préférez, demandez conseil à un bibliothécaire. Lisez ce que vous trouvez, et demandez à vos professeurs ce qu’ils en pensent. Pour le reste, rien ne vaut l’entraînement : comme disent les anglophones, practice, practice, practice.

    –-

    Quelques mots de conclusion

    ChatGPT est conçu pour simuler un partenaire de conversation humain. Il s’appuie sur un modèle probabiliste du langage (quel mot est le plus susceptible d’arriver après tel mot) et communique pour communiquer, pour créer l’illusion de la conversation. Il bavarde, tchatche, blablate, indifférent à la signification de ce qu’il dit, indifférent à la vérité. Tout ça est très divertissant mais une attraction de fête foraine n’est pas un outil d’apprentissage fiable, et je pense donc que les étudiants devraient s’en méfier.

    Lorsque des étudiants me posent des questions sur ChatGPT, je mentionne les trois problèmes suivants :

    #éthique : la plupart des modèles de langue ont été construits à partir de données volées  ;
    - #cognition : l’utilisation d’outils comme ChatGPT rend plus dépendant des outils et moins autonome intellectuellement, ainsi que des études ont commencé à le montrer (en voici une réalisée en France)  ;
    #environnement : les coûts énergétiques de l’IA générative sont supérieurs d’un ordre de grandeur à ceux des outils préexistants (et elle n’est même pas rentable, donc on brûle du carburant pour rien).

    C’est généralement suffisant pour faire réfléchir la plupart de mes étudiants. Ce sont des jeunes gens créatifs, ils ont donc de l’empathie pour les créateurs qui ont été spoliés. Pour progresser et obtenir leur diplôme, ils veulent des outils qui leur font gagner du temps, pas des gadgets qui les rendent moins autonomes intellectuellement. Ils sont frappés d’apprendre que ChatGPT consomme dix fois plus d’énergie que Google pour répondre à la même question, généralement en pire (mais Google est en train de rattraper ChatGPT vers le bas).

    La bonne nouvelle, c’est que comme le dit le blogueur Jared White :

    « Vous pouvez littéralement ne pas l’utiliser. […] vous pouvez être un technicien expert et un créateur épanoui, au fait de son époque, très connecté, et rester complètement à l’écart de ce cycle de hype. »

    Si vous avez besoin de plus d’informations sur ce sujet, je vous recommande vivement de consulter le site Need To Know de Baldur Bjarnason (https://needtoknow.fyi). Il s’agit d’une synthèse accessible d’un état de l’art très fouillé sur les risques liés à l’utilisation de l’IA générative. C’est un excellent point de départ. (Et si vous connaissez des ressources similaires en français, je suis preneur.)
    Quelques commentaires supplémentaires
    Suite à la publication de ce billet, j’ai reçu par mail une critique de mon point de vue sur ChatGPT, en particulier l’idée qu’il n’a pas de capacité de compréhension. Je partage ma réponse ci-dessous. Il se peut que d’autres commentaires s’ajoutent ainsi au fil du temps.

    L’idée que ChatGPT n’a pas de capacité de compréhension est discutable. Tout dépend de la définition que l’on donne à « compréhension ». Marcello Vitali-Rosati soutient que le sens n’est pas une prérogative humaine, que les humains ont une forme d’intelligence et que l’IA en a une autre – tout dépend de la façon dont nous définissons les différentes formes d’intelligence. Il évoque le fait que ChatGPT sait faire des choses que les machines ne pouvaient pas faire auparavant mais qu’il échoue à faire d’autres choses que des systèmes plus simples savent faire depuis longtemps. Il serait donc plus juste de dire que ChatGPT possède une forme d’intelligence qui lui est propre, et qui est adaptée à certaines tâches mais pas à d’autres. Marcello mentionne par exemple que ChatGPT peut créer des discours politiques convaincants mais qu’il n’est pas capable de donner la liste des écrits d’un auteur de manière fiable.

    Je suis d’accord avec tout cela. Ça m’amène à préciser un peu les choses : ChatGPT comprend clairement comment communiquer. La manière dont il arrive à cette compréhension est une forme d’intelligence. Le problème, c’est que cette compréhension n’est pas celle qui compte dans un contexte d’apprentissage, de mon point de vue d’enseignant. Comprendre comment communiquer est différent de comprendre une information. C’est fondamental à mes yeux. Et c’est là, à mon avis, que le débat peut véritablement se situer. Quand on fait des études de commerce, ChatGPT est sans doute un outil intéressant pour travailler sur le marketing (même si je pense qu’il vaut mieux y réfléchir soigneusement, du fait des questions éthiques et environnementales). Mais en dehors des domaines dont le matériau principal est le bullshit (tout jugement de valeur mis à part), son utilité est moins évidente.

    Les tâches mentionnées dans le « guide » d’OpenAI font partie de celles où ChatGPT échoue à donner des résultats fiables. ChatGPT n’est pas un système d’information : qu’il passe d’une exactitude de 90 % à 99 %, voire à 99,99 %, ça ne change rien au fait que le risque d’erreur est présent du fait de la nature même de l’outil. On peut légitimement ne pas vouloir prendre ce risque. Quant aux compétences, je crois que les seules personnes qui trouvent ChatGPT bluffant sont celles qui sont moins bonnes que lui dans l’exécution des tâches qui lui sont confiées. Regardons les choses en face : ChatGPT est aussi nul que l’humain moyen. Si on s’appuie sur cet outil pour progresser, tout ce qu’on peut faire c’est plafonner dans le moyen.

    –-

    15/11 – Ce billet sur ChatGPT m’a valu une réponse… générée par ChatGPT ! Sur LinkedIn, Francesc Pujol propose une « critique de ma critique », qu’il explique avoir générée via ChatGPT. Je n’ai pas été convaincu par ce qui ressemble beaucoup à une série de vagues déclarations un peu incantatoires sur la valeur supposée de l’outil. À la fin du texte, l’auteur (humain ou machine ?) dit que mon propos illustre une position « réactionnaire » et « déséquilibrée », et suggère que les gens comme moi pensent que les étudiants n’ont pas envie d’apprendre et les profs pas envie d’enseigner. Charmant !

    Pujol ajoute qu’il va faire lire mes objections à OpenAI et sa « critique de ma critique » par quelques personnes, sans leur dire qui a écrit quoi, pour voir qui de moi ou de ChatGPT produit le plus de déclarations un peu vagues… Là aussi, je ne suis pas convaincu. Mes arguments reposent sur une lecture de la littérature critique sur l’IA générative. Dans mon billet, je renvoie notamment à l’état de l’art réalisé par Baldur Bjarnason et son ouvrage The Intelligence Illusion. Escamoter cela, demander aux gens d’évaluer une série de phrases sans contexte, c’est traiter ce qui devrait être une discussion basée sur des faits comme une dégustation à l’aveugle chez un caviste. Ça me semble particulièrement problématique quand le débat porte précisément sur l’information, les sources, les connaissances vérifiables. Je comprends qu’en tant que partisan de l’utilisation de l’IA dans l’enseignement supérieur on ressente le besoin de défendre ses choix. Encore faudrait-il traiter ses opposants avec un minimum de respect et de sérieux intellectuel.

    –-

    17/11 – Deux jours après la publication de ce billet, Marcello a publié « La créativité des LLM » sur son blog. Il y explique le concept de température, qui est une définition formelle de la créativité mise en œuvre par un outil comme ChatGPT. La fin du billet aide à bien cerner sa position dans un débat qui est de nature épistémologique :

    « Ne me faites pas le petit jeu consistant à dire : “mais non, la créativité est plus que ça !” Si vous n’êtes pas capables de définir formellement ce plus, alors cela veut tout simplement dire que vos idées ne sont pas claires. »

    Pour moi les programmes comme ChatGPT ne sont pas informatifs, en tout cas pas de manière suffisamment fiable dans un contexte éducatif : ils comprennent ce qu’est communiquer, pas informer. Par contre, ils relèvent bien du domaine créatif. Si on n’est pas dans un contexte où la fiabilité de l’information est importante, et que par ailleurs on apporte des réponses aux enjeux d’éthique et de coût énergétique, alors je ne m’oppose pas du tout à l’usage créatif des #LLM.

    https://www.arthurperret.fr/blog/2024-11-15-guide-etudiant-ne-pas-ecrire-avec-chatgpt.html

    #enseignement #AI #IA #intelligence #ESR #université

    –-
    signalé aussi par @monolecte :
    https://seenthis.net/messages/1082701