• Pourquoi il est important que les étudiant(e)s apprennent à se passer de #Chat-GPT ?

    Dans un article intéressant intitulé « ChatGPT : le #mythe de la #productivité » Hubert Guillaud nous explique qu’avec les applications de ce type, le but de l’#écriture est de remplir une page, pas de réaliser le #processus_de_réflexion qui l’accompagne. Or écrit-il. C’est justement tout l’inverse dont nous avons besoin ! À l’heure où l’intelligence artificielle (IA) s’immisce de plus en plus dans notre quotidien, il est utile de s’interroger sur son impact sur la formation, en particulier sur l’apprentissage des étudiants. Alors que des outils comme #ChatGPT promettent de faciliter de nombreuses tâches, il s’agit de comprendre pourquoi il est important que les apprenants puissent se passer de ces technologies, notamment dans le cadre de leurs études.

    L’IA et le développement des #compétences_cognitives

    L’un des arguments les plus convaincants en faveur d’un apprentissage sans IA porte sur le développement des compétences cognitives. Comme le souligne Emily M. Bender, linguiste citée par Hubert Guillaud, l’objectif de la rédaction d’un écrit d’étudiant (un mémoire ou d’un rapport de situation sociale) n’est pas de produire plus de connaissances, mais de renforcer les capacités de réflexion critique des élèves.

    Une analogie avec l’entraînement sportif peut vous aider à comprendre pourquoi : de même que s’entrainer à soulever des poids développe la force musculaire nécessaire à diverses disciplines sportives, l’écriture régulière cultive des compétences essentielles pour les futurs professionnels. Or, nous avons besoin de travailleurs sociaux qui pensent par eux-mêmes et s’entrainent sans chercher leurs idées dans des réponses formatées par des chabots.

    L’utilisation d’outils d’IA comme ChatGPT pour réaliser des devoirs équivaut à « amener un chariot élévateur dans une salle de musculation pour entrainer les athlètes ». En d’autres termes, cela prive les étudiants de l’opportunité de développer leur « forme cognitive ». Cette métaphore illustre parfaitement le risque d’atrophie intellectuelle lié à une dépendance excessive à l’IA. Il s’agit d’apprendre à penser par soi-même et d’être capable d’intégrer la pensée nécessaire à la pratique professionnelle. Sinon à quoi bon se former ?

    L’#effort_intellectuel doit être valorisé

    Un autre aspect à ne pas négliger de l’apprentissage sans IA concerne la valeur intrinsèque de l’effort intellectuel fourni par l’étudiant. Bien que certains types d’écriture puissent sembler superflus ou purement académiques, le processus de création de texte, même lorsqu’il n’est pas particulièrement créatif ou évident, a une valeur en soi. Il permet de développer des #compétences, d’approfondir la compréhension d’un sujet et de structurer la pensée. D’où l’intérêt de continuer à demander aux élèves de formaliser leurs pensées en synthétisant et en analysant des textes.

    Le risque d’une utilisation excessive de l’IA est de créer un #cercle_vicieux où la production de textes de qualité médiocre devient la norme. Nous pourrions entrer dans une ère où les documents sont générés à partir de listes à puces par une IA, puis réutilisé par une autre IA pour produire un devoir ou une communication académique. Cette perspective soulève des questions sur la valeur ajoutée réelle de tels processus et sur l’#appauvrissement potentiel de la #réflexion humaines.

    Un risque de #déshumanisation de l’apprentissage

    Distinguons d’abord deux aspects importants qui entrent dans le champ de la formation : la #compétence et l’#intelligence. La compétence correspond à la façon dont vous accomplissez une tâche, tandis que l’intelligence correspond à l’efficacité avec laquelle vous allez acquérir de nouvelles compétences. Cette différenciation nous conduit à comprendre une limitation fondamentale de l’IA : bien qu’elle puisse être extrêmement compétente dans l’exécution de tâches spécifiques (par exemple, résumer un texte), elle manque de la #flexibilité et de l’#adaptabilité qui caractérisent l’#intelligence_humaine. Elle ne dispose pas d’intelligence à proprement parler. Il nous est dit que les étudiants pour obtenir leurs diplômes doivent acquérir des domaines de compétence. Pour autant la pratique du travail social demande surtout de savoir agir avec intelligence. Or ce n’est pas la même chose. James Stacey Taylor, professeur de Sciences humaines au collège de New Jersey, explique bien pourquoi il interdit désormais à ses élèves d’utiliser l’IA.

    Cette technologie risque de nous traiter comme des êtres inférieurs à ce que nous sommes réellement : des créateurs et des interprètes de sens. Un autre argument en faveur de l’abandon de l’IA dans le travail des étudiants concerne son potentiel de « déshumanisation ». L’#IA_générative a tendance à réduire nos attentes, à la fois envers ce que nous lisons et envers nous-mêmes lorsque nous écrivons quelque chose pour que les autres le lisent. Nous banalisons du texte aux kilomètres généré par les #modèles_de_langage et oublions les efforts à fournir qui paraissent alors pour les étudiants de plus en plus démesurés.

    L’acte d’écrire ou de communiquer, même lorsqu’il n’est pas particulièrement original, porte une #signification_profonde pour l’auteur et son audience. Cela concerne aussi bien la #création_artistique que la #communication quotidienne. L’#intention et le contexte humains sont essentiels. L’IA, en se substituant à ces processus, risque de réduire la quantité d’intention dans le monde et d’appauvrir nos interactions qui nous conduisent à forger nos propres opinions.

    L’IA et la promotion de l’#incuriosité

    Rob Horning, philosophe du net, nous met en garde contre le fait que les modèles de langage de grande taille (#LLM) « marchandisent l’incuriosité ». Ces systèmes peuvent fournir des informations, mais ils sont incapables d’expliquer pourquoi ces informations ont été produites ou organisées d’une certaine manière. Cette limitation est particulièrement problématique dans un contexte éducatif, où la compréhension du processus de création et d’organisation des connaissances est aussi importante que les connaissances elles-mêmes.

    L’utilisation de l’IA dans l’#éducation risque de promouvoir une approche assez superficielle de l’apprentissage. L’accent sera mis sur l’obtention rapide de résultats plutôt que sur le processus de réflexion et de #compréhension. Cette tendance va à l’encontre des objectifs fondamentaux de la formation des travailleurs sociaux, qui visent à développer la #pensée_critique et la capacité d’analyse des étudiants.

    Or aujourd’hui que souhaitons-nous pour les futurs travailleurs sociaux ? De nombreux employeurs vous diront qu’ils recherchent des professionnels qui font ce qu’on leur demande de faire sans véritablement se poser des questions. Le résultat importe plus que le processus qui a permis de l’obtenir. Or l’aide et l’accompagnement en #travail_social est justement structuré dans le processus fait d’avancées et de reculs, un parcours qui permettra à la personne aidée de pouvoir à terme prendre son avenir en main. Elle nous oblige à penser l’action au fil du contexte et des évolutions de la situation. Cette réflexion est menée avec la personne accompagnée. Or l’IA vous proposera des réponses qui ne sont pas coconstruites avec elle.

    Le mythe de la productivité

    Un autre aspect problématique de l’utilisation de l’IA dans la formation est la promotion du « mythe de la productivité ». Cette idéologie présuppose que l’économie de temps et d’efforts est toujours préférable à l’engagement dans une activité pour elle-même. Dans le contexte éducatif, cela peut se traduire par une focalisation excessive sur la production d’actions et de contenus au détriment du processus d’apprentissage et de réflexion pour la mise en œuvre de l’action.

    Ce mythe de la productivité risque de réduire l’écriture et d’autres activités éducatives à de simples tâches à accomplir. Il néglige dans le processus d’écriture leur dans le développement intellectuel et personnel des étudiants. Comme le souligne Rob Horning, cette approche correspond à celle de l’idéologie libérale qui privilégie l’efficacité sur le sens et l’expérience.

    Une utilisation excessive de l’IA dans la formation risque également de priver les étudiants de la maîtrise de leur propre apprentissage au nom de la productivité. En automatisant des processus qui devraient normalement impliquer une réflexion et un effort personnels, l’IA peut réduire la capacité des étudiants à développer une compréhension profonde et une expertise dans leurs domaines d’étude.

    Cette perte de maîtrise s’apparente à ce que Rob Horning décrit comme le travail aliéné dans le contexte capitaliste. Au temps du Fordisme, les travailleurs étaient soumis à des processus de travail cadencés par la machine. Ils travaillaient à la chaine. Cela les privait de toute autonomie et surtout de leur créativité. Aujourd’hui, des robots les ont remplacés. L’IA utilisée de la sorte n’en ferait pas autrement. Cela pourrait se traduire par une autre forme de travail à la chaine, où le salarié (et l’étudiant) ne travaillent plus directement leurs textes, mais suivent plutôt ce que l’IA leur a fourni. Cela pourrait provoquer une forme d’aliénation aux outils d’IA, au détriment du développement de la capacité à penser de manière indépendante.

    L’impact sur l’apprentissage

    Les effets potentiellement néfastes de l’utilisation excessive de l’IA nous conduit dans des process un peu absurdes. Comme le souligne Ian Bogost, nous assistons déjà à des scénarios dans lesquels des étudiants génèrent des devoirs avec l’IA, que les enseignants font ensuite corriger par l’IA. On en arriverait vite à marcher sur la tête. Cette situation, qui peut exister, soulève des questions importantes sur la valeur et l’intégrité du processus éducatif.

    Le risque majeur est que cette technologie rende caduc certains des meilleurs outils d’apprentissage, notamment l’écriture elle-même. L’écriture n’est pas seulement un moyen de communiquer des idées, c’est aussi un processus qui permet de clarifier la pensée, d’approfondir la compréhension et de développer des compétences critiques. En remplaçant ce processus par une génération automatisée de contenu, nous risquons de priver les étudiants d’opportunités essentielles pour leur développement intellectuel.

    Il existe une grande différence entre l’apprentissage automatique et la « pensée machine » explique Ron Carucci dans le magazine Forbes. Dès l’instant où nous commençons à considérer l’IA comme une machine pensante, nous sommes dans le pétrin. En effet, cela signifie que nous avons essayé d’externaliser notre propre pensée critique et nos compétences de résolution de problèmes à une machine qui ne fait que répliquer et régurgiter les informations qu’elle a recueillies. Les grands modèles linguistiques recherchent des modèles d’information existants, peut-être même les synthétisent. Mais ils ne peuvent pas exercer d’appréciation, quelle que soit la nuance ou la rapidité de leurs résultats.

    Plus les étudiants utilisent les machines pour réfléchir à leur place, plus ils deviennent dépendants de ces machines, ce qui perturbe les processus cognitifs clés. Utiliser l’IA pour trouver une réponse par raccourci au lieu de la trouver par soi-même diminue leur réserve cognitive, ou si vous préférez les connexions entre les cellules cérébrales. L’hypothèse de la réserve cognitive reflète l’agilité de notre cerveau à résoudre des problèmes et à faire face à des situations inattendues explique Ron Carucci.

    En conclusion

    En conclusion, bien que l’IA offre des possibilités assez vertigineuses dans de nombreux domaines, son utilisation dans la formation, en particulier pour des tâches fondamentales comme l’écriture et la recherche, soulève de sérieuses préoccupations. Il est esentiel que les étudiants apprennent à se passer de ces outils, non pas par rejet de la technologie, mais pour préserver et développer des compétences essentielles qui ne peuvent être acquises que par l’effort et la pratique.

    L’éducation ne consiste pas seulement à acquérir des connaissances, mais aussi à développer la capacité de penser de manière critique, de résoudre des problèmes et de s’adapter à de nouvelles situations. Ces compétences sont primordiales pour le succès futur des étudiants, tant dans leur vie professionnelle que personnelle. Elles sont essentielles pour les étudiants en travail social. Il leur faut continuer à penser par eux-mêmes et non déléguer une quelconque décision à des IA qui n’auront pas dans leur mémoire tous les aspects particuliers d’une situation singulière.

    Alors que beaucoup utilisent l’IA sans le dire, il reste essentiel de trouver un équilibre entre l’utilisation de ces technologies comme outils d’assistance et la préservation des processus d’apprentissage. C’est bien le fait de ne pas utiliser l’IA qui favorise une véritable croissance intellectuelle. Les formateurs, les responsables de filières et les étudiants eux-mêmes doivent être conscients des limites et des risques associés à une dépendance excessive à l’IA dans la formation.

    En fin de compte, l’objectif de la formation devrait être de former des futurs professionnels capables de penser par eux-mêmes, de remettre en question les idées reçues et de contribuer de manière significative à la société. Ces compétences ne peuvent être pleinement développées que par un engagement actif dans le processus d’apprentissage, sans raccourcis artificiels. C’est en préservant ces aspects essentiels que nous pourrons préparer au mieux les étudiants dans un monde où l’IA jouera sans aucun doute un rôle de plus en plus important.

    La quasi-totalité des sources est en anglais, n’hésitez pas à utiliser un traducteur automatique :

    – ChatGPT : le mythe de la productivité | Dans les algorithmes : https://danslesalgorithmes.net/2024/09/17/chatgpt-le-mythe-de-la-productivite
    - Revue Spirale – Esprit critique et pouvoir d’agir. Vers le développement d’une « attitude critique » ? | Cairn.info : https://shs.cairn.info/revue-spirale-revue-de-recherches-en-education-2020-3-page-51?lang=fr
    - AI Reduces Critical Thinking | WVNexus : https://wvnexus.org/opinions/ai-reduces-critical-thinking
    - Why I Ban AI Use in Writing Assignments | Times Higher Education : https://www.timeshighereducation.com/campus/why-i-ban-ai-use-writing-assignments
    - Importance of Critical Thinking for Students | EssayPro : https://essaypro.com/blog/importance-of-critical-thinking-for-students
    - In the Age of AI, Critical Thinking Is More Needed Than Ever | Forbes : https://www.forbes.com/sites/roncarucci/2024/02/06/in-the-age-of-ai-critical-thinking-is-more-needed-than-ever
    - Why Should Students Not Use AI Tools to Write Assignments ? | Academic Assignments : https://www.academicassignments.com/blog/why-should-students-not-use-ai-tools-to-write-assignments

    https://dubasque.org/pourquoi-il-est-important-que-les-etudiantes-apprennent-a-se-passer-de-cha
    #ChatGPT #apprentissage #ESR #étudiants #AI #intelligence_artificielle #IA #université

    voir aussi :
    Guide sur l’utilisation de l’intelligence artificielle dans le réseau de l’éducation
    https://seenthis.net/messages/1082156

    • A Student’s Guide to Not Writing with ChatGPT

      OpenAI has published “A Student’s Guide to Writing with ChatGPT”. In this article, I review their advice and offer counterpoints, as a university researcher and teacher. After addressing each of OpenAI’s 12 suggestions, I conclude by mentioning the ethical, cognitive and environmental issues that all students should be aware of before deciding to use or not use ChatGPT.

      “1. Delegate citation grunt work to ChatGPT. AI excels at automating tedious, time-consuming tasks like formatting citations. Just remember to cross-check all source details against original materials for accuracy.”

      That last sentence is probably there for legal reasons, because they know they can’t say ChatGPT will produce accurate results. Formatting citations and bibliographies means presenting metadata according to formal style instructions. This is not natural language. ChatGPT will make errors, which will take time to track and correct. Instead, use a reference manager, such as Zotero. It will format things reliably, exactly as expected. Just clean up the references’ metadata as you collect them, and then your bibliographies will never contain mistakes.

      “2. Quickly get up to speed on a new topic. ChatGPT can jumpstart your research by providing a foundational understanding of a subject.”

      ChatGPT is a human conversation simulator, not an information system or a knowledge base. It has no understanding of anything: it only outputs plausible responses. Do not ask an intermediary who has no capacity to understand information to explain it to you. Instead, go to your university library and look it up yourself, with the help of your local librarians. Actual information is contained in brains, documents and databases.

      “3. Get a roadmap of relevant sources. ChatGPT can guide your research by suggesting relevant scholars, sources, and search terms. But remember: while it can point you in the right direction, ChatGPT isn’t a substitute for reading primary sources and peer-reviewed articles. And since language models can generate inaccurate information, always double-check your facts.”

      (This is even more contentious than point 1, so we get two full sentences that are probably there for plausible deniability.) Because Chat GPT has no understanding of anything, it does not know what things like “a source” or “a true statement” are. Do not trust its directions. You will waste time and make mistakes. Again, ask a human or search for documents and data in a proper information system.

      “4. Complete your understanding by asking specific questions.”

      Because Chat GPT has no understanding of anything, it does not know actual answers to your questions, only plausible answers. It will generate true and false answers indiscriminately. This will set your learning back. Again, seek humans, documents and data directly instead of asking ChatGPT.

      “5. Improve your flow by getting feedback on structure.”

      Because Chat GPT has no understanding of anything, it does not understand what an “expected” or “improved” text structure is, even if you describe it. It can only upgrade your writing to middling quality, or downgrade it to that same level. Both will result in mediocre grades. To actually improve, ask a teacher, or join a group of students who give each other feedback; if such a group does not exist, get some people together and create it—this will be a useful experience by itself.

      “6. Test your logic with reverse outlining.”

      As an Australian study recently showed, ChatGPT does not know how to summarize, only shorten. So far, summarizing remains something only humans do well. So you should learn it: take a summarizing course from an information skills program. (Also, if you can’t summarize your own writing, something is wrong. Do not reverse outline your writing: outline first, then write.)

      “7. Develop your ideas through Socratic dialogue.”

      This is one suggestion that is related to ChatGPT’s actual function: simulating human communication. However, Socratic dialogue implies that you are conversing with someone who has a superior understanding of the topic and who slowly brings you to their level. And, unfortunately, ChatGPT is not Socrates. Using ChatGPT as a “sparring partner” will constrain you to its level: a machine which produces plausible human sentences. Instead, suggest this exercise to your teachers and fellow students, and do it with someone more knowledgeable than you.

      “8. Pressure-test your thesis by asking for counterarguments.”

      To improve your thinking, you must be able to come up with counterarguments, not just answer them. Using ChatGPT to do half the work will stunt your progress. Instead, come up with counterarguments yourself. And if you must ask for help, do not ask ChatGPT: it can only produce weak reasoning, so it will make you plateau into mediocrity. Ask someone who can create strong arguments to make you think harder.

      “9. Compare your ideas against history’s greatest thinkers.”

      ChatGPT can entertain you but it has no ability to design such a complex exercise so that you may learn from it. Suggest this idea to a teacher instead. This is what they are trained to do.

      “10. Elevate your writing through iterative feedback.”

      This is a variant of point 5 about feedback. Again, using ChatGPT will constrain your work to a machine’s idea of the human average. Instead, go for feedback sessions with teachers and fellow students, and make those iterative if needed.

      “11. Use Advanced Voice Mode as a reading companion.”

      (“Avanced Voice Mode” means ChatGPT listens to you reading something out loud and tries to answer your questions about it.) This is a variant of points 2-4 about information. ChatGPT has no understanding of anything. It will not provide reliable interpretations of what you’re reading. Instead, look up the definitions of words you don’t know; find scholarly work that analyzes the text; ask another student working on the same text if you’re unsure of what you’ve read.

      “12. Don’t just go through the motions—hone your skills. […] Try asking ChatGPT to suggest ways to develop your ability to think critically and write clearly.”

      Again, ChatGPT has no understanding of anything. This includes “critical thinking” and “writing techniques”. Look these things up in your university library catalogue; read what you find; ask your teacher about it; and then practice, practice, practice.
      Final words

      ChatGPT is designed to simulate human conversation. Using a probabilistic model of language, it communicates for communication’s sake, to fool you into thinking it’s human. It’s a bullshit machine. It works as a novelty thing, for entertainment. But it’s not a reliable tool for learning, so I believe students should be wary of it.

      Whenever students ask me about ChatGPT, I mention the following three issues:

      - ethics: most of the models were built on stolen data;
      - cognition: using it makes you more dependent and less smart, as studies have started to show (here’s a link to a French one) ;
      - environment: the energy costs of generative AI are an order of magnitude greater than pre-existing technology (and it’s not even profitable, so we’re burning fuel for nothing).

      It’s usually enough to give most of my students some pause. They’re creative young people, so they empathize with robbed creators. They want tools that help them, not hinder them. And a lot of them are (rightly) concerned about the environment, so they’re shocked to learn that ChatGPT takes ten times the amount of energy Google does to answer the same question, usually worse (but Google is catching up, or down I should say).

      The good news is that, as Jared White puts it:

      “You can literally just not use it. […] you can be a fulfilled, modern, very online, technical expert & creator and completely sit out this hype cycle.”

      If you need more information, I strongly recommend out that you check out Baldur Bjarnason’s Need To Know. It’s a website that provides an accessible summary of his deep literature review of the risks behind using generative AI. It’s a great starting point.

      https://www.arthurperret.fr/blog/2024-11-14-student-guide-not-writing-with-chatgpt.html