#Guide de l’étudiant pour ne pas écrire avec #ChatGPT
OpenAI a publié un « Guide de l’étudiant pour écrire avec ChatGPT » (▻https://openai.com/chatgpt/use-cases/student-writing-guide). Dans ce billet, je passe en revue leurs #conseils et je propose quelques contre-#arguments, d’un point de vue d’enseignant-chercheur. Après avoir abordé chacune des 12 suggestions d’OpenAI, je conclus en évoquant rapidement les aspects éthiques, cognitifs et environnementaux que tout étudiant devrait considérer avant de décider d’utiliser ou non ChatGPT. J’ajoute quelques commentaires en fin de billet au fil des retours critiques. (Version anglaise : A Student’s Guide to Not Writing with ChatGPT)
« Déléguez la mise en forme des #citations à ChatGPT. L’IA excelle dans l’automatisation des tâches fastidieuses et chronophages telles que la présentation des citations. N’oubliez cependant pas de vérifier l’exactitude de vos bibliographies par rapport aux documents source. »
Cette dernière phrase est probablement là pour des raisons juridiques, parce qu’ils savent qu’ils ne peuvent pas dire que ChatGPT produira systématiquement des résultats exacts. En effet, mettre en forme des citations et des #bibliographies consiste à présenter des métadonnées conformément à des règles formelles (les #styles_bibliographiques). On n’est pas ici dans le domaine du langage naturel. ChatGPT fera des #erreurs, qui prendront du temps à trouver et à corriger. Alors utilisez plutôt un logiciel de gestion bibliographique, tel que #Zotero. Il s’occupera de vos citations et bibliographies de manière fiable, parce qu’il est programmé pour. Il vous suffit de nettoyer les métadonnées des références au fur et à mesure que vous les collectez, et vos bibliographies ne contiendront jamais d’erreurs.
–-
« 2. Informez-vous rapidement sur un nouveau sujet. ChatGPT peut vous aider à démarrer vos recherches en vous permettant d’acquérir un #socle_de_connaissances sur un sujet. »
ChatGPT est un simulateur de conversation humaine, et non un système d’information ou une base de connaissances. L’#information, ça se trouve dans des cerveaux, des documents et des bases de données. ChatGPT n’est pas doté de capacité de #compréhension : il ne fait que produire des réponses plausibles en tant que réponses, sans comprendre rien à rien. Il ne peut donc pas vous informer de manière fiable. Ne demandez pas à un intermédiaire qui n’a pas la capacité de comprendre une information de vous l’expliquer : à la place, faites un tour dans la #bibliothèque universitaire la plus proche et cherchez vous-même l’information, avec l’aide des bibliothécaires et des documentalistes.
–-> J’ai tendance à conseiller de solliciter les enseignants, bibliothécaires et co-étudiants. Mais comme me le suggère Adrien Foucart sur Mastodon, peut-être que vous préférez apprendre par vous-même. Dans ce cas, le plus important est de développer vos compétences en recherche d’information. Selon moi, la référence reste le tutoriel CERISE (Conseils aux Etudiants en Recherche d’InformationS Efficace : ▻https://callisto-formation.fr/course/view.php?id=263), que vous pouvez suivre de manière entièrement autonome.
–-
« 3. Demandez une feuille de route pour trouver des #sources pertinentes. ChatGPT peut guider votre recherche en vous suggérant des chercheurs, des sources et des termes de recherche pertinents. Mais n’oubliez pas : bien qu’il puisse vous orienter dans la bonne direction, ChatGPT ne remplace pas la lecture de #sources_primaires et d’articles évalués par des pairs. Et comme les #modèles_de_langage peuvent générer des informations inexactes, vérifiez toujours vos faits. »
(Ce point est encore plus litigieux que le point 1, donc OpenAI nous gratifie de deux phrases complètes qui sont probablement là pour des raisons juridiques.) Parce que ChatGPT n’a pas de capacité de compréhension, il ne sait pas ce que sont des choses comme « une source » ou « une affirmation vraie ». Vous ne pouvez donc pas vous fier à ses indications. Vous perdrez du temps et ferez des erreurs. Encore une fois, demandez à un humain ou faites une recherche de documents et de données dans un vrai système d’information.
–-
« 4. Approfondissez votre compréhension en posant des questions précises à ChatGPT. »
Parce que ChatGPT n’a pas de capacité de #compréhension, il ne connaît pas les réponses réelles à vos questions, seulement des réponses plausibles. Il génèrera des réponses vraies et fausses sans distinction. Cela retardera votre apprentissage. Encore une fois, passez par des humains, des documents et des données directement au lieu de demander à ChatGPT.
–-
« 5. Améliorez votre #écriture en demandant à ChatGPT comment il trouve votre structure. »
Parce que ChatGPT n’a pas de capacité de compréhension, il ne comprend pas ce qu’est une structure de texte « attendue » ou « améliorée », même si vous lui décrivez. Il ne peut que rehausser la qualité de votre texte à ce qu’il pense être un niveau moyen, ou l’abaisser à ce même niveau. Dans les deux cas, vous obtiendrez des notes médiocres. Pour progresser réellement dans votre écriture, demandez conseil à un professeur ou joignez un groupe d’étudiants qui s’entraident là-dessus ; si un tel groupe n’existe pas, réunissez quelques personnes et créez-le – ce sera une expérience utile en soi.
–-
« 6. Vérifiez votre raisonnement en demandant à ChatGPT de transformer votre texte en liste à puces. »
Comme l’a récemment montré une étude australienne (▻https://pivot-to-ai.com/2024/09/04/dont-use-ai-to-summarize-documents-its-worse-than-humans-in-every-way), ChatGPT ne sait pas #résumer, seulement #raccourcir. À l’heure actuelle, savoir résumer reste un savoir-faire humain. Un #savoir-faire que vous pouvez acquérir en suivant un cours de #résumé dans un cursus en sciences de l’information, un programme de formation continue, un cours en ligne, etc. (Je suis plutôt partisan de faire les choses dans l’autre sens mais plusieurs collègues me disent que sur le fond cette méthode du reverse outlining leur est très utile et qu’ils la conseillent à des étudiants.)
–-
« 7. Développez vos idées à travers un dialogue socratique avec ChatGPT. »
Enfin un conseil qui est lié à la fonction réelle de ChatGPT : simuler la communication humaine. Cependant, le #dialogue_socratique implique que vous conversez avec quelqu’un qui a une compréhension supérieure du sujet et qui vous amène progressivement au même niveau. Malheureusement, ChatGPT n’est pas Socrate. Utiliser ChatGPT comme partenaire d’entraînement vous restreindra à son niveau : celui d’une machine qui produit des phrases humaines plausibles. Proposez plutôt cet exercice à vos professeurs et à vos camarades, et mettez-vous avec quelqu’un de plus avancé que vous pour progresser.
–-
« 8. Mettez vos idées à l’épreuve en demandant à ChatGPT des #contre-arguments. »
Pour améliorer votre capacité de #réflexion, vous devez être capable de trouver des contre-arguments, pas seulement d’y répondre. Utiliser ChatGPT pour faire la moitié du travail vous empêchera de progresser. Trouvez vous-même des contre-arguments. Et si vous avez besoin d’aide, ne demandez pas à ChatGPT : il ne peut produire que des arguments moyens, ce qui vous fera rapidement stagner. Faites plutôt appel à quelqu’un qui sait imaginer des arguments solides qui vous obligeront à réfléchir.
–-
« 9. Comparez vos idées à celles des plus grands penseurs de l’histoire. »
ChatGPT peut vous divertir en créant de toutes pièces une pièce de théâtre entre philosophes, mais il n’a pas la capacité de concevoir un exercice aussi complexe de manière à ce que vous puissiez en tirer des enseignements. Suggérez plutôt cette idée à un enseignant, dont c’est le métier.
–-
« 10. Améliorez votre écriture en demandant à ChatGPT de vous faire des retours successifs. »
Il s’agit d’une variante du point 5 sur le fait de solliciter des #avis. Une fois encore, utiliser ChatGPT limitera votre niveau à ce qu’une machine pense être le niveau de l’humain moyen. Faites plutôt appel à vos professeurs, organisez des sessions d’évaluation par les pairs avec vos camarades, et faites en sorte que ces sessions soient itératives si nécessaire.
–-
« 11. Utilisez la fonctionnalité #Mode_vocal_avancé de ChatGPT pour en faire un compagnon de #lecture. »
(« Mode vocal avancé » signifie que ChatGPT vous écoute lire quelque chose à haute voix et tente de répondre à vos questions sur ce que vous venez de lire). Il s’agit d’une variante des points 2-4 concernant le fait de s’informer. ChatGPT n’a pas de capacité de compréhension. Il ne fournira donc pas d’interprétations fiables de ce que vous lisez. À la place, cherchez d’abord la définition des mots que vous ne connaissez pas dans des dictionnaires ; cherchez des analyses rédigées par des humains pour y trouver des interprétations qui vous aideraient à comprendre ce que vous lisez ; demandez leur avis à d’autres étudiants travaillant sur le même texte.
–-
« 12. Ne vous contentez pas de répéter ce que vous avez déjà fait – améliorez vos compétences. […] Demandez à ChatGPT de vous suggérer des moyens de développer votre capacité à penser de manière critique et à écrire clairement. »
ChatGPT n’a pas de capacité de compréhension, donc la signification d’expressions comme « pensée critique » et « techniques d’écriture » lui échappent. Prenez ces expressions et entrez-les dans le moteur de recherche du catalogue de la bibliothèque de votre université ; si vous préférez, demandez conseil à un bibliothécaire. Lisez ce que vous trouvez, et demandez à vos professeurs ce qu’ils en pensent. Pour le reste, rien ne vaut l’entraînement : comme disent les anglophones, practice, practice, practice.
–-
Quelques mots de conclusion
ChatGPT est conçu pour simuler un partenaire de conversation humain. Il s’appuie sur un modèle probabiliste du langage (quel mot est le plus susceptible d’arriver après tel mot) et communique pour communiquer, pour créer l’illusion de la conversation. Il bavarde, tchatche, blablate, indifférent à la signification de ce qu’il dit, indifférent à la vérité. Tout ça est très divertissant mais une attraction de fête foraine n’est pas un outil d’apprentissage fiable, et je pense donc que les étudiants devraient s’en méfier.
Lorsque des étudiants me posent des questions sur ChatGPT, je mentionne les trois problèmes suivants :
– #éthique : la plupart des modèles de langue ont été construits à partir de données volées ;
- #cognition : l’utilisation d’outils comme ChatGPT rend plus dépendant des outils et moins autonome intellectuellement, ainsi que des études ont commencé à le montrer (en voici une réalisée en France) ;
– #environnement : les coûts énergétiques de l’IA générative sont supérieurs d’un ordre de grandeur à ceux des outils préexistants (et elle n’est même pas rentable, donc on brûle du carburant pour rien).
C’est généralement suffisant pour faire réfléchir la plupart de mes étudiants. Ce sont des jeunes gens créatifs, ils ont donc de l’empathie pour les créateurs qui ont été spoliés. Pour progresser et obtenir leur diplôme, ils veulent des outils qui leur font gagner du temps, pas des gadgets qui les rendent moins autonomes intellectuellement. Ils sont frappés d’apprendre que ChatGPT consomme dix fois plus d’énergie que Google pour répondre à la même question, généralement en pire (mais Google est en train de rattraper ChatGPT vers le bas).
La bonne nouvelle, c’est que comme le dit le blogueur Jared White :
« Vous pouvez littéralement ne pas l’utiliser. […] vous pouvez être un technicien expert et un créateur épanoui, au fait de son époque, très connecté, et rester complètement à l’écart de ce cycle de hype. »
Si vous avez besoin de plus d’informations sur ce sujet, je vous recommande vivement de consulter le site Need To Know de Baldur Bjarnason (►https://needtoknow.fyi). Il s’agit d’une synthèse accessible d’un état de l’art très fouillé sur les risques liés à l’utilisation de l’IA générative. C’est un excellent point de départ. (Et si vous connaissez des ressources similaires en français, je suis preneur.)
Quelques commentaires supplémentaires
Suite à la publication de ce billet, j’ai reçu par mail une critique de mon point de vue sur ChatGPT, en particulier l’idée qu’il n’a pas de capacité de compréhension. Je partage ma réponse ci-dessous. Il se peut que d’autres commentaires s’ajoutent ainsi au fil du temps.
L’idée que ChatGPT n’a pas de capacité de compréhension est discutable. Tout dépend de la définition que l’on donne à « compréhension ». Marcello Vitali-Rosati soutient que le sens n’est pas une prérogative humaine, que les humains ont une forme d’intelligence et que l’IA en a une autre – tout dépend de la façon dont nous définissons les différentes formes d’intelligence. Il évoque le fait que ChatGPT sait faire des choses que les machines ne pouvaient pas faire auparavant mais qu’il échoue à faire d’autres choses que des systèmes plus simples savent faire depuis longtemps. Il serait donc plus juste de dire que ChatGPT possède une forme d’intelligence qui lui est propre, et qui est adaptée à certaines tâches mais pas à d’autres. Marcello mentionne par exemple que ChatGPT peut créer des discours politiques convaincants mais qu’il n’est pas capable de donner la liste des écrits d’un auteur de manière fiable.
Je suis d’accord avec tout cela. Ça m’amène à préciser un peu les choses : ChatGPT comprend clairement comment communiquer. La manière dont il arrive à cette compréhension est une forme d’intelligence. Le problème, c’est que cette compréhension n’est pas celle qui compte dans un contexte d’apprentissage, de mon point de vue d’enseignant. Comprendre comment communiquer est différent de comprendre une information. C’est fondamental à mes yeux. Et c’est là, à mon avis, que le débat peut véritablement se situer. Quand on fait des études de commerce, ChatGPT est sans doute un outil intéressant pour travailler sur le marketing (même si je pense qu’il vaut mieux y réfléchir soigneusement, du fait des questions éthiques et environnementales). Mais en dehors des domaines dont le matériau principal est le bullshit (tout jugement de valeur mis à part), son utilité est moins évidente.
Les tâches mentionnées dans le « guide » d’OpenAI font partie de celles où ChatGPT échoue à donner des résultats fiables. ChatGPT n’est pas un système d’information : qu’il passe d’une exactitude de 90 % à 99 %, voire à 99,99 %, ça ne change rien au fait que le risque d’erreur est présent du fait de la nature même de l’outil. On peut légitimement ne pas vouloir prendre ce risque. Quant aux compétences, je crois que les seules personnes qui trouvent ChatGPT bluffant sont celles qui sont moins bonnes que lui dans l’exécution des tâches qui lui sont confiées. Regardons les choses en face : ChatGPT est aussi nul que l’humain moyen. Si on s’appuie sur cet outil pour progresser, tout ce qu’on peut faire c’est plafonner dans le moyen.
–-
15/11 – Ce billet sur ChatGPT m’a valu une réponse… générée par ChatGPT ! Sur LinkedIn, Francesc Pujol propose une « critique de ma critique », qu’il explique avoir générée via ChatGPT. Je n’ai pas été convaincu par ce qui ressemble beaucoup à une série de vagues déclarations un peu incantatoires sur la valeur supposée de l’outil. À la fin du texte, l’auteur (humain ou machine ?) dit que mon propos illustre une position « réactionnaire » et « déséquilibrée », et suggère que les gens comme moi pensent que les étudiants n’ont pas envie d’apprendre et les profs pas envie d’enseigner. Charmant !
Pujol ajoute qu’il va faire lire mes objections à OpenAI et sa « critique de ma critique » par quelques personnes, sans leur dire qui a écrit quoi, pour voir qui de moi ou de ChatGPT produit le plus de déclarations un peu vagues… Là aussi, je ne suis pas convaincu. Mes arguments reposent sur une lecture de la littérature critique sur l’IA générative. Dans mon billet, je renvoie notamment à l’état de l’art réalisé par Baldur Bjarnason et son ouvrage The Intelligence Illusion. Escamoter cela, demander aux gens d’évaluer une série de phrases sans contexte, c’est traiter ce qui devrait être une discussion basée sur des faits comme une dégustation à l’aveugle chez un caviste. Ça me semble particulièrement problématique quand le débat porte précisément sur l’information, les sources, les connaissances vérifiables. Je comprends qu’en tant que partisan de l’utilisation de l’IA dans l’enseignement supérieur on ressente le besoin de défendre ses choix. Encore faudrait-il traiter ses opposants avec un minimum de respect et de sérieux intellectuel.
–-
17/11 – Deux jours après la publication de ce billet, Marcello a publié « La créativité des LLM » sur son blog. Il y explique le concept de température, qui est une définition formelle de la créativité mise en œuvre par un outil comme ChatGPT. La fin du billet aide à bien cerner sa position dans un débat qui est de nature épistémologique :
« Ne me faites pas le petit jeu consistant à dire : “mais non, la créativité est plus que ça !” Si vous n’êtes pas capables de définir formellement ce plus, alors cela veut tout simplement dire que vos idées ne sont pas claires. »
Pour moi les programmes comme ChatGPT ne sont pas informatifs, en tout cas pas de manière suffisamment fiable dans un contexte éducatif : ils comprennent ce qu’est communiquer, pas informer. Par contre, ils relèvent bien du domaine créatif. Si on n’est pas dans un contexte où la fiabilité de l’information est importante, et que par ailleurs on apporte des réponses aux enjeux d’éthique et de coût énergétique, alors je ne m’oppose pas du tout à l’usage créatif des #LLM.
►https://www.arthurperret.fr/blog/2024-11-15-guide-etudiant-ne-pas-ecrire-avec-chatgpt.html
#enseignement #AI #IA #intelligence #ESR #université
–-
signalé aussi par @monolecte :
▻https://seenthis.net/messages/1082701