Technologies partout, démocratie nulle part. Plaidoyer pour que les choix technologiques deviennent l’affaire de tous

/echnologies-partout-democratie-nulle-pa

  • Pourquoi je n’utilise pas #ChatGPT

    L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un #argumentaire que je vais développer ici.

    1. Introduction

    En tant qu’enseignante-chercheuse en informatique, j’ai lu l’article fondateur On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? (https://dl.acm.org/doi/10.1145/3442188.3445922) en 2021. Tous les #effets_négatifs observés des grands modèles de langage et des IAs génératives sont annoncés dans cet article, comme le dit d’ailleurs l’une des autrices dans un entretien récent. Quand j’ai été confrontée personnellement à des textes rendus par des étudiant·es et écrits par ChatGPT, dès janvier 2023, ma méfiance a priori pour cette branche du numérique a commencé à s’incarner dans l’expérience personnelle. Depuis j’accumule des articles et des prises de position sur ce phénomène, mais je n’ai jamais été tentée d’essayer moi-même. Avant de faire un tour d’horizon des divers #arguments qui m’ont fait refuser absolument l’#usage — et critiquer vertement le développement — des IAs génératives en tout genre, que ce soit dans l’#enseignement_supérieur ou ailleurs, précisons un peu le sujet.

    Dans la suite de ce billet, il sera question très spécifiquement d’IAs génératives (comme ChatGPT). Le #vocabulaire a beaucoup glissé ces derniers temps, mais rappelons que l’IA est une idée très ancienne, et que si on se met à qualifier tout le numérique d’IA, il va devenir difficile de parler précisément des choses. Donc : tout le #numérique n’est pas de l’IA ; parmi tout ce qui relève de l’IA, tout n’est pas de la famille “#apprentissage_machine” ; et finalement parmi la famille “apprentissage machine”, tout n’est pas une IA générative comme ChatGPT et consort. On trouvera un historique de l’IA et les définitions de ces notions dans le numéro de juin 2024 de la revue La vie de la recherche scientifique sur l’IA (https://www.snesup.fr/publications/revues/vrs/intelligence-artificielle-vrs437-juin-2024).

    À quoi sert de refuser d’utiliser ChatGPT ? Je suis parfaitement consciente que ce #refus peut sembler totalement vain, puisque nous sommes tous et toutes entouré·es d’étudiant·es et de collègues qui s’en servent très régulièrement, et que nos gouvernements successifs se ruent sur les promesses d’#automatisation et d’économie de moyens humains envisagées en particulier dans les services publics. Après tout, le #progrès_technologique est inéluctable, n’est-ce pas ? Je n’ai pas la moindre illusion sur ma capacité à changer les pratiques à moi toute seule. J’ai encore moins d’illusions sur une possible influence citoyenne sur le développement de ces outils, par les temps qui courent. Le livre de Yaël Benayoun et Irénée Régnault intitulé Technologie partout, démocratie nulle part est paru fin 2020 (https://fypeditions.com/echnologies-partout-democratie-nulle-part), mais je gage qu’un tome 2 entier pourrait être consacré au déploiement des IA génératives. Pourtant, même et surtout si ce déploiement semble inéluctable, il n’est pas interdit de se demander si les IAs génératives, et leur mise à disposition sous forme de Chatbot, sont une bonne chose dans l’absolu.

    Ce qui suit n’est pas un article de recherche. C’est une prise de position personnelle, émaillée de mes lectures préférées sur le sujet. Cette position est basée sur des préoccupations déjà anciennes à propos des impacts des technologies numériques, renforcées par la fréquentation assidue des domaines des systèmes dits critiques (l’informatique dans les trains, les avions, les centrales nucléaires, …). Dans ces domaines la sécurité et la sûreté priment sur la performance, les durées de vie des systèmes sont plus longues que dans l’informatique grand public, les acteurs sont heureusement frileux vis-à-vis d’évolutions trop rapides. Je ne suis pas chercheuse en IA et ne l’ai jamais été. Je n’ai pas pratiqué de longues expérimentations des outils disponibles, même si j’ai lu attentivement ce qu’en disaient les collègues qui l’ont fait. Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques. Si aucune technologie n’est jamais neutre, dans le cas présent la configuration politico-financière extrêmement concentrée dans laquelle se déploient ces outils est particulièrement préoccupante et devrait selon moi conduire à une certaine prise de conscience. Et cela même si l’on est impressionné par les capacités de ces outils, ou tenté par les promesses de gain de temps et d’augmentation de créativité, voire convaincu que le stade de l’’IA générale capable de surpasser l’humain est imminent (et désirable).

    Le tour d’horizon qui suit est uniquement à charge. L’espace médiatique étant saturé de promesses politiques et d’articles dithyrambiques, ce peut être vu comme un petit exercice de rééquilbrage du discours. Je cite un certain nombre de collègues qui font une critique argumentée depuis leur domaine de recherche. Il y en a beaucoup d’autres, dont celles et ceux qui s’expriment dans le numéro de juin 2024 de la revue La vie de la recherche scientifique cité plus haut.
    2. Les impacts socio-environnementaux du numérique sont déjà préoccupants, cela ne va pas s’arranger

    Le déploiement en grand des IAs génératives étant relativement récent, le travail de recherche approfondi et consolidé sur l’estimation précise de leurs impacts environnementaux ne fait que démarrer. Par ailleurs les outils sont particulièrement opaques, ils évoluent très rapidement, et les promesses des vendeurs d’IA n’aident pas à y voir clair. Sans attendre des chiffres consolidés, on peut s’intéresser aux effets locaux prévisibles grâce aux travaux de collectifs comme Le nuage était sous nos pieds ou Tu nube seca mi río ou encore aux collectifs qui ont protesté contre l’installation de datacenters au Chili. Cela permet de rendre plus concrète la matérialité des infrastructures du numérique, et de constater les conflits d’accès locaux sur les ressources en électricité ou en eau. L’épisode IA qu’à algorithmiser le climat du podcast de Mathilde Saliou sur Next est aussi un bon tour d’horizon des impacts environnementaux. Malgré les promesses des grandes entreprises de la Tech d’alimenter leurs infrastructures uniquement avec de l’énergie “verte”, leur récent engouement pour le renouveau du nucléaire laisse penser qu’elles envisagent un avenir où ces énergies seront loin de répondre à leurs besoins. Dans son podcast ‘Tech Won’t Save Us’ Paris Marx a produit un épisode passionnant sur le nucléaire et la tech. Il faut enfin garder en tête que la promesse des grandes entreprises de la tech d’alimenter leurs infrastructures numériques uniquement avec de l’énergie verte, même si elle se réalise, ne les absout nullement de leurs impacts environnementaux. En effet la production d’électricité n’est pas infinie, et celle qu’on consacre aux infrastructures du numérique n’est pas utilisable ailleurs. Si monopoliser les sources d’énergie “verte” pour le numérique oblige d’autres usages à rouvrir ou prolonger des centrales à charbon, alors le numérique est aussi indirectement responsable de leurs émissions.

    Bref, si la trajectoire des impacts environnementaux du numérique était déjà un problème avant l’apparition des IAs génératives, les impacts ont récemment subi un coup d’accélérateur. Ce constat suffirait amplement à remettre en cause sérieusement le déploiement tous azimuts de ces technologies, sauf si l’on croit vraiment que l’IA va sauver le monde, ce qui n’est pas mon cas. C’est un pari risqué que fait pourtant allègrement l’ancien PDG de Google, quand il affirme que les objectifs climatiques étant inatteignables, il faut mettre tous nos moyens sur l’IA en espérant qu’elle résoudra le problème. Il se peut que les projections pharaoniques de ressources nécessaires dans les 10 ans à venir (croissance exponentielle de la demande en électricité et en matériaux) se heurtent rapidement à des limites physiques. Il n’en reste pas moins que de gros dégâts seront déjà irréversibles d’ici-là.

    Au cas où ces impacts environnementaux (qui sont d’ailleurs déjà des impacts socio-environnementaux) ne suffiraient pas à disqualifier le déploiement des grandes IAs génératives, les conditions de travail des humains indispensables au développement de ces outils devrait régler la question. Un article récent aborde cette situation en la qualifiant d’esclavage moderne (The Low-Paid Humans Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery’) et le site du projet Diplab d’Antonio Casilli est une mine d’informations sur le sujet, quoi que pas toutes spécifiques aux IAs génératives. Enfin la voracité en données qui fait fi de toute législation ou respect du droit d’auteur apparaît au grand jour dans Meta knew it used pirated books to train AI, authors say. L’excellent 404media titre même OpenAI Furious DeepSeek Might Have Stolen All the Data OpenAI Stole From Us (OpenAI furieux que DeepSeek puisse avoir volé toutes les données que OpenAI nous a voées).
    3. Le contexte politique et économique du déploiement des IAs génératives devrait inciter à la prudence

    Aucune technologie n’est neutre ni inéluctable. Chacune se déploie dans un certain contexte économique et politique qui oriente les choix. Cela a toujours été le cas pour le numérique, depuis le début. L’extrême concentration d’acteurs et de moyens qui préside au déploiement des IAs génératives devrait aider à prendre conscience de cet état de fait. L’annonce récente de 500 milliards de dollars à consacrer au sujet donne la (dé)mesure de la chose. Je ne détaillerai pas les courants politiques et philosophiques qui circulent parmi les promoteurs des IAs. Certains acteurs affirment croire à l’avénement des IAs générales, comme résultat inéluctable de l’accumulation de moyens et de ressources. Que l’on fasse miroiter ces IAs capables de sauver le monde, ou qu’au contraire on annonce l’apocalypse, leur prise de pouvoir et la fin de l’humanité, on participe à détourner l’attention des dégâts déjà bien présents ici et maintenant. Le livre récent Les prophètes de l’IA – Pourquoi la Silicon Valley nous vend l’apocalypsefait le tour de la question efficacement.

    Bien sûr si l’on pose comme hypothèse initiale que le cerveau humain est un ordinateur, alors un très gros ordinateur va sembler très intelligent, et un plus gros ordinateur encore plus intelligent. Mais l’hypothèse initiale n’a pas de sens. Si les IAs génératives conduisent à la fin de l’humanité, ce sera en monopolisant les ressources et en aggravant les problèmes socio-environnementaux, pas en atteignant la superintelligence.
    4. Quid d’une alternative éthique, souveraine, et aux impacts maîtrisés ?

    Quand j’explique les raisons de mon refus total de mettre le doigt dans l’engrenage ChatGPT, on me cite souvent les alternatives éthiques, souveraines, ouvertes, aux impacts environnementaux maîtrisés, respectueuses des droits des auteurs, etc. Je ne remets pas en cause a priori la qualité de ces développements, ni les motivations de leurs auteurs. Simplement il me semble qu’en pariant sur ces alternatives on passe à côté d’un certain nombre de questions.

    Question 1 – effet d’entraînement. Même s’il est effectivement possible de faire des petites IAs éthiques aux impacts moindres, cela participe à l’acceptation générale de toutes les IAs génératives potentielles, dont celles qui ont un impact énorme et sont fort peu éthiques. Que se passera-t-il quand les petites IAs seront rentrées dans les moeurs, qu’on en sera devenus dépendants pour de nombreuses applications, et que les grandes entreprises du numérique lanceront GTP12 grâce aux 500 milliards promis par le gouvernement US ? Les gens resteront-ils bien sagement utilisateurs des petites IAs ? Faut-il se réjouir de l’annonce de l’IA de l’entreprise chinoise DeepSeek qui semble surpasser très nettement celles des entreprises américaines en coût et ressources nécessaires ? Non, bien sûr. Cela marque le début d’une nouvelle course aux armements, l’enclenchement d’un effet rebond massif. C’est un développement extrêmement mal orienté si l’on s’attarde quelques minutes sur le numérique face aux limites planétaires. Il est urgent au contraire de s’intéresser à des trajectoires décroissantes du numérique, et j’espère qu’on en est encore capables.

    Question 2 – est-ce seulement désirable ? Quoi qu’il en soit des impacts, il est de toute façon permis de se demander si les IAs génératives, et leur mise à disposition sous forme de Chatbot, sont une bonne chose dans l’absolu. Il y a des idées qui sont juste de mauvaises idées, même si elles semblent inéluctables. Dans ce cas tous les impacts, même petits, sont déjà du gaspillage.

    5. Quid des usages utiles ?

    Pour le plaisir de l’argumentation, poursuivons en mettant de côté les impacts et en supposant que c’est une bonne idée d’interagir avec des machines via des modèles de langage. Nous sommes soumis en permamence à un discours politique qui vante les gains en efficacité rendus possibles par le déploiement de ces outils. Pourtant dans le cas des services publics, la numérisation à marche forcée a déjà produit de nombreux dégâts avant même l’introduction des IAs génératives, la presse s’en faisant souvent l’écho (comme par exemple ici : « Je n’ai jamais eu le fin mot de l’histoire » : pourquoi la CAF est une boîte noire pour ses allocataires). Il est fort peu probable que l’introduction des IAs génératives améliore quoi que ce soit à une situation où la numérisation s’est accompagnée de désintermédiation totale. Mais passons en revue quelques-une des promesses les plus courantes et leurs effets envisageables.
    5.1 Le fameux “gain de temps” vs les effets d’accélération

    Le domaine du numérique promet des gains de temps depuis plus de 70 ans. Si la promesse avait été suivie d’effet nous devrions, soit avoir réduit le temps de travail à 1h par semaine, soit avoir multiplié la “productivité” par un facteur énorme. Si ce n’est pas le cas, c’est que ce fameux “temps gagné” a immédiatement été rempli par autre chose, pas nécessairement plus intéressant ni surtout plus productif. Allons-nous continuer longtemps à tomber dans ce piège ?

    Prenons l’exemple promu en ce moment dans les administrations : l’usage des IAs génératives pour rédiger des comptes-rendus de réunions, en visio ou pas. Chacun sait que dans un compte-rendu de réunion on va au-delà de la simple transcription mot à mot. Un bon compte-rendu fait preuve de synthèse, on y trouve les points saillants de la réunion, les accords et les désaccords, les décisions actées ou reportées, les promesses de chacun sur le travail à réaliser avant la prochaine réunion sur le même sujet, etc. La capacité des IAs génératives à résumer des textes ou des transcriptions audio est tout à fait incertaine, avec des risques potentiels assez graves. Une expérience détaillée conduit même à conclure que cet outil ne résume pas, il raccourcit, et c’est très différent. En informaticienne je dirais : “pour raccourcir on peut rester au niveau clavier. Pour résumer il faut repasser par le cerveau”. Mais, toujours pour le plaisir de l’argumentation, supposons que la qualité soit au rendez-vous. Serait-ce désirable pour autant ?

    Comme à chaque fois que le numérique est vendu comme moyen de gagner du temps, il faut se demander comment et avec quoi va se remplir le temps ainsi gagné. Dans le cas des comptes-rendus de réunion, voilà un effet tout à fait probable : une accélération du rythme des réunions. En effet, la contrainte d’avoir à rédiger et diffuser un compte-rendu avant d’organiser la réunion suivante ayant disparu, plus aucune limite naturelle ne s’oppose à organiser une autre réunion très rapprochée de la première. Vous me direz que dans ce cas la limite naturelle suivante sera la non ubiquité des participants potentiels. Ce à quoi je répondrai : même pas, puisqu’on nous propose déjà d’envoyer en réunion un avatar qui y jouera notre rôle : Zoom va permettre à un avatar créé par IA de parler pour vous.

    Au cas où cette prévision vous semblerait peu crédible, rappelez-vous comment vous gériez votre temps professionnel il y a 20 ans, avant le déploiement des outils d’emploi du temps en ligne censés nous faire gagner du temps (j’avoue humblement y avoir cru). Quand j’ai pris mon poste de professeure en 2000, mon emploi du temps du semestre tenait sur un bristol glissé dans mon agenda papier format A6, il était parfaitement régulier pendant les 12 semaines d’un semestre. L’agenda ne me servait qu’à noter les déplacements de un à plusieurs jours et les réunions exceptionnelles. Aujourd’hui sans emploi du temps partagé en ligne et synchronisé avec mon téléphone, j’aurais du mal à savoir le matin en me levant où je dois aller dans la journée, pour rencontrer qui, et sur quel sujet. La puissance des outils numériques avec synchronisation quasi-instantanée entre participants pousse à remplir les moindres coins “libres” des journées. Quand il fallait plusieurs jours pour stabiliser un créneau de réunion, c’était nécessairement assez loin dans le futur, le remplissage de l’emploi du temps de chacun n’était pas parfait, et il restait des “trous”. Il n’y a plus de trous. Nous n’avons jamais été aussi conscients de la pression du temps.

    Prenons aussi l’exemple de la gestion des emails, notoirement si envahissants que certaines entreprises et organisations les ont bannis (parfois pour les remplacer par des outils de chat, ce qui ne résoud pas vraiment le problème, mais passons). Les IAs génératives promettent simultanément de (1) générer des emails au ton professionnel à partir d’un prompt donnant quelques idées ; (2) résumer un email trop long en quelques idées importantes. Cela devrait immédiatement apparaître comme menant à une situation totalement absurde où le passage par un texte long est entièrement invisible aux acteurs humains. Pourquoi alors ne pas s’envoyer simplement des emails de 3 lignes ? Le dessinateur Geluck avait décrit le résultat dans un dessin du Chat en 3 cases : a) le Chat dit ” je me suis acheté deux jeux d’échecs électroniques” ; b) Le Chat dit : “je les ai raccordés l’un à l’autre” ; c) Le Chat, en train de faire sa vaisselle dans un évier plein de mousse dit : “et j’ai la paix”. Si la prolifération des emails dans le milieu professionnel est déjà reconnue comme un problème, fluidifier leur usage ne peut que faire sauter les dernières limites naturelles à leur accumulation.

    Pour conclure sur ce point : si la promesse de “gagner du temps” est tentante, s’il peut sembler dans un premier temps que c’est effectivement le cas, il est fort prévisible que le temps gagné sera reperdu dans une accélération de tout le processus qu’on avait cherché à ainsi optimiser. Rendez-vous dans 6 mois ou un an pour voir comment le temps gagné sur les comptes-rendus de réunions et la rédaction des emails s’est rempli.
    5. 2 La créativité à base figée vs la pollution informationnelle

    Un argument qui revient souvent dans le monde universitaire, c’est l’usage de ChatGPT comme “démarreur”, pour donner de premières idées. J’ai personnellement beaucoup de mal à croire que cela produise quoi que ce soit d’un tant soit peu original, je craindrais de plagier sans intention, j’aurais quelque réticence à donner le produit de mes réflexions financées par de l’argent public aux vendeurs d’outils, et je préfère de loin deux heures de remue-méninges avec des collègues ou des étudiants. Mais soit, admettons cet usage. Si on pense les IAs génératives entraînées “une fois pour toutes”, alors on devrait s’inquiéter de voir la créativité future décliner et se désynchroniser des évolutions d’un domaine. Mais si on sait qu’elles évoluent par générations successives re-entraînées sur une base de textes qui augmente, alors il faut se poser la question de la pollution.

    Un aspect très important des IAs génératives qui les distingue d’autres systèmes numériques et d’autres IAs, c’est en effet précisément qu’elles sont génératives. Leurs résultats s’accumulent dans l’espace de l’information en ligne, et constituent une forme de pollution dont il sera très difficile de se débarrasser. Sur ce point j’ai trouvé particulièrement frappante la décision du mainteneur de WordFreq d’arrêter les mises à jour. WordFreq est un outil qui maintient une base de données sur la fréquence des mots dans plusieurs langues, en analysant les textes disponibles en ligne. Le mainteneur a constaté que ces fréquences changent maintenant à un rythme jamais observé auparavant, et accuse les IAs génératives d’avoir irrémédiablement pollué les textes en ligne. Sa conclusion est sans appel : plus personne n’a d’information fiable sur les langues telles qu’elles sont parlées par des êtres humains, après 2021. Les autres exemples de pollution abondent, de l’édition à compte d’auteur (La plateforme de publication en ligne d’Amazon est contrainte de mettre en place une limite de 3 livres par auteur et par jour) au système de publications scientifiques (GPT-fabricated scientific papers on Google Scholar : Key features, spread, and implications for preempting evidence manipulation), en passant par les réseaux sociaux professionnels.

    Le mot slop a été introduit récemment pour décrire cette pollution informationnelle qui s’accumule dans les sources en ligne. Le livre Les IA à l’assaut du cyberespace – Vers un Web synthétique revient sur l’évolution du contenu du web depuis 25 ans, et met en garde contre son artificialisation.

    Comment penser que cette pollution n’aura pas d’impact sur les usages “créatifs” de l’outil, à moyen terme ? Même si les effets à court terme paraissent utiles, à quel avenir contribuons-nous en acceptant une utilisation routinière de ces technologies ?
    5.3 L’automatisation des tâches répétitives vs l’effet coupe rase et la perte de compétences

    Etant enseignante d’informatique, je suis naturellement préoccupée par l’avenir du logiciel si une partie significative est produite par des IAs génératives opaques et non testables, à la fois à cause de la qualité intrinsèque du logiciel produit, et pour ce que cela signifierait dans l’organisation du travail et l’évolution des métiers.

    Un argument qui revient souvent est que les aides à la programmation à base d’IAs génératives sont attrayantes pour maîtriser une grande base de code, naviguer dans des bibliothèques inombrables dont on n’a pas le temps de lire la documentation, produire la partie du code qui a presque toujours la même forme, … Mais si vraiment on se noie dans le code, comme analysé ici, ajouter une couche opaque destinée à en générer encore plus, encore plus vite, est-ce vraiment raisonnable ?

    Si l’on s’intéresse à la construction de ces IA génératives appliquées à la programmation, on se rend compte qu’elles sont comparables aux coupes rases en forêt : il est possible de réaliser de gros profits, une fois, en rasant tout, mais rien ne repoussera jamais. Les outils d’aide à l’écriture de code actuels se sont nourris de toutes les occurrences de code et d’explications produites par des humains et disponibles sur le web. Mais si on croit leurs promesses, ils sont susceptibles de provoquer une réduction drastique des métiers-mêmes qui pourraient produire de nouvelles occurences. Où les futures IAs d’aide à la programmation prendront-elles les exemples à digérer écrits dans le nouveau langage de programmation à la mode ? Dans la production des IAs de la génération précédente entraînée sur un autre langage ? Ce qui vaut pour la programmation vaut pour tous les autres usages qui promettent à une profession de gagner du temps grâce à une IA entraînée sur les productions humaines passées de leur propre métier.

    L’effet coupe rase s’accompagne donc d’une transformation des métiers. On nous explique ainsi que les IAs permettent d’automatiser les tâches répétitives et peuvent déjà remplacer les programmeurs juniors, mais que les programmeurs seniors sont toujours nécessaires. Une première conséquence devrait sauter aux yeux : comme on ne devient pas senior sans être passé par le stade junior, la disparition des juniors devrait logiquement être suivie de la disparition des seniors. A moins de croire que les IAs génératives seront d’ici-là capables d’apprendre toutes seules (mais à partir de quoi ?), cela devrait provoquer une certaine inquiétude.

    On nous explique aussi que les programmeurs seniors restent l’humain dans la boucle. J’ai beaucoup apprécié ce texte d’une traductrice professionnelle qui explique que passer d’une activité de création de texte à une activité de relecture et correction d’un premier jet produit par une IA (non générative ici) modifie le métier et le rend pénible sans vrai gain de temps. Je soupçonne que ces conclusions s’appliquent aussi à la programmation.

    Pour conclure ce paragraphe, parcourons Generative AI : What You Need To Know, un manuel de défense intellectuelle contre les promesses des IAs génératives, par un auteur qui a une longue expérience du métier de développeur web, et qui a d’ailleurs écrit “we’re all-in on deskilling the industry. (…) we’re now shifting towards the model where devs are instead “AI” wranglers. The web dev of the future will be an underpaid generalist who pokes at chatbot output until it runs without error, pokes at a copilot until it generates tests that pass with some coverage, and ships code that nobody understand and can’t be fixed if something goes wrong”.
    6. Conclusion

    Que conclure ? Plus le temps passe, moins je suis tentée d’utiliser ChatGPT ou d’autres outils d’IA générative. Le rythme effréné des annonces et la vision du monde des promoteurs de ces outils m’ont définitivement vaccinée contre le moindre frémissement d’intérêt qui aurait pu subsister. Et je n’ai même pas abordé ici les questions de biais, de sécurité, de protection de la vie privée, … Je lisais récemment CEO of AI Music Company Says People Don’t Like Making Music et comme je suis moi-même incapable de jouer dequelque instrument que ce soit, j’imagine que j’aurais dû être dans la cible de cette entreprise qui prétend “démocratiser” la création musicale. Eh bien non, pas du tout. Dans toute activité créative ce n’est pas le résultat qui compte, c’est le chemin. J’ai pris beaucoup de plaisir à écrire ce texte sans aucune “aide” par ChatGPT. Je continuerai comme ça.

    Ah, j’oubliais, si vous êtes tentés d’utiliser ChatGPT comme outil de recherche d’informations, alors même que l’outil n’est vraiment pas fait pour ça et contribue à polluer l’espace informationnel, essayez plutôt eurekoi. C’est plus lent, bien sûr. Mais ça tombe bien, il est urgent de ralentir.

    https://pdimagearchive.org/images/1679dcfd-d3d8-4ecc-a19a-21beced97f05

    https://academia.hypotheses.org/58766
    #AI #IA #intelligence_artificielle #utilisation #enseignement #recherche #ESR

    • L’effet coupe rase s’accompagne donc d’une transformation des métiers. On nous explique ainsi que les IAs permettent d’automatiser les tâches répétitives et peuvent déjà remplacer les programmeurs juniors, mais que les programmeurs seniors sont toujours nécessaires. Une première conséquence devrait sauter aux yeux : comme on ne devient pas senior sans être passé par le stade junior, la disparition des juniors devrait logiquement être suivie de la disparition des seniors. A moins de croire que les IAs génératives seront d’ici-là capables d’apprendre toutes seules (mais à partir de quoi ?), cela devrait provoquer une certaine inquiétude.

      On nous explique aussi que les programmeurs seniors restent l’humain dans la boucle. J’ai beaucoup apprécié ce texte d’une traductrice professionnelle qui explique que passer d’une activité de création de texte à une activité de relecture et correction d’un premier jet produit par une IA (non générative ici) modifie le métier et le rend pénible sans vrai gain de temps. Je soupçonne que ces conclusions s’appliquent aussi à la programmation.

      Je vais parler de ce que je connais :c’était la promesse, il y a encore quelques mois, de remplacer les développeurs, débutants ou pas. Le soufflé est retombé. L’IA générative est probablement une énorme bulle de spéculation. Les gens se sont amusés les premiers mois, maintenant il n’y plus guère que les marketeux pour utiliser ChatGPT pour générer leurs posts Linkedin sans intérêt et des collégien-ne-s/lycéen-ne-s/étudiant-e-s naïfs-ves qui l’utilisent en pensant que ça passera (mais oh surprise, ça ne passe pas, les profs s’en rendent compte), de la même manière que Wikipedia était recopié consciencieusement il y a quelques années encore, et plus loin encore des Universalis ou Larousse... Je suis développeur, et je peux dire que les IA génératives, même spécialisées en code, font encore globalement n’importe quoi. Pourtant on a tou-te-s un abonnement à une IA ici, eh bien ça sert très peu (alors que bon, on pourrait presque se dire : « chouette ça va bosser à ma place sans que personne le voit »). C’est une vague aide à la compréhension, et encore seulement si on a un minimum de compréhension de la logique du code. Je ne dis pas que ça va durer éternellement, peut-être qu’un jour une IA fera tout à notre place, mais ce qui est sûr c’est que ChatGPT n’est pas cette IA là.

    • on a tou-te-s un abonnement à une IA ici

      pas vraiment ; le quota gratuit me suffit largement à me faire aider pour retrouver les bonnes options de ffmpeg ou de rsync une fois par semaine

    • (man ffmpeg consomme bien moins d’énergie et de bébés phoques et n’hallucine pas d’options qui n’existent pas (souvenir de @stephane qui avait partagé une expérience amusante à ce sujet) :-) )

      J’ai tjs des seniors ds mes connaissances, qui m’expliquent que pour rédiger un script dans un langage qu’ils ne connaissent pas, ça leur fait gagner du temps. Ici, on ne l’utilise pas du tout. Même par curiosité. La simple possibilité d’une hallucination ne m’amuse pas, ne me donne pas envie. J’aime résoudre des problèmes, mais pas quand il y a la prétention à m’aider à les résoudre tout en m’en créant d’encore plus vicieux à résoudre.

    • J’ai un abonnement au gaz, à l’élec, au téléphone mobile qui m’a fait couper le fixe, au loyer que c’est deux bras et presque toute la gueule, à l’assurance locative obligatoire, au contrat d’entretien du chauffe-eau exigé par le proprio sous peine de rupture de bail, à une mutuelle de santé hors de prix qui rembourse la naturopathie mieux que la réparation des dents, à tel point que je doit limiter des frais de santé plutôt nécessaires mais généreusement pris en charge à 0%. Je raque une carte annuelle de réduc SNCF, une autre pour des TER, pas que je m’en serve tant mais sans elles, faudrait revenir à l’auto-stop. Et j’achète plus de contrat box.
      Les dépenses incompressibles, y en a nettement trop vu de ma fenêtre qu’elle est riquiqui, alors j’essaie de pas en inventer.
      Dans mon bled capital, j’espère être dispo dès qu’un petit coup de fenwick sera opportun.

    • « L’intelligence artificielle accélère le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs »
      TRIBUNE
      https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.
      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?

      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.

      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux Etats-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.

      Premiers signataires : David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      Organisations signataires :https://www.laquadrature.net/en/hiatus-manifesto