Le média pour comprendre, analyser, déchiffrer, changer, transformer, politiser l’impact social de la tech

https://danslesalgorithmes.net

  • Politiques publiques : passer de l’#IA… à la #dénumérisation

    L’intelligence artificielle et son monde est en train de prendre la main sur les #politiques_publiques, au risque de nous laisser sans échappatoire, alerte Dan McQuillan.

    L’IA prédictive comme générative semble offrir une multitude d’avantages à l’élaboration des politiques publiques : de l’analyse de données complexes à l’optimisation des ressources. Elle semble à la fois être capable d’apporter une vision globale et d’identifier les leviers permettant de la modifier. Recourir à l’IA signifie mettre en place des politiques conduites par les données, ce qui permet d’assurer une forme d’#objectivité, notamment quant il s’agit de rationner le #service_public

    Mais, cette production de solutions politiques semble oublier que l’IA est incapable de résoudre les #problèmes_structurels. Elle propose des #solutions_performatives qui obscurcissent et amplifient les problèmes, explique l’iconoclaste #Dan_MacQuillan dans un article pour la Joseph Rowntree Foundation, une association britannique de lutte contre la pauvreté, qui a initié une réflexion sur l’usage de l’IA pour le #bien_public. Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’intelligence artificielle, Bristol University Press, 2022, non traduit) dont nous avions déjà parlé.

    McQuillan rappelle que l’IA, par principe, consiste à produire des #corrélations réductrices plutôt que des analyses causales. « La complexité de l’IA introduit une #opacité fondamentale dans le lien entre les #données_d’entrée et les #résultats, rendant impossible de déterminer précisément pourquoi elle a généré un résultat particulier, empêchant ainsi toute voie de recours. Ce phénomène est aggravé dans les applications concrètes, où les résultats apparemment fiables de l’IA peuvent devenir auto-réalisateurs. Un #algorithme d’apprentissage automatique qualifiant une famille de « difficile » peut ainsi créer une #boucle_de_rétroaction entre les membres de la famille et les #services_sociaux. De cette manière, l’IA imite des phénomènes sociologiques bien connus, tels que les #stéréotypes et la #stigmatisation, mais à grande échelle ». Ses inférences au final renforcent les #stratifications_sociales de la société comme pour les rendre acceptables.

    Or, rappelle le chercheur, « une bonne politique doit impérativement être ancrée dans la réalité ». C’est pourtant bien ce lien que rompent les calculs de l’IA, à l’image des #hallucinations. Celles-ci proviennent du fait que l’IA repose sur l’#imitation_du_langage plutôt que sa #compréhension. Le même principe s’applique à toutes les #prédictions ou #classifications que produit l’IA. « Que l’IA soit appliquée directement pour prédire la #fraude aux #aides_sociales ou simplement utilisée par un décideur politique pour « dialoguer » avec une multitude de documents politiques, elle dégrade la #fiabilité des résultats ».

    Des données probantes suggèrent déjà que l’imbrication des #algorithmes dans les solutions politiques conduit à une appréciation arbitraire de l’#injustice et de la #cruauté. Les #scandales abondent, de #Robodebt en Australie à l’affaire des allocations familiales aux Pays-Bas, qui auraient tous pu être évités en écoutant la voix des personnes concernées. Mais l’IA introduit une #injustice_épistémique, où la capacité des individus à connaître leur propre situation est dévaluée par rapport aux abstractions algorithmiques. Si l’IA, comme la #bureaucratie, est présentée comme une forme généralisée et orientée vers un objectif de processus rationnel, elle engendre en réalité de l’#inconscience : l’incapacité à critiquer les instructions, le manque de #réflexion sur les conséquences et l’adhésion à la croyance que l’ordre est correctement appliqué. Pire encore, l’IA dite générative offre la capacité supplémentaire de simuler une large consultation, que ce soit par « l’interprétation » hallucinatoire d’un grand nombre de soumissions publiques ou par la simulation littérale d’un public virtuel et prétendument plus diversifié en remplaçant des personnes réelles par des avatars d’#IA_générative. Une technique, qui, si elle a l’avantage de réduire les coûts, est dénoncée par des chercheurs comme contraire aux valeurs mêmes de l’enquête et de la recherche, rappelait Scientific American. « L’approche technocratique mise en œuvre par l’IA est à l’opposé d’un mécanisme réactif aux aléas de l’#expérience_vécue », explique McQuillan. « L’IA n’est jamais responsable, car elle n’est pas responsable ». Si l’on considère les attributs de l’IA dans leur ensemble, son application à l’élaboration des politiques publiques ou comme outil politique aggravera l’#injustice_sociale, prédit le chercheur. L’apport de l’IA à l’ordre social ne consiste pas à générer des arrangements de pouvoir alternatifs, mais à mettre en place des mécanismes de classification, de #hiérarchisation et d’#exclusion.

    Chaque signalement par l’IA d’un risque de #fraude, d’un classement d’une personne dans une catégorie, mobilise une vision du monde qui privilégie des #représentations_abstraites à la complexité des relations vécues, et ce dans l’intérêt des institutions et non des individus. « Imprégnées des injustices criantes du #statu_quo, les solutions de l’IA tendent inexorablement vers la #nécropolitique, c’est-à-dire vers des formes de prise de décision qui modifient la répartition des chances de vie par des désignations de disponibilité relative. Détourner massivement les individus des parcours éducatifs ou des prestations sociales dont ils ont besoin pour survivre, par exemple, constitue un #filtre_algorithmique pour déterminer qui est bienvenu dans la société et qui ne l’est pas ».

    Le problème, c’est que la pression sur les décideurs politiques à adopter l’IA est immense, non seulement parce que ses #biais viennent confirmer les leurs, mais plus encore du fait des engagements commerciaux et des promesses économiques que représente le développement de ce secteur. Et McQuillan de regretter que cette orientation nous éloigne de l’enjeu éthique qui devrait être au cœur des politiques publiques. La politique s’intéresse de moins en moins aux injustices structurelles de la société. « Un monde où l’élaboration et la mise en œuvre des politiques publiques reposent sur l’IA est aussi un monde qui confère un #pouvoir considérable à la petite poignée d’entreprises capables de disposer de ces ressources ». Par essence, « l’adoption de l’IA constitue un engagement en faveur de l’#extractivisme et d’un transfert de contrôle à un niveau qui supplante toute politique réelle ».

    En fait, explique McQuillan, adopter l’IA dans l’élaboration des politiques publiques revient à soumettre les politiques à des agendas corporatifs et idéologiques plus vastes (à savoir se soumettre à ceux qui ont déjà décidé que l’avenir de la civilisation réside dans l’intelligence artificielle générale (IAG), ceux qui ont décidé que la meilleure réponse à la crise structurelle est de la masquer sous le battage médiatique de l’IA, et ceux qui ont conclu que le meilleur moyen de maintenir les revenus en période de récession mondiale est de remplacer les travailleurs réels par des émulations d’IA de mauvaise qualité). L’impact net de l’IA dans l’élaboration des politiques la rendrait plus précaire et favoriserait l’externalisation et la #privatisation sous couvert d’une #technologie surmédiatisée. Il s’agit d’une forme de « #stratégie_du_choc », où le sentiment d’urgence généré par une technologie prétendument transformatrice du monde est utilisé comme une opportunité pour l’#emprise des entreprises et pour transformer les systèmes sociaux dans des directions ouvertement autoritaires, sans réflexion ni débat démocratique.

    Pour Dan McQuillan, plutôt que de se demander comment l’IA va imprégner l’élaboration des politiques, il faudrait se concentrer sur des politiques publiques qui favorisent la dénumérisation. C’est-à-dire favoriser une stratégie sociotechnique de réduction de la #dépendance à l’échelle computationnelle, de participation maximale des communautés concernées et de reconnaissance accrue du fait que le raisonnement computationnel ne saurait se substituer aux questions politiques exigeant un jugement réfléchi et perspicace. L’IA, en tant qu’appareil de calcul, de concepts et d’investissements, est l’apothéose de la « vue d’en haut », l’abstraction désincarnée du savoir privilégié qui empoisonne déjà nombre de formes d’élaboration des politiques. Pour McQuillan, un pivot vers la « #décomputation » est une façon de réaffirmer la valeur des #connaissances_situées et du contexte sur le seul passage à l’échelle. Contrairement aux prédictions et simulations de l’IA, notre réalité commune est complexe et intriquée, et la théorie ne permet pas de prédire l’avenir. Cela ne signifie pas que nous ne pouvons pas progresser vers des objectifs tels que la justice sociale et une transition juste, mais la dénumérisation suggère de les aborder de manière à la fois itérative et participative. Le véritable travail de restructuration réoriente l’attention des technologies toxiques vers le développement de techniques de #redistribution du #pouvoir_social, telles que les #conseils_populaires et les #assemblées_populaires. Bref, pour sortir de l’enfermement des politiques publiques de l’abstraction qu’impose l’IA, il faut prendre un virage contraire, suggère McQuillan. Un constat qui n’est pas si éloigné de celui que dresse le chercheur Arvind Narayanan quand il invite à limiter l’emprise du calcul sur le social, même s’il est exprimé ici d’une manière bien plus radicale.

    https://danslesalgorithmes.net/2025/10/07/politiques-publiques-passer-de-lia-a-la-denumerisation
    #intelligence_artificielle #AI

  • Dans les algorithmes | ... A l’IA pour faire régner la terreur
    https://danslesalgorithmes.net/2025/10/09/a-lia-pour-faire-regner-la-terreur

    (...)

    Or, la promesse de l’IA est bien celle d’une prolétarisation partout où elle s’infiltre. Pour Blix, l’IA permet de créer une « bifurcation » selon la valeur. Si vous êtes avocat spécialisé en fusion d’entreprises, vous avez peu de chance d’être remplacé par une IA, car la moindre erreur pourrait coûter des millions de dollars. Mais si vous êtes avocat commis d’office, l’IA va vous aider à traiter bien plus de dossiers, même si vous ne les gagnez pas tous. Pour Blix, les services coûteux vont l’être de plus en plus, alors que les services les moins coûteux seront peut-être moins chers encore, mais avec de moins en moins de garanties de qualité. « L’IA fabrique des produits tellement moins chers qu’ils surpassent la concurrence non pas en qualité, mais en prix ». Pour lui, c’est « une attaque d’en haut contre les salaires ».

    (...)

  • #IA et #éducation (1/2) : plongée dans l’IApocalypse éducative

    L’#IA_générative est en train de transformer en profondeur le monde de l’éducation, où les élèves l’utilisent massivement pour faire leurs devoirs. Entre dénis et illusions, comment s’adapter ? Faut-il s’adapter ?

    A l’été 2023, Ethan Mollick, professeur de management à Wharton, co-directeur du Generative AI Labs et auteur de #Co-intelligence : vivre et travailler avec l’IA (qui vient de paraître en français chez First), décrivait dans son excellente newsletter, One useful thing, l’apocalypse des #devoirs. Cette apocalypse qu’il annonçait était qu’il ne serait plus possible pour les enseignants de donner des devoirs à leurs élèves à cause de l’IA, redoutant une triche généralisée.

    Pourtant, rappelait-il, la triche est là depuis longtemps. Une étude longitudinale de 2020 montrait déjà que de moins en moins d’élèves bénéficiaient des devoirs qu’ils avaient à faire. L’étude, menée par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les élèves faisaient leurs devoirs en 2008, cela améliorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’améliorer les notes que de 45% des élèves. Pourquoi ? Parce que plus de la moitié des élèves copiaient-collaient les réponses à leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre étude soulignait même que 15% des élèves avaient payé quelqu’un pour faire leur devoir, généralement via des sites d’aides scolaires en ligne. Si #tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était déjà facile avant sa généralisation.

    Les #calculatrices n’ont pas tué les #mathématiques

    Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion même de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformé l’enseignement des mathématiques. Dans un précédent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a été introduite dans les écoles, les réactions ont été étonnamment proches des inquiétudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les élèves. En s’appuyant sur une thèse signée Sarah Banks, Mollick rappelle que dès les années 70, certains professeurs étaient impatients d’intégrer l’usage des calculatrices dans leurs classes, mais c’était loin d’être le cas de tous. La majorité regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiétude que leurs enfants n’oublient les bases des maths. Au début des années 80, les craintes des enseignants s’étaient inversées, mais très peu d’écoles fournissaient de calculatrices à leurs élèves. Il faut attendre le milieu des années 1990, pour que les calculatrices intègrent les programmes scolaires. En fait, un consensus pratique sur leur usage a été atteint. Et l’enseignement des mathématiques ne s’est pas effondré (même si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la généralisation des calculatrices) (https://stanford.edu/~cpiech/bio/papers/gptsurprise.pdf).

    Pour Mollick, l’intégration de l’IA à l’école suivra certainement un chemin similaire. « Certains devoirs nécessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinés à des examens écrits, permettront aux élèves d’acquérir les #compétences_rédactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intégrer l’IA au processus d’#apprentissage sans compromettre le développement des #compétences essentielles. Tout comme les calculatrices n’ont pas remplacé l’apprentissage des mathématiques, l’IA ne remplacera pas l’apprentissage de l’#écriture et de la #pensée_critique. Cela prendra peut-être du temps, mais nous y parviendrons », explique Mollick, toujours optimiste.

    Pourquoi faire des devoirs quand l’IA les rend obsolètes ?

    Mais l’impact de l’IA ne se limite pas à l’écriture, estime Mollick. Elle peut aussi être un vulgarisateur très efficace et #ChatGPT peut répondre à bien des questions. L’arrivée de l’IA remet en cause les méthodes d’enseignements traditionnelles que sont les #cours_magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succès escompté. « Les cours magistraux ont tendance à reposer sur un #apprentissage_passif, où les étudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la résolution de problèmes ni la pensée critique. Dans ce format, les étudiants peuvent avoir du mal à retenir l’information, car leur attention peut facilement faiblir lors de longues présentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des différences et des capacités individuelles, ce qui conduit certains étudiants à prendre du retard tandis que d’autres se désintéressent, faute de stimulation ». Mollick est plutôt partisan de l’#apprentissage_actif, qui supprime les cours magistraux et invite les étudiants à participer au processus d’apprentissage par le biais d’activités telles que la #résolution_de_problèmes, le #travail_de_groupe et les #exercices_pratiques. Dans cette approche, les étudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une méthode que plusieurs études valorisent comme plus efficaces, même si les étudiants ont aussi besoin d’enseignements initiaux appropriés.

    La solution pour intégrer davantage d’apprentissage actif passe par les #classes_inversées, où les étudiants doivent apprendre de nouveaux concepts à la maison (via des vidéos ou des ressources numériques) pour les appliquer ensuite en classe par le biais d’activités, de discussions ou d’exercices. Afin de maximiser le temps consacré à l’apprentissage actif et à la pensée critique, tout en utilisant l’apprentissage à domicile pour la transmission du contenu.

    Pourtant, reconnaît Mollick, l’apprentissage actif peine à s’imposer, notamment parce que les professeurs manquent de ressources de qualité et de matériel pédagogique inversé de qualité. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe où des tuteurs IA personnalisés viendraient accompagner les élèves, adaptant leur enseignement aux besoins des élèves tout en ajustant les contenus en fonction des performances des élèves, à la manière du manuel électronique décrit dans L’âge de diamant de Neal Stephenson, emblème du rêve de l’apprentissage personnalisé. Face aux difficultés, Mollick à tendance à toujours se concentrer « sur une vision positive pour nous aider à traverser les temps incertains à venir ». Pas sûr que cela suffise.

    Dans son article d’août 2023, Mollick estime que les élèves vont bien sûr utiliser l’IA pour tricher et vont l’intégrer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question à laquelle nous allons devoir répondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolètes ?

    Perturbation de l’écriture et de la #lecture

    Mollick rappelle que la dissertation est omniprésente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacité à raisonner et à structurer son #raisonnement. Le problème, c’est que les dissertations sont très faciles à générer avec l’IA générative. Les détecteurs de leur utilisation fonctionnent très mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans écrans, nous n’avons plus de moyens pour détecter si un travail est réalisé par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte à grignoter beaucoup de temps d’apprentissage.

    Mais pour Mollick, les écoles et les enseignants vont devoir réfléchir sérieusement à l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des références ou des explications ? Qu’est-ce qui peut-être autorisé et comment les utiliser ?

    Pour les étudiants du supérieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, à condition que les modalités d’utilisation et les consignes données soient précisées. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.

    Mollick rappelle qu’une autre activité éducative primordiale reste la lecture. « Qu’il s’agisse de rédiger des comptes rendus de lecture, de résumer des chapitres ou de réagir à des articles, toutes ces tâches reposent sur l’attente que les élèves assimilent la lecture et engagent un dialogue avec elle ». Or, l’IA est là encore très performante pour lire et résumer. Mollick suggère de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthèses… Pas sûr que la perspective apaise la panique morale qui se déverse dans la presse sur le fait que les étudiants ne lisent plus. Du New Yorker (« Les humanités survivront-elles à ChatGPT ? » ou « Est-ce que l’IA encourage vraiement les élèves à tricher ? ») à The Atlantic (« Les étudiants ne lisent plus de livres » ou « La génération Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les étudiants ne lisent plus c’est parce que les compétences ne sont plus valorisées nulles part), la perturbation que produit l’arrivée de ChatGPT dans les études se double d’une profonde chute de la lecture, qui semble être devenue d’autant plus inutile que les machines les rendent disponibles. Mêmes inquiétudes dans la presse de ce côté-ci de l’Atlantique, du Monde à Médiapart en passant par France Info…

    Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi très bien résoudre les problèmes et exercices de math comme de science.

    Pour Mollick, comme pour bien des thuriféraires de l’IA, c’est à l’école et à l’enseignement de s’adapter aux perturbations générées par l’IA, qu’importe si la société n’a pas demandé le déploiement de ces outils. D’ailleurs, soulignait-il très récemment, nous sommes déjà dans une éducation postapocalyptique. Selon une enquête de mai 2024, aux Etats-Unis 82 % des étudiants de premier cycle universitaire et 72 % des élèves de la maternelle à la terminale ont déjà utilisé l’IA. Une adoption extrêmement rapide. Même si les élèves ont beau dos de ne pas considérer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’être humain est doué pour trouver comment se soustraire ce qu’il ne souhaite pas faire et éviter l’#effort_mental. Et plus les #tâches_mentales sont difficiles, plus nous avons tendance à les éviter. Le problème, reconnaît Mollick, c’est que dans l’éducation, faire un #effort reste primordial.

    Dénis et illusions

    Pourtant, tout le monde semble être dans le #déni et l’#illusion. Les enseignants croient pouvoir détecter facilement l’utilisation de l’IA et donc être en mesure de fixer les barrières. Ils se trompent très largement. Une écriture d’IA bien stimulée est même jugée plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste à revenir à l’écriture en classe, ce qui nécessite du temps qu’ils n’ont pas nécessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

    Mais les élèves aussi sont dans l’illusion. « Ils ne réalisent pas réellement que demander de l’aide pour leurs devoirs compromet leur #apprentissage ». Après tout, ils reçoivent des conseils et des réponses de l’IA qui les aident à résoudre des problèmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les étudiants sont conscients que leur stratégie de devoirs diminue leur note à l’examen… ils en déduisent, de manière logique, que toute stratégie d’étude augmentant leur note à un devoir augmente également leur note à l’examen ». En fait, comme le montre une autre étude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux #examens ont tendance à baisser de 17% en moyenne quand les élèves sont laissés seuls avec l’outil (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4895486). Par contre, quand ils sont accompagnés pour comprendre comment l’utiliser comme #coach plutôt qu’outil de réponse, alors l’outil les aide à la fois à améliorer leurs notes aux devoirs comme à l’examen. Une autre étude, dans un cours de programmation intensif à Stanford, a montré que l’usage des chatbots améliorait plus que ne diminuait les notes aux examens.

    Une majorité de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, réfléchir à des idées, rafraîchir ses connaissances, obtenir un retour, des conseils… Mais c’est peut-être oublier de sa part, d’où il parle et combien son expertise lui permet d’avoir un usage très évolué de ces outils. Ce qui n’est pas le cas des élèves.
    Encourager la réflexion et non la remplacer

    Pour que les étudiants utilisent l’IA pour stimuler leur réflexion plutôt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-être va-t-il falloir nous intéresser aux professeurs, pour l’instant laissés bien dépourvus face à ces nouveaux outils.

    Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages américains, trois quart des enseignants utiliseraient désormais l’IA dans leur travail, mais nous connaissons encore trop peu les méthodes efficaces qu’ils doivent mobiliser. Une étude qualitative menée auprès d’eux a montré que ceux qui utilisaient l’IA pour aider leurs élèves à réfléchir, pour améliorer les explications obtenaient de meilleurs résultats. Pour Mollick, la force de l’IA est de pouvoir créer des expériences d’apprentissage personnalisées, adaptées aux élèves et largement accessibles, plus que les technologies éducatives précédentes ne l’ont jamais été. Cela n’empêche pas Mollick de conclure par le discours lénifiant habituel : l’éducation quoiqu’il en soit doit s’adapter !

    Cela ne veut pas dire que cette adaptation sera très facile ou accessible, pour les professeurs, comme pour les élèves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le résultat« . Or, l’IA fait à tous la promesse inverse. En matière d’éducation, cela risque d’être dramatique, surtout si nous continuons à valoriser le résultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre méritocratie actuelle. C’est peut-être par là qu’il faudrait d’ailleurs commencer, pour résoudre l’IApocalypse éducative…

    Pour Mollick cette évolution « exige plus qu’une acceptation passive ou une résistance futile ». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intégrante du paysage éducatif, nos priorités doivent évoluer. L’objectif n’est pas de déjouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour améliorer l’éducation tout en atténuant ses inconvénients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour créer un environnement d’apprentissage plus efficace, plus équitable et plus stimulant pour tous ». Plus facile à dire qu’à faire. Expérimenter prend du temps, trouver de bons exercices, changer ses pratiques… pour nombre de professeurs, ce n’est pas si évident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former. La proposition d’Anthropic de produire une IA dédiée à l’accompagnement des élèves (Claude for Education) qui ne cherche pas à fournir des réponses, mais produit des modalités pour accompagner les élèves à saisir les raisonnements qu’ils doivent échafauder, est certes stimulante, mais il n’est pas sûr qu’elle ne soit pas contournable.

    Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutôt comme Mollick et qui ont du temps pour s’occuper de leurs élèves, qui vont pouvoir faire des évaluations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supérieur en France, rapportait le Monde). Et les autres, plus circonspects sur les évolutions en cours, où de plus en plus souvent des élèves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA… On voit bien en tout cas, que la question de l’IA générative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des élèves, à charge à eux de s’en débrouiller.

    https://danslesalgorithmes.net/2025/06/24/ia-et-education-1-2-plongee-dans-liapocalypse-educative
    #AI #intelligence_artificielle
    #à_lire

    • IA et éducation (2/2) : du #dilemme_moral au malaise social

      Encourager les élèves à un usage responsable de l’IA semble plus facile à dire qu’à faire. Notamment parce que l’IA place la déqualification au coeur même de l’apprentissage. Derrière la question morale de la triche, il faut surtout observer le malaise social à l’oeuvre. L’IA n’est certainement pas le grand égalisateur qu’on pense.

      La bataille éducative est-elle perdue ?

      Une grande enquête de 404 media montre qu’à l’arrivée de ChatGPT, les écoles publiques américaines étaient totalement démunies face à l’adoption généralisée de ChatGPT par les élèves. Le problème est d’ailleurs loin d’être résolu. Le New York Mag a récemment publié un article qui se désole de la triche généralisée qu’ont introduit les IA génératives à l’école. De partout, les élèves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, résumer des livres ou des articles, planifier et rédiger leurs essais, résoudre les exercices qui leurs sont demandés. Le plafond de la triche a été pulvérisé, explique un étudiant. “Un nombre considérable d’étudiants sortiront diplômés de l’université et entreront sur le marché du travail en étant essentiellement analphabètes”, se désole un professeur qui constate le court-circuitage du processus même d’apprentissage. La triche semblait pourtant déjà avoir atteint son apogée, avant l’arrivée de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des réponses à toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grâce aux 150 000 experts diplômés de l’enseignement supérieur qu’elle employait, principalement en Inde”.

      Chaque école a proposé sa politique face à ces nouveaux outils, certains prônant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, à condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux élèves de détailler la manière dont ils l’ont utilisé. Mais cela ne dessine pas nécessairement de limites claires à leurs usages. L’article souligne que si les professeurs se croient doués pour détecter les écrits générés par l’IA, des études ont démontré qu’ils ne le sont pas. L’une d’elles, publiée en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entièrement générés par l’IA dans les piles de correction des professeurs d’une université britannique. Les professeurs n’ont pas signalé 97 % des essais génératifs. En fait, souligne l’article, les professeurs ont plutôt abandonné l’idée de pouvoir détecter le fait que les devoirs soient rédigés par des IA. “De nombreux enseignants semblent désormais désespérés”. “Ce n’est pas ce pour quoi nous nous sommes engagés”, explique l’un d’entre eux. La prise de contrôle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. Désormais, les élèves ne tentent même plus de se battre contre eux-mêmes. Ils se replient sur la facilité. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs.

      L’IA a mis à jour les défaillances du système éducatif. Bien sûr, l’idéal de l’université et de l’école comme lieu de développement intellectuel, où les étudiants abordent des idées profondes a disparu depuis longtemps. La perspective que les IA des professeurs évaluent désormais les travaux produits par les IA des élèves, finit de réduire l’absurdité de la situation, en laissant chacun sans plus rien à apprendre. Plusieurs études (comme celle de chercheurs de Microsoft) ont établi un lien entre l’utilisation de l’IA et une détérioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA générative compromet déjà la créativité et l’intelligence. “La bataille est perdue”, se désole un autre professeur.

      Reste à savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquête pour le New Yorker, le journaliste Hua Hsu constate que tous les étudiants qu’il a interrogé pour comprendre leur usage de l’IA ont commencé par l’utiliser pour se donner des idées, en promettant de veiller à un usage responsable et ont très vite basculé vers des usages peu modérés, au détriment de leur réflexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des étudiants, Anthropic a montré que la moitié des interactions des étudiants avec son outil serait extractive, c’est-à-dire servent à produire des contenus. 404 media est allé discuter avec les participants de groupes de soutien en ligne de gens qui se déclarent comme “dépendants à l’IA”. Rien n’est plus simple que de devenir accro à un chatbot, confient des utilisateurs de tout âge. OpenAI en est conscient, comme le pointait une étude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remèdes.

      Comment apprendre aux enfants à faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en éducation à la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA améliore-t-elle l’éducation ou la remplace-t-elle ? “Chaque année, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le résultat d’un cours est constitué de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expérience étudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la réflexion de l’élève”. “L’utilité des devoirs écrits repose sur deux hypothèses : la première est que pour écrire sur un sujet, l’élève doit comprendre le sujet et organiser ses pensées. La seconde est que noter les écrits d’un élève revient à évaluer l’effort et la réflexion qui y ont été consacrés”. Avec l’IA générative, la logique de cette proposition, qui semblait pourtant à jamais inébranlable, s’est complètement effondrée.

      Pour Shirky, il ne fait pas de doute que l’IA générative peut être utile à l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les étudiants peuvent rédiger un devoir et demander des commentaires, voir à quoi ressemble une réécriture à différents niveaux de lecture, ou encore demander un résumé pour vérifier la clarté”… “Mais le fait que l’IA puisse aider les étudiants à apprendre ne garantit pas qu’elle le fera”. Pour le grand théoricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant à apprendre”. “Face à l’IA générative dans nos salles de classe, la réponse évidente est d’inciter les étudiants à adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations néfastes. Notre problème est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se désole-t-il. Les étudiants eux aussi sont déboussolés et finissent par se demander où l’utilisation de l’IA les mène. Shirky fait son mea culpa. L’utilisation engagée de l’IA conduit à son utilisation paresseuse. Nous ne savons pas composer avec les difficultés. Mais c’était déjà le cas avant ChatGPT. Les étudiants déclarent régulièrement apprendre davantage grâce à des cours magistraux bien présentés qu’avec un apprentissage plus actif, alors que de nombreuses études démontrent l’inverse. “Un outil qui améliore le rendement mais dégrade l’expérience est un mauvais compromis”.

      C’est le sens même de l’éducation qui est en train d’être perdu. Le New York Times revenait récemment sur le fait que certaines écoles interdisent aux élèves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une étude auprès de 1800 enseignants de l’enseignement supérieur, 18 % déclaraient utiliser fréquemment ces outils pour faire leur cours, l’année dernière – un chiffre qui aurait doublé depuis. Les étudiants ne lisent plus ce qu’ils écrivent et les professeurs non plus. Si les profs sont prompts à critiquer l’usage de l’IA par leurs élèves, nombre d’entre eux l’apprécient pour eux-mêmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les élèves, répondent MagicSchool et Brisk Teaching qui proposent déjà des produits d’IA qui fournissent un retour instantané sur les écrits des élèves. L’Etat du Texas a signé un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisée des écrits des élèves.

      Pour Jason Koebler de 404 media : “la société dans son ensemble n’a pas très bien résisté à l’IA générative, car les grandes entreprises technologiques s’obstinent à nous l’imposer. Il est donc très difficile pour un système scolaire public sous-financé de contrôler son utilisation”. Pourtant, peu après le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel à des consultants pro-IA pour produire des formations et des présentations “encourageant largement les enseignants à utiliser l’IA générative en classe”, mais “aucun n’anticipait des situations aussi extrêmes que celles décrites dans l’article du New York Mag, ni aussi problématiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains élèves désormais sont totalement dépendants de ChatGPT”. Les documents rassemblés par 404media montrent surtout que les services d’éducation américains ont tardé à réagir et à proposer des perspectives aux enseignants sur le terrain.

      Dans un autre article de 404 media, Koebler a demandé à des professeurs américains d’expliquer ce que l’IA a changé à leur travail. Les innombrables témoignages recueillis montrent que les professeurs ne sont pas restés les bras ballants, même s’ils se sentent très dépourvus face à l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures à corriger des devoirs que les élèves mettent quelques secondes à produire. Tous dressent un constat similaire fait d’incohérences, de confusions, de démoralisations, entre préoccupations et exaspérations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectées ? “Je ne veux pas que les étudiants qui n’utilisent pas de LLM soient désavantagés. Et je ne veux pas donner de bonnes notes à des étudiants qui ne font pratiquement rien”, témoigne un prof. Beaucoup ont désormais recours à l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passés de la curiosité au rejet catégorique de ces outils. Beaucoup pointent que leur métier est plus difficile que jamais. “ChatGPT n’est pas un problème isolé. C’est le symptôme d’un paradigme culturel totalitaire où la consommation passive et la régurgitation de contenu deviennent le statu quo.”
      L’IA place la déqualification au coeur de l’apprentissage

      Nicholas Carr, qui vient de faire paraître Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la véritable menace que représente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle décourage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour réaliser une tâche, soit leurs compétences augmentent, soit elles s’atrophient, soit elles ne se développent jamais. C’est la piste qu’il avait d’ailleurs exploré dans Remplacer l’humain (L’échapée, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrètement les métiers, des architectes aux pilotes d’avions). “Si un travailleur maîtrise déjà l’activité à automatiser, la machine peut l’aider à développer ses compétences” et relever des défis plus complexes. Dans les mains d’un mathématicien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compétence exige une pratique fréquente, combinant dextérité manuelle et mentale, alors l’automatisation peut menacer le talent même de l’expert. C’est le cas des pilotes d’avion confrontés aux systèmes de pilotage automatique qui connaissent un “affaissement des compétences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tâche avant que la personne qui l’utilise n’ait acquis l’expérience de la tâche en question. “C’est l’histoire du phénomène de « déqualification » du début de la révolution industrielle. Les artisans qualifiés ont été remplacés par des opérateurs de machines non qualifiés. Le travail s’est accéléré, mais la seule compétence acquise par ces opérateurs était celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compétence. Supprimez la machine, et le travail s’arrête”.

      Bien évidemment que les élèves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une très épaisse étude du MIT (synthétisée par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutôt que le calcul mental vont moins se souvenir des opérations qu’ils ont effectuées. Mais le problème est surtout que ceux qui les utilisent sont moins méfiants de leurs résultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement à ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problème de l’usage des LLM à l’école, c’est à la fois qu’il empêche d’apprendre à faire, mais plus encore que leur usage nécessite des compétences pour les évaluer.

      L’IA générative étant une technologie polyvalente permettant d’automatiser toutes sortes de tâches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scénarios de compétences dans les années à venir, estime Carr. Mais l’utilisation de l’IA par les lycéens et les étudiants pour réaliser des travaux écrits, pour faciliter ou éviter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de déqualification au cœur de l’éducation. Automatiser l’apprentissage revient à le subvertir”.

      En éducation, plus vous effectuez de recherches, plus vous vous améliorez en recherche, et plus vous rédigez d’articles, plus vous améliorez votre rédaction. “Cependant, la valeur pédagogique d’un devoir d’écriture ne réside pas dans le produit tangible du travail – le devoir rendu à la fin du devoir. Elle réside dans le travail lui-même : la lecture critique des sources, la synthèse des preuves et des idées, la formulation d’une thèse et d’un argument, et l’expression de la pensée dans un texte cohérent. Le devoir est un indicateur que l’enseignant utilise pour évaluer la réussite du travail de l’étudiant – le travail d’apprentissage. Une fois noté et rendu à l’étudiant, le devoir peut être jeté”.

      L’IA générative permet aux étudiants de produire le produit sans effectuer le travail. Le travail remis par un étudiant ne témoigne plus du travail d’apprentissage qu’il a nécessité. “Il s’y substitue ». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les étudiants ont toujours cherché des raccourcis bien sûr, mais l’IA générative est différente, pas son ampleur, par sa nature. “Sa rapidité, sa simplicité d’utilisation, sa flexibilité et, surtout, sa large adoption dans la société rendent normal, voire nécessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. Grâce à l’IA générative, un élève médiocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe très justement Carr, “la conséquence ironique de cette perte d’apprentissage est qu’elle empêche les élèves d’utiliser l’IA avec habileté. Rédiger une bonne consigne, un prompt efficace, nécessite une compréhension du sujet abordé. Le dispensateur doit connaître le contexte de la consigne. Le développement de cette compréhension est précisément ce que la dépendance à l’IA entrave”. “L’effet de déqualification de l’outil s’étend à son utilisation”. Pour Carr, “nous sommes obnubilés par la façon dont les étudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous préoccuper davantage, c’est la façon dont l’IA trompe les étudiants”.

      Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant à avancer !
      Passer du malaise moral au malaise social !

      Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), révélateur, comme le souligne l’obsession sur la « triche » des élèves. Mais plus qu’un dilemme moral, peut-être faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (première et seconde partie).

      Pour Benbouzid, l’IA générative à l’université ébranle les fondements de « l’auctorialité », c’est-à-dire qu’elle modifie la position d’auteur et ses repères normatifs et déontologiques. Dans le monde de l’enseignement supérieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a été « perçu » très tôt comme une transgression morale. Très tôt, les utiliser a été associé à de la triche, d’autant qu’on ne peut pas les citer, contrairement à tout autre matériel écrit.

      Face à leur statut ambiguë, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel légitime à fournir pour ses études ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la première partie de ce dossier ? Comment contrôler et s’assurer d’une utilisation active et éthique et non pas passive et moralement condamnable ?

      Pour Benbouzid, il se joue une réflexion éthique sur le rapport à soi qui nécessite d’être authentique. Mais peut-on être authentique lorsqu’on se construit, interroge le sociologue, en évoquant le fait que les étudiants doivent d’abord acquérir des compétences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour résumer ou copier. Pour Benbouzid, comme pour Mollick, bien employée, elle peut-être un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais réelle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacité de persuasion de ces machines sur ceux qui les utilisent.

      Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donné lieu à un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (même si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indéchiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce déplacement, s’il est intéressant (et peut-être peu adapté à l’IA générative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA génératives qui bousculent le cadre ancien de régulation des textes académiques. Reste que l’auteur d’un texte doit toujours en répondre, rappelle Benbouzid, et c’est désormais bien plus le cas des étudiants qui utilisent l’IA que de ceux qui déploient ces systèmes d’IA. L’autonomie qu’on attend d’eux est à la fois un idéal éducatif et une obligation morale envers soi-même, permettant de développer ses propres capacités de réflexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compétence instrumentale. Il devient un acte de formation éthique ». Le problème, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalité morale de l’éducation n’est pas la même que celle qui permet à un étudiant de décider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les étudiants ont donc obligation morale de ne pas utiliser ChatGPT, car écrire soi-même ses textes est essentiel à la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilité envers soi-même où écrire par soi-même n’est pas seulement une tâche scolaire, mais également un moyen d’assurer sa dignité morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanité en soi. »

      Pour Benbouzid, les contradictions de ces deux dilemmes résument bien le choix cornélien des étudiants et des enseignants. Elle leur impose une liberté de ne pas utiliser. Mais cette liberté de ne pas utiliser, elle, ne relève-t-elle pas d’abord et avant tout d’un jugement social ?
      L’IA générative ne sera pas le grand égalisateur social !

      C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui à recours à l’IA et pourquoi, le sociologue permet d’entrouvrir une autre réponse que la réponse morale. Ceux qui promeuvent l’usage de l’IA pour les étudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une égaliseur de chances, permettant de réduire les différences cognitives entre les élèves. C’est là une référence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expérience, permet la montée en compétence accélérée des travailleurs et réduit les écarts de compétence des travailleurs (une théorie qui a été en partie critiquée, notamment parce que ces avantages sont compensés par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontés à une homogénéisation des performances d’écritures ? N’assiste-t-on pas plutôt à un renforcement des inégalités entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA générative et les moins pourvus socialement ?

      Pour John Danaher, l’IA générative pourrait redéfinir pas moins que l’égalité, puisque les compétences traditionnelles (rédaction, programmation, analyses…) permettraient aux moins dotés d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalité soit alors reléguée au second plan : « d’autres valeurs comme l’efficacité économique ou la liberté individuelle prendraient le dessus, entraînant une acceptation accrue des inégalités. L’efficacité économique pourrait être mise en avant si l’IA permet une forte augmentation de la productivité et de la richesse globale, même si cette richesse est inégalement répartie. Dans ce scénario, plutôt que de chercher à garantir une répartition équitable des ressources, la société pourrait accepter des écarts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inégalité sous prétexte que la technologie génère globalement des bénéfices pour tous, même si ces bénéfices ne sont pas partagés de manière égale. De la même manière, la liberté individuelle pourrait être privilégiée si l’IA permet à chacun d’accéder à des outils puissants qui augmentent ses capacités, mais sans garantir que tout le monde en bénéficie de manière équivalente. Certains pourraient considérer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, même si cela crée de nouvelles hiérarchies basées sur l’usage différencié de l’IA ». Pour Danaher comme pour Benbouzid, l’intégration de l’IA dans l’enseignement doit poser la question de ses conséquences sociales !

      Les LLM ne produisent pas un langage neutre mais tendent à reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisés », rappelle Bilel Benbouzid. Une étude comparant les lettres de motivation d’étudiants avec des textes produits par des IA génératives montre que ces dernières correspondent surtout à des productions de CSP+. Pour Benbouzid, le risque est que la délégation de l’écriture à ces machines renforce les hiérarchies existantes plus qu’elles ne les distribue. D’où l’enjeu d’une enquête en cours pour comprendre l’usage de l’IA générative des étudiants et leur rapport social au langage.

      Les premiers résultats de cette enquête montrent par exemple que les étudiants rechignent à copier-collé directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les étudiants comparent souvent ChatGPT à l’aide parentale. On comprend que la légitimité ne réside pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximité culturelle qui la rend acceptable, voire valorisante, là où l’assistance algorithmique est perçue comme une rupture avec le niveau académique et leur propre maîtrise de la langue ». Et effectivement, la perception de l’apport des LLM dépend du capital culturel des étudiants. Pour les plus dotés, ChatGPT est un outil utilitaire, limité voire vulgaire, qui standardise le langage. Pour les moins dotés, il leur permet d’accéder à des éléments de langages valorisés et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement.

      Dans ce rapport aux outils de génération, pointe un rapport social à la langue, à l’écriture, à l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problème moral qu’un dilemme social. « Ces pratiques, loin d’être homogènes, traduisent une appropriation différenciée de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social à l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la manière dont les étudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiérarchies culturelles et sociales de l’université. » En fait, les étudiants utilisent les outils non pas pour se dépasser, comme l’estime Mollick, mais pour produire un contenu socialement légitime. « En déléguant systématiquement leurs compétences de lecture, d’analyse et d’écriture à ces modèles, les étudiants peuvent contourner les processus essentiels d’intériorisation et d’adaptation aux normes discursives et épistémologiques propres à chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de développer authentiquement son propre capital culturel académique, substitué par un habitus dominant produit artificiellement par l’IA. »

      L’apparence d’égalité instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inégalité structurelle accrue. Les outils creusant l’écart entre des étudiants qui ont déjà internalisé les normes dominantes et ceux qui les singent. Le fait que les textes générés manquent d’originalité et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les étudiants égaux face à ces outils. D’un côté, les grandes écoles renforcent les compétences orales et renforcent leurs exigences d’originalité face à ces outils. De l’autre, d’autres devront y avoir recours par nécessité. « Pour les mieux établis, l’IA représentera un outil optionnel d’optimisation ; pour les plus précaires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, même si l’IA profitera relativement davantage aux moins qualifiés, cette amélioration pourrait simultanément accentuer une forme de dépendance technologique parmi les populations les plus défavorisées, creusant encore le fossé avec les élites, mieux armées pour exercer un discernement critique face aux contenus générés par les machines ».

      Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une manière égale. On le constate très bien ailleurs. Le fait d’être capable de rédiger un courrier administratif est loin d’être partagé. Si ces outils améliorent les courriers des moins dotés socialement, ils ne renversent en rien les différences sociales. C’est le même constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maîtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mémétiques et les utilisateurs productifs. Ces outils, qui se présentent comme des outils qui seraient capables de dépasser les inégalités sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter à chacun, il semble que l’IA donne des superpouvoirs d’apprentissage à ceux qui maîtrisent leurs apprentissages, plus qu’aux autres.
      L’IApocalypse scolaire, coincée dans le droit

      Les questions de l’usage de l’IA à l’école que nous avons tenté de dérouler dans ce dossier montrent l’enjeu à débattre d’une politique publique d’usage de l’IA générative à l’école, du primaire au supérieur. Mais, comme le montre notre enquête, toute la communauté éducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiée à François Taddéi et Sarah Cohen-Boulakia sur les pratiques pédagogiques de l’IA dans l’enseignement supérieur, rapportait le Monde.

      Un premier cadre d’usage de l’IA à l’école vient pourtant d’être publié par le ministère de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout à la hauteur des enjeux. Le document consiste surtout en un rappel des règles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA générative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux élèves d’utiliser des services d’IA grand public impliquant la création d’un compte personnel » rappelle le document. La note recommande également de ne pas utiliser l’IA générative avec les élèves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle générative pour réaliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation à partir des contenus produits, constitue une fraude ». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’être un cadre de développement ouvert à l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer à produire du déni, tentant de rappeler des règles sur des usages qui les débordent déjà très largement.

      Sur Linked-in, Yann Houry, prof dans un Institut privé suisse, était très heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de légalité et de confidentialité, les professeurs ne devraient pas utiliser les services d’IA génératives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les élèves peut-être classée comme un usage à haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de désaccord sur une évaluation, sans compter que le professeur doit également être transparent sur ce qu’il utilise pour rester en conformité et l’inscrire au registre des traitements. Bref, d’un côté comme de l’autre, tant du côté des élèves qui sont renvoyé à la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, très contraint, pour ne pas dire impossible.

      D’autres cadres et rapports ont été publiés. comme celui de l’inspection générale, du Sénat ou de la Commission européenne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement à l’IA devrait être, plus que de donner un cadre aux débordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste à construire, avec les professeurs… et avec les élèves.

      Hubert Guillaud

      MAJ du 02/09/2025 : Le rapport de François Taddei sur l’IA dans l’enseignement supérieur a été publié. Et, contrairement à ce qu’on aurait pu en attendre, il ne répond pas à la question des limites de l’usage de l’IA dans l’enseignement supérieur.

      Le rapport est pourtant disert. Il recommande de mutualiser les capacités de calculs, les contenus et les bonnes pratiques, notamment via une plateforme de mutualisation. Il recommande de développer la formation des étudiants comme des personnels et bien sûr de repenser les modalités d’évaluation, mais sans proposer de pistes concrètes. « L’IA doit notamment contribuer à rendre les établissements plus inclusifs, renforcer la démocratie universitaire, et développer un nouveau modèle d’enseignement qui redéfinisse le rôle de l’enseignant et des étudiants », rappelle l’auteur de Apprendre au XXIe siècle (Calmann-Levy, 2018) qui militait déjà pour transformer l’institution. Il recommande enfin de développer des data centers dédiés, orientés enseignement et des solutions techniques souveraines et invite le ministère de l’enseignement supérieur à se doter d’une politique nationale d’adoption de l’IA autour d’un Institut national IA, éducation et société.

      Le rapport embarque une enquête quantitative sur l’usage de l’IA par les étudiants, les professeurs et les personnels administratifs. Si le rapport estime que l’usage de l’IA doit être encouragé, il souligne néanmoins que son développement « doit être accompagné de réflexions collectives sur les usages et ses effets sur l’organisation du travail, les processus et l’évolution des compétences », mais sans vraiment faire de propositions spécifiques autres que citer certaines déjà mises en place nombre de professeurs. Ainsi, sur l’évolution des pratiques, le rapport recense les évolutions, notamment le développement d’examens oraux, mais en pointe les limites en termes de coûts et d’organisation, sans compter, bien sûr, qu’ils ne permettent pas d’évaluer les capacités d’écriture des élèves. « La mission considère que l’IA pourrait donner l’opportunité de redéfinir les modèles d’enseignement, en réinterrogeant le rôle de chacun. Plusieurs pistes sont possibles : associer les étudiants à la définition des objectifs des enseignements, responsabiliser les étudiants sur les apprentissages, mettre en situation professionnelle, développer davantage les modes projet, développer la résolution de problèmes complexes, associer les étudiants à l’organisation d’événements ou de travaux de recherche, etc. Le principal avantage de cette évolution est qu’elle peut permettre de renforcer l’engagement des étudiants dans les apprentissages car ils sont plus impliqués quand ils peuvent contribuer aux choix des sujets abordés. Ils prendront aussi conscience des enjeux pour leur vie professionnelle des matières enseignées. Une telle évolution pourrait renforcer de ce fait la qualité des apprentissages. Elle permettrait aussi de proposer davantage d’horizontalité dans les échanges, ce qui est attendu par les étudiants et qui reflète aussi davantage le fonctionnement par projet, mode d’organisation auquel ils seront fréquemment confrontés ». Pour répondre au défi de l’IA, la mission Taddeï propose donc de « sortir d’une transmission descendante » au profit d’un apprentissage plus collaboratif, comme François Taddéi l’a toujours proposé, mais sans proposer de norme pour structurer les rapports à l’IA.

      Le rapport recommande d’ailleurs de favoriser l’usage de l’IA dans l’administration scolaire et d’utiliser le « broad listening« , l’écoute et la consultation des jeunes pour améliorer la démocratie universitaire… Une proposition qui pourrait être stimulante si nous n’étions pas plutôt confronter à son exact inverse : le broad listening semble plutôt mobilisé pour réprimer les propos étudiants que le contraire… Enfin, le rapport insiste particulièrement sur l’usage de l’IA pour personnaliser l’orientation et être un tuteur d’études. La dernière partie du rapport constate les besoins de formation et les besoins d’outils mutualisés, libres et ouverts : deux aspects qui nécessiteront des financements et projets adaptés.

      Ce rapport très pro-IA ne répond pas vraiment à la difficulté de l’évaluation et de l’enseignement à l’heure où les élèves peuvent utiliser l’IA pour leurs écrits.

      Signalons qu’un autre rapport a été publié concomitamment, celui de l’Inspection générale de l’éducation, du sport et de la recherche (IGERS) qui insiste également sur le besoin de coordination et de mutualisation.

      Pour l’instant, l’une des propositions la plus pratico-pratique que l’on a vu passer sont assurément les résultats de la convention « citoyenne » de Sciences-Po Aix sur l’usage de l’IA générative, formulant 7 propositions. La convention recommande que les étudiants déclarent l’usage de l’IA, pour préciser le niveau d’intervention qui a été fait, le modèle utilisé et les instructions données, sur le modèle de celles utilisées par l’université de Sherbrooke. L’avis recommande aussi la coordination des équipes pédagogiques afin d’harmoniser les pratiques, pour donner un cadre cohérent aux étudiants et bâtir une réflexion collective. La 3e proposition consiste à améliorer l’enquête sur les pratiques via des formulaires réguliers pour mieux saisir les niveaux d’usages des élèves. La 4e proposition propose de ne pas autoriser l’IA générative pour les étudiants en première et seconde année, afin de leur permettre d’acquérir un socle de connaissances. La 5e proposition propose que les enseignants indiquent clairement si l’usage est autorisé ou non et selon quelles modalités, sur le modèle que propose, là encore, l’université de Sherbrooke. La 6e proposition propose d’améliorer la formation aux outils d’IA. La 7e propose d’organiser des ateliers de sensibilisation aux dimensions environnementales et sociales des IA génératives, intégrés à la formation. Comme le montrent nombre de chartes de l’IA dans l’éducation, celle-ci propose surtout un plus fort cadrage des usages que le contraire.

      En tout cas, le sujet agite la réflexion. Dans une tribune pour le Monde, le sociologue Manuel Cervera-Marzal estime que plutôt que d’ériger des interdits inapplicables en matière d’intelligence artificielle, les enseignants doivent réinventer les manières d’enseigner et d’évaluer, explique-t-il en explicitant ses propres pratiques. Même constat dans une autre tribune pour le professeur et écrivain Maxime Abolgassemi.

      Dans une tribune pour le Club de Mediapart, Céline Cael et Laurent Reynaud, auteurs de Et si on imaginait l’école de demain ? (Retz, 2025) reviennent sur les annonces toutes récentes de la ministre de l’éducation, Elisabeth Borne, de mettre en place une IA pour les professeurs “pour les accompagner dans leurs métiers et les aider à préparer leurs cours” (un appel d’offres a d’ailleurs été publié en janvier 2025 pour sélectionner un candidat). Des modules de formation seront proposés aux élèves du secondaire et un chatbot sera mis en place pour répondre aux questions administratives et réglementaires des personnels de l’Éducation nationale, a-t-elle également annoncé. Pour les deux enseignants, “l’introduction massive du numérique, et de l’IA par extension, dans le quotidien du métier d’enseignant semble bien plus souvent conduire à un appauvrissement du métier d’enseignant plutôt qu’à son optimisation”. “L’IA ne saurait être la solution miracle à tous les défis de l’éducation”, rappellent-ils. Les urgences ne sont pas là.

      Selon le bulletin officiel de l’éducation nationale qui a publié en juillet un cadre pour un usage raisonné du numérique à l’école, la question de l’IA « doit être conduite au sein des instances de démocratie scolaire », afin de nourrir le projet d’établissement. Bref, la question du cadrage des pratiques est pour l’instant renvoyée à un nécessaire débat de société à mener.

      MAJ du 01/10/2025 : A la suite d’Anthropic, OpenAI vient de publier une version de son chatbot pour étudiants. Ce “mode étude” consiste à doter ChatGPT “d’un nouveau filtre de conversation qui régule simplement la manière dont il répond aux élèves, encourageant moins de réponses et plus d’explications”. Plutôt que de donner des réponses, le robot tente d’expliquer le sujet et de renvoyer les étudiants à leurs propres efforts. Pourtant, rappelle la Technology Review, cela ne signifie pas que le système ne produise pas d’erreurs, au contraire. Il peut finalement apprendre à aborder des problèmes de manière erronée et produire des explications totalement fausses. Enfin, il n’empêchera pas les étudiants d’exiger du moteur de produire des réponses plutôt que de simplement les accompagner dans leur compréhension. Le mode tutorat lancé par les grandes entreprises de l’IA vise surtout à décrocher des marchés avec le secteur éducatif et fait la promesse que le tutorat personnalisé serait finalement un secteur où l’on pourrait considérablement réduire le coût humain.

      https://danslesalgorithmes.net/2025/07/01/ia-et-education-2-2-du-dilemme-moral-au-malaise-social

  • #IA et #travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés

    Nous voici plongés dans un « #Taylorisme_augmenté », estime le sociologue #Juan_Sebastian_Carbonell, dont le but premier est de permettre au #management de prendre le contrôle du travail. Lecture.

    Derrière le déploiement de l’IA dans les entreprises, une bataille des places est en cours. Dans le New York Times, le journaliste Noam Scheiber avait posé la question : « quels salariés vont être pénalisés par l’IA, les plus inexpérimentés ou les plus expérimentés ? » (https://www.nytimes.com/2025/07/07/business/ai-job-cuts.html) Sa conclusion montrait que c’était peut-être les travailleurs intermédiaires qui seraient les plus menacés (https://hubtr.bonjour.cafeia.org/mirror201/2349/1990). En réalité, pour l’instant, « l’alarme sur la destruction de l’#emploi liée à l’IA n’a pas lieu d’être », expliquait Ekkehard Ernst, qui dirige l’observatoire sur l’IA et le travail dans l’économie numérique de l’OIT (https://www.ilo.org/fr/artificial-intelligence-and-work-digital-economy), qui rappelait combien le chômage technologique a toujours été rare. Cela n’empêche pas les inquiétudes d’être au plus haut, d’abord et avant tout, disions-nous, parce que la discussion sur le partage des fruits du déploiement de l’IA n’a pas lieu.

    Dans son précédent livre, Le Futur du travail (éditions Amsterdam, 2022, https://www.editionsamsterdam.fr/le-futur-du-travail), le sociologue Juan Sebastian Carbonell nous expliquait déjà que le futur du travail n’était pas notre « #grand_remplacement » par les machines, mais notre #prolétarisation (https://hubertguillaud.wordpress.com/2022/07/05/le-futur-de-travail-intensification-extension-proletarisat). Il y décrivait déjà une « taylorisation assistée par ordinateurs » qui vise bien plus à « intensifier le travail, déqualifier les salariés, les discipliner et les surveiller ». Les robots ne travaillent pas à notre place mais nous imposent une intensification nouvelle, à l’image des employés de la logistique soumis aux rythmes de la commande vocale.
    Un taylorisme sous stéroïdes…

    Son nouveau livre, Un taylorisme augmenté : critique de l’intelligence artificielle (éditions Amsterdam, 2025) nous explique que l’IA n’est « ni une solution miracle aux problèmes de la société, ni Prométhée déchaîné », elle n’est qu’un taylorisme augmenté qui élude les questions de fonds que sont les conditions de travail, son organisation et la distribution du pouvoir. Le chercheur rappelle qu’il n’y a pas de consensus quant aux effets de l’IA sur le travail. Pour les uns, elle augmente les besoins de qualifications de ceux qui vont les utiliser, pour les autres, l’IA produit surtout une polarisation des emplois. Pour Carbonell, l’IA n’est ni l’un ni l’autre. Elle est d’abord un outil de dégradation du travail.

    Pour le chercheur, il n’y a pas de polarisation homogène des emplois, c’est-à-dire le fait que les métiers intermédiaires et routiniers auraient tendance à disparaître au profit de métiers très qualifiés d’un côté et des métiers peu qualifiés et non routiniers de l’autre. Si ce phénomène s’observe parfois, les profils des emplois changent surtout au sein de mêmes métiers. Cela signifie qu’il faut non seulement prendre en compte les tâches, mais également l’organisation du travail. La distinction entre tâches routinières et non routinières est souvent caricaturée dans un discours qui dit que l’IA ferait disparaître les tâches répétitives pour nous en libérer. Ce n’est pas ce que constatent les employés de la logistique ou de la traduction, au contraire. Ce n’est plus ce que constatent également les codeurs, victimes désormais de la « Prompt fatigue », épuisés par l’usage de l’IA générative, rapporte Le Monde informatique… Certains qualifiant déjà le recours à ces outils « d’illusion de rapidité ».

    « Le degré de routine ne fait pas tout », rappelle le sociologue. Il est nécessaire de prendre en compte, les « stratégies de profit » des entreprises et leur volonté à automatiser le travail. Enfin, la variété des produits, des composants et processus déterminent également la possibilité d’automatiser ou pas une production. « Une même technologie peut donc avoir des effets très différents sur le travail ». Des métiers hautement qualifiés, peu routiniers et hautement cognitifs peuvent ainsi être déstabilisés par l’IA, comme s’en inquiétait l’artiste Aurélie Crop sur son compte Instagram, en observant les possibilités du nouveau service d’IA de Google, Nano Banana, ou encore les scénaristes de cinéma associés face aux annonces d’OpenAI de produire un film d’animation entièrement génératif. Ces métiers ne vont pas disparaître, mais vont être taylorisés, c’est-à-dire « simplifiés, standardisés ou parcellisés ». C’est-à-dire précarisés pour en réduire le coût et augmenter les profits. Car ce qui demeure déterminant dans le choix technologique au travail, c’est le contrôle, « c’est-à-dire le pouvoir de décider comment on travaille et avec quels outils ».
    … non pas guidé par l’efficacité technique mais par la prise de contrôle du management

    Carbonell revient bien sûr sur l’émergence du taylorisme à la fin du XIXe siècle, rappelant combien il est lié à la vague d’immigration américaine, à l’entrée à l’usine d’ouvriers sans qualification, venant remplacer le long apprentissage des ouvriers spécialisés. L’objectif premier de Taylor était de « briser l’ouvrier de métier » pour y imposer la norme patronale c’est-à-dire contrôler le rythme et la façon de travailler. Le taylorisme a souvent été réduit à la chaîne de montage que Taylor n’a pourtant pas connu. Pour l’économiste Harry Braverman, le taylorisme consiste à dissocier le processus de travail en le décomposant, à séparer la conception de l’exécution et enfin à utiliser le monopole de l’organisation du travail pour contrôler chaque étape du processus et de son exécution. Parcelliser chaque métier abaisse le coût de chaque tâche, expliquait l’économiste américain. Ce taylorisme-là n’est pas mort avec Taylor, explique Carbonell, il se confond désormais avec l’organisation du travail elle-même. L’informatique, le numérique, puis l’IA aujourd’hui, sont surtout venus le renforcer.

    Les machines rythment et contrôlent les décisions venues de la direction afin d’améliorer la productivité du travail. L’introduction des machines-outils à commande numérique après la Seconde Guerre mondiale va permettre de transférer les compétences des ouvriers à la direction en pilotant toujours plus finement et en standardisant l’usinage. Mais leur adoption ne repose pas sur le seul critère de l’efficacité technique, rappelle le sociologue, elle est d’abord le résultat de choix politiques, « notamment la volonté de retirer le contrôle du processus de travail aux tourneurs-fraiseurs ». « Une technologie s’impose surtout en raison de la supériorité des acteurs qui la promeuvent ». Pour Juan Sebastian Carbonell, le progrès technique ne s’impose pas de lui-même, sous couvert d’une efficacité immanente, mais répond d’abord d’enjeux politiques au profit de ceux qui le déploient. Le taylorisme augmenté n’a cessé de s’imposer depuis, par exemple avec les centres d’appels, avec l’invention de systèmes capables de distribuer les appels, complétés de scripts et de procédures extrêmement standardisées et des modalités capables de surveiller les échanges. Et l’IA ne fait rien pour arranger cela, au contraire. Ils sont désormais confrontés à « la tornade de l’intelligence artificielle », rappelait Alternatives Economiques, plongeant les services clients à un stade d’embolie terminal (voir notre article sur le sujet : https://danslesalgorithmes.net/2025/09/11/sludge-de-la-degradation-volontaire-du-service-client).

    Le #service_client a ainsi pu être externalisé et les statuts des personnels dégradés. La #standardisation et l’#intensification vont toujours de pair, rappelle le sociologue. « Les tâches non automatisées par les outils ne sont pas celles qui ont un contenu peu routinier, mais plutôt celles qui, tout en étant routinières, sont trop coûteuses pour être automatisées ». A l’image de la logistique : on n’a pas remplacé les employés par des #robots, mais on a transformé les employés en robots devant suivre les ordres des machine, comme l’expliquait très bien le sociologue David Gaborieau : « On n’est pas du tout en train d’automatiser les entrepôts, au contraire. Il y a de plus en plus d’ouvriers dans le secteur de la logistique. En fait, ce discours sur l’#automatisation produit seulement des effets politiques et des effets d’#invisibilisation_du_travail. On ne cesse de répéter que ces emplois vont disparaître ce qui permet surtout de les dévaluer. »

    Si le #taylorisme_numérique est particulièrement frappant sur les #plateformes, il s’applique également aux métiers très qualifiés, comme les musiciens, les artistes, les journalistes ou les traducteurs, à mesure qu’ils sont intégrés à des chaînes de valeur mondiales. Carbonell donne d’autres exemples de capture des connaissances et de confiscation des savoir-faire. Notamment avec les premiers systèmes experts d’IA symbolique, comme les systèmes pour diagnostiquer les maladies infectieuses ou gérer les protocoles de chimiothérapie ou encore les outil-test de maintenance de la RATP, mais qui, pour beaucoup, a surtout consisté à valider les protocoles organisés par ces logiciels qui proposaient surtout beaucoup d’#alertes, nécessitant de passer du temps pour distinguer les alertes graves de celles qui ne le sont pas. Tous ces développements contribuent à « une #déqualification des métiers, même les plus qualifiés ». L’#IA_connexionniste d’aujourd’hui, elle, est capable de faire fi des règles explicites pour formuler ses propres règles. La capture de connaissance devient un processus implicite, lié aux données disponibles. L’#IA_générative qui en est le prolongement, dépend très fortement du travail humain : d’abord du #travail_gratuit de ceux qui ont produit les données d’entraînement des modèles, celui des salariés et d’une multitude de #micro-travailleurs qui viennent nettoyer, vérifier, annoter et corriger. Pour Carbonell, l’IA générative s’inscrit donc dans cette longue histoire de la « #dépossession_machinique ». « Elle n’est pas au service des travailleurs et ne les libère pas des tâches monotones et peu intéressantes ; ce sont les travailleurs qui sont mis à son service ». Dans le journalisme, comme le montrait un rapport d’Associated Press, l’usage de l’IA accroît la charge de travail et les dépossède du geste créatif : la rédaction d’articles. Ils doivent de plus en plus éditer les contenus générés par IA, comme de corriger les systèmes transformant les articles en posts de réseaux sociaux. Même constat dans le domaine de la #traduction, où les traducteurs doivent de plus en plus corriger des contenus générés. Dans un cas comme dans l’autre, cependant, le développement de l’IA relève d’abord des choix économiques, sociaux, politiques et éditoriaux des entreprises.

    Carbonell rappelle qu’il faut aussi saisir les #limites technologiques et nuancer leurs performances. La qualité de la traduction automatique par exemple reste assez pauvre comme le constatent et le dénoncent les syndicats et collectifs de traducteurs, la Société française des traducteurs ou le collectif en Chair et en Os. En musclant leurs revendications (rémunération, transparence, signalement des traductions automatisées, fin des aides publiques à ceux qui ont recours à l’automatisation…), ils montrent que le changement technologique n’est pas une fatalité. C’est l’absence de critique radicale qui le rend inéluctable, défend Juan Sebastian Carbonell. Et le sociologue de battre en brèche l’inéluctabilité de l’IA ou le discours qui répète qu’il faut s’adapter pour survivre et se former. La formation ne remet pas en cause le pouvoir et l’organisation du travail. Elle ne reconnaît pas le droit des salariés à décider comment travailler. La formation ne propose rien d’autre que l’acceptation. Elle tient bien plus du catéchisme, comme le pointait pertinemment Ambroise Garel dans la newsletter du Pavé numérique.

    La #division_du_travail est un moyen pour rendre le management indispensable

    Dans l’entreprise, le contrôle relève de plus en plus du seul monopole de l’employeur sur l’organisation du travail et sert à obtenir des salariés certains comportements, gestes et attitudes. Le contrôle a longtemps été l’apanage du contremaître, qui devint l’agent de la direction. A ce contrôle direct s’est ajouté un contrôle technique propre aux milieux industriels où les employés doivent répondre de la formulation des tâches avec des machines qui dirigent le processus de travail et imposent leur rythme. Après la Seconde Guerre mondiale s’ajoute encore un contrôle bureaucratique où la norme et les dispositifs de gestion remplacent le pouvoir personnel du contremaître. Le management algorithmique s’inscrit dans la continuité du commandement à distance et des dispositifs de gestion qui renforcent le taylorisme numérique. L’IA n’est qu’un outil de contrôle de plus, comme l’expliquaient Aiha Nguyen et Alexandra Mateescu de Data & Society.

    Face à ces constats, le sociologue rappelle une question de fond : pourquoi le travail est-il divisé entre ceux qui commandent et ceux qui exécutent ? Pour l’économiste Stephen Marglin, la division du travail entre commandement et exécution n’est pas liée à l’efficacité économique ou technologique, mais serait purement politique, expliquait-il en 1974. « La division du travail et l’entreprise hiérarchisée ne résultent pas de la recherche d’une organisation du travail plus efficace, ni d’un progrès technologique, mais de la volonté des employeurs de se rendre indispensables en s’interposant entre le travailleur et le marché ». Le système de la fabrique comme le taylorisme visent à faire disparaître le contrôle ouvrier sur le travail au profit d’un contrôle managérial qui renforce la subordination. « C’est en approfondissant la division du travail que le capitaliste peut s’assurer de demeurer indispensable dans le processus de production, comme unificateur d’opérations séparées et comme accès au marché ». Contrairement à la vulgate, « les algorithmes ne sont pas des outils numériques permettant une coordination plus efficace », explique Carbonell, mais « des dispositifs de mise au travail traversés par des rapports de pouvoir ». La plateforme agit sur le marché, à l’image des algorithmes d’Uber. « En se plaçant entre le travailleur et le marché, il agit comme un employeur cherchant à exercer un contrôle numérique sur sa main d’œuvre ». Le management algorithmique produit et renforce le commandement. Il dirige, évalue et discipline et ces trois fonctions se renforcent l’une l’autre. Dans le cas des applications de livraisons de repas, ils interviennent à chaque étape, de la commande à la livraison en exploitant à chaque étape l’asymétrie de l’information qu’ils permettent et mettent en œuvre. Même chose avec les applications qui équipent les employés de la logistique ou ceux de la réparation, contrôlés en continue, les laissant avec de moins en moins de marge de manœuvre. Dans la restauration ou le commerce, le management algorithmique est d’abord utilisé pour pallier au très fort turnover des employés, comme le disait Madison Van Oort. L’évaluation y est permanente, que ce soit depuis les clients qui notent les travailleurs ou depuis les calculs de productivité qui comparent la productivité des travailleurs les uns avec les autres. Les systèmes disciplinent les travailleurs, comme l’expliquait la sociologue Karen Levy ou le chercheur Wolfie Christl. Elle produit les cadences. Licenciements, récompenses, promotions et pénalités sont désormais alignés aux performances. L’évaluation sert à produire les comportements attendus, comme le montrait Sophie Bernard dans UberUsés : le capitalisme racial de plateforme (Puf, 2023).

    Mais il n’y a pas que les employés du bas de l’échelle qui sont ubérisés par ces contrôles automatisés, rappelle Carbonell. Les managers eux-mêmes sont désormais les exécutants de ce que leur disent les données. « Ils ne gèrent pas les travailleurs, ils appliquent ce que le système informatique leur dicte ». Et Carbonell de conclure en rappelant que notre patron n’est pas un algorithme. Dans le taylorisme augmenté, « l’asymétrie d’information devient une asymétrie de pouvoir ». L’asymétrie de l’information est le produit de la division du travail et celle-ci s’accentue avec des outils qui permettent d’atomiser le collectif et de mettre en concurrence les employés entre eux en les évaluant les uns par rapport aux autres.

    Cette asymétrie n’est pas accidentelle, au contraire. Elle permet d’empêcher les collectifs de travail de contester les décisions prises. Sans droit de regard sur les données collectées et sur les modalités d’organisation des calculs, sans possibilité de réappropriation et donc sans discussion sur l’accès aux données des entreprises par les collectifs, rien n’évoluera. Comme le rappelle Carbonell, en Allemagne, l’introduction de nouvelles technologies qui surveillent la performance des travailleurs doit être validée par les comités d’entreprise où siègent les représentants du personnel. En France aussi, la négociation collective s’est timidement emparée du sujet. Le Centre d’études de l’emploi et du travail avait d’ailleurs livré une analyse des accords d’entreprise français signés entre 2017 et 2024 qui mentionnent l’IA. Depuis 2017, un peu moins d’un accord sur mille fait référence à l’IA, ceux-ci insistent particulièrement sur la préservation de l’emploi.

    L’IA, moteur de #déresponsabilisation

    Pour l’instant, explique Juan Sebastian Carbonell, l’IA est surtout un moteur de déresponsabilisation des patrons. Les entreprises ont recours à des systèmes tiers pour établir ces surveillances et contrôles. Ce qui permet une forme de dispersion de la responsabilité, comme l’évoquait le professeur de droit d’Oxford, Jeremias Adams-Prassl, tout en « concentrant le contrôle » (voir également son livre, L’ubérisation du travail, Dalloz, 2021).

    « De la même façon que, dans les configurations de l’emploi précaire, avec leurs schémas de sous-traitance en cascade, il est difficile d’établir qui est l’employeur responsable, l’usage d’IA dans la gestion de la main-d’œuvre brouille les frontières de la responsabilité », rappelle le sociologue. « Si les systèmes de contrôle (direct, technique, bureaucratique et algorithmique) se succèdent, c’est parce qu’ils rencontrent toujours des limites, correspondant aux résistances des travailleurs et de leurs organisations ». Pourtant, à mesure que le panoptique se referme, les résistances deviennent de plus en plus difficiles, faute de marge de manœuvre.

    Pour Carbonell, un renouveau luddite aurait toute sa place aujourd’hui, pour donner aux individus et aux collectifs les moyens de garder un contrôle sur l’organisation du travail, pour réouvrir des marges de manœuvre. Reste que le « luddisme diffus » qui émerge à l’égard de l’IA ne s’incarne pas dans un mouvement de masse ancré dans les mondes du travail, mais au mieux « dans un rejet individuel et une approche morale de l’IA », voire dans une vision technique et éthique qui consiste à améliorer les calculs plus qu’à les rendre redevables. Les travailleurs ont pourtant de bonnes raisons de s’opposer au changement technologique au travail, conclut le sociologue, surtout quand il ne vient plus accompagné de progrès sociaux mais au contraire de leurs délitements, comme une solution de remplacement bon marché de l’Etat Providence, disaient la linguiste Emily Bender et la sociologue Alex Hanna dans leur récent livre, The AI Con (HarperCollins, 2025). Avec l’IA et l’ubérisation s’impose un monde où les statuts protecteurs du travail reculent.

    L’appropriation collective des moyens de production n’est plus une promesse pour transformer le monde. Il ne peut y avoir de chaîne de montage socialiste, car « il n’y a rien de potentiellement émancipateur dans la dissociation entre la conception et l’exécution ». Peut-on imaginer une IA qui nous aide à sortir de Taylor plutôt que de nous y enfermer ?, questionne le sociologue en conclusion. Une IA qui rende du pouvoir aux travailleurs, qui leur permette de concevoir et d’exécuter, qui leur rende du métier plutôt qu’elle ne les en dépossède.

    Pour l’instant, on ne l’a pas encore aperçu !

    https://danslesalgorithmes.net/2025/10/02/ia-et-travail-on-ne-sait-pas-qui-sera-remplace-mais-on-sait-que-
    #remplacement #dégradation #conditions_de_travail #AI #intelligence_artificielle #taylorisme #productivité
    #à_lire

    • Le Futur du travail

      Le travail est un inépuisable objet de fantasmes. On annonce sa disparition prochaine sous l’effet d’un « #grand_remplacement_technologique », on prophétise la fin imminente du #salariat, on rêve d’une existence définitivement débarrassée de cette servitude. Fait significatif, les futurologues consacrés et les apologistes du monde tel qu’il va n’ont absolument pas le monopole de ce discours, tout aussi bien tenu par les plus féroces critiques du capitalisme. À chaque révolution technologique ses mirages. Car il y a loin, très loin, de ces anticipations à la réalité. Le travail humain conserve en effet une place centrale dans nos sociétés. Simplement, ses frontières et le périmètre des populations qu’il concerne se déplacent : ce n’est donc pas à une #précarisation généralisée que l’on assiste, mais à l’émergence d’un #nouveau_prolétariat du numérique et de la logistique, dans des économies bouleversées par l’essor des géants de la #Big_tech.

      https://www.editionsamsterdam.fr/le-futur-du-travail
      #livre

    • #Observatoire sur l’IA et le travail dans l’#économie_numérique

      L’Observatoire de l’OIT sur l’intelligence artificielle (IA) et le travail dans l’économie numérique est une plateforme de connaissances sur les dimensions du travail liées à l’IA et de l’économie numérique. Son objectif est d’aider les gouvernements et les partenaires sociaux à comprendre et à gérer la transformation numérique du travail.

      https://www.youtube.com/watch?v=Rdn88pUHNmo&embeds_referring_euri=https%3A%2F%2Fwww.ilo.org%2F&sour


      https://www.ilo.org/fr/artificial-intelligence-and-work-digital-economy
      #OIT #ILO

    • Sludge : de la dégradation volontaire du service client

      Le numérique est-il responsable de la dégradation du service client ?

      Dans The Atlantic, Chris Colin raconte le moment où il a eu un problème avec l’électronique de sa Ford. La direction se bloque, plus possible de ne rien faire. Son garagiste reboot le système sans chercher plus loin. Inquiet que le problème puisse se reproduire, Colin fait plusieurs garagistes, contacte Ford. On promet de le rappeler. Rien. A force de volonté, il finit par avoir un responsable qui lui explique qu’à moins que « le dysfonctionnement du véhicule puisse être reproduit et ainsi identifié, la garantie ne s’applique pas ». Colin multiplie les appels, au constructeur, à son assureur… Tout le monde lui dit de reprendre le volant. Lui persévère. Mais ses appels et mails sont renvoyés jusqu’à ne jamais aboutir. Il n’est pas le seul à qui ce genre de démêlés arrive. Une connaissance lui raconte le même phénomène avec une compagnie aérienne contre laquelle elle se débat pour tenter de se faire rembourser un voyage annulé lors du Covid. D’autres racontent des histoires kafkaïennes avec Verizon, Sonos, Airbnb, le Fisc américain… « Pris séparément, ces tracas étaient des anecdotes amusantes. Ensemble, elles suggèrent autre chose ».

      Quelque soit le service, partout, le service client semble être passé aux abonnées absents. Le temps où les services clients remboursaient ou échangaient un produit sans demander le moindre justificatif semble lointain. En 2023, l’enquête nationale sur la colère des consommateurs américains avait tous ses chiffres au rouge. 74% des clients interrogés dans ce sondage ont déclaré avoir rencontré un problème avec un produit ou un service au cours de l’année écoulée, soit plus du double par rapport à 1976. Face à ces difficultés, les clients sont de plus en plus agressifs et en colère. L’incivilité des clients est certainement la réponse à des services de réclamation en mode dégradés quand ils ne sont pas aux abonnés absents.
      Dégradation du service client : le numérique est-il responsable ?

      Dans leur best-seller Nudge, paru en 2008, le juriste Cass Sunstein et l’économiste Richard Thaler ont mobilisé des recherches en sciences du comportement pour montrer comment de petits ajustements pouvaient nous aider à faire de meilleurs choix, définissant de nouvelles formes d’intervention pour accompagner des politiques pro-sociales (voir l’article que nous consacrions au sujet, il y a 15 ans). Dans leur livre, ils évoquaient également l’envers du nudge, le sludge : des modalités de conception qui empêchent et entravent les actions et les décisions. Le sludge englobe une gamme de frictions telles que des formulaires complexes, des frais cachés et des valeurs par défaut manipulatrices qui augmentent l’effort, le temps ou le coût requis pour faire un choix, profitant souvent au concepteur au détriment de l’intérêt de l’utilisateur. Cass Sunstein a d’ailleurs fini par écrire un livre sur le sujet en 2021 : Sludge. Il y évoque des exigences administratives tortueuses, des temps d’attente interminables, des complications procédurales excessives, voire des impossibilités à faire réclamation qui nous entravent, qui nous empêchent… Des modalités qui ne sont pas sans faire écho à l’emmerdification que le numérique produit, que dénonce Cory Doctorow. Ou encore à l’âge du cynisme qu’évoquaient Tim O’Reilly, Illan Strauss et Mariana Mazzucato en expliquant que les plateformes se focalisent désormais sur le service aux annonceurs plus que sur la qualité de l’expérience utilisateur… Cette boucle de prédation qu’est devenu le marketing numérique.

      L’une des grandes questions que posent ces empêchements consiste d’ailleurs à savoir si le numérique les accélère, les facilite, les renforce.

      Le sludge a suscité des travaux, rappelle Chris Colin. Certains ont montré qu’il conduit des gens à renoncer à des prestations essentielles. « Les gens finissent par payer ce contre quoi ils n’arrivent pas à se battre, faute d’espace pour contester ou faire entendre leur problème ». En l’absence de possibilité de discussion ou de contestation, vous n’avez pas d’autre choix que de vous conformer à ce qui vous est demandé. Dans l’application que vous utilisez pour rendre votre voiture de location par exemple, vous ne pouvez pas contester les frais que le scanneur d’inspection automatisé du véhicule vous impute automatiquement. Vous n’avez pas d’autre choix que de payer. Dans d’innombrables autres, vous n’avez aucune modalité de contact. C’est le fameux no-reply, cette communication sans relation que dénonçait Thierry Libaert pour la fondation Jean Jaurès – qui n’est d’ailleurs pas propre aux services publics. En 2023, Propublica avait montré comment l’assureur américain Cigna avait économisé des millions de dollars en rejetant des demandes de remboursement sans même les faire examiner par des médecins, en pariant sur le fait que peu de clients feraient appels. Même chose chez l’assureur santé américain NaviHealth qui excluait les clients dont les soins coûtaient trop cher, en tablant sur le fait que beaucoup ne feraient pas appels de la décision, intimidés par la demande – alors que l’entreprise savait que 90 % des refus de prise en charge sont annulés en appel. Les refus d’indemnisation, justifiés ou non, alimentent la colère que provoquent déjà les refus de communication. La branche financement de Toyota aux Etats-Unis a été condamnée pour avoir bloqué des remboursements et mis en place, délibérément, une ligne d’assistance téléphonique « sans issue » pour l’annulation de produits et services. Autant de pratiques difficiles à prouver pour les usagers, qui se retrouvent souvent très isolés quand leurs réclamations n’aboutissent pas. Mais qui disent que la pratique du refus voire du silence est devenue est devenue une technique pour générer du profit.
      Réduire le coût des services clients

      En fait, expliquaient déjà en 2019 les chercheurs Anthony Dukes et Yi Zhu dans la Harvard Business Review : si les services clients sont si mauvais, c’est parce qu’en l’étant, ils sont profitables ! C’est notamment le cas quand les entreprises détiennent une part de marché importante et que leurs clients n’ont pas de recours. Les entreprises les plus détestées sont souvent rentables (et, si l’on en croit un classement américain de 2023, beaucoup d’entre elles sont des entreprises du numérique, et plus seulement des câblo-opérateurs, des opérateurs télécom, des banques ou des compagnies aériennes). Or, expliquent les chercheurs, « certaines entreprises trouvent rentable de créer des difficultés aux clients qui se plaignent ». En multipliant les obstacles, les entreprises peuvent ainsi limiter les plaintes et les indemnisations. Les deux chercheurs ont montré que cela est beaucoup lié à la manière dont sont organisés les centres d’appels que les clients doivent contacter, notamment le fait que les agents qui prennent les appels aient des possibilités de réparation limitées (ils ne peuvent pas rembourser un produit par exemple). Les clients insistants sont renvoyés à d’autres démarches, souvent complexes. Pour Stéphanie Thum, une autre méthode consiste à dissimuler les possibilités de recours ou les noyer sous des démarches complexes et un jargon juridique. Dukes et Zhu constatent pourtant que limiter les coûts de réclamation explique bien souvent le fait que les entreprises aient recours à des centres d’appels externalisés. C’est la piste qu’explore d’ailleurs Chris Colin, qui rappelle que l’invention du distributeur automatique d’appels, au milieu du XXe siècle a permis d’industrialiser le service client. Puis, ces coûteux services ont été peu à peu externalisés et délocalisés pour en réduire les coûts. Or, le principe d’un centre d’appel n’est pas tant de servir les clients que de « les écraser », afin que les conseillers au téléphone passent le moins de temps possible avec chacun d’eux pour répondre au plus de clients possibles.

      C’est ce que raconte le livre auto-édité d’Amas Tenumah, Waiting for Service : An Insider’s Account of Why Customer Service Is Broken + Tips to Avoid Bad Service (En attente de service : témoignage d’un initié sur les raisons pour lesquelles le service client est défaillant + conseils pour éviter un mauvais service, 2021). Amas Tenumah (blog, podcast), qui se présente comme « évangéliste du service client », explique qu’aucune entreprise ne dit qu’elle souhaite offrir un mauvais service client. Mais toutes ont des budgets dédiés pour traiter les réclamations et ces budgets ont plus tendance à se réduire qu’à augmenter, ce qui a des conséquences directes sur les remboursements, les remises et les traitements des plaintes des clients. Ces objectifs de réductions des remboursements sont directement transmis et traduits opérationnellement auprès des agents des centres d’appels sous forme d’objectifs et de propositions commerciales. Les call centers sont d’abord perçus comme des centres de coûts pour ceux qui les opèrent, et c’est encore plus vrai quand ils sont externalisés.
      Le service client vise plus à nous apaiser qu’à nous satisfaire

      Longtemps, la mesure de la satisfaction des clients était une mesure sacrée, à l’image du Net Promoter Score imaginé au début 2000 par un consultant américain qui va permettre de généraliser les systèmes de mesure de satisfaction (qui, malgré son manque de scientificité et ses innombrables lacunes, est devenu un indicateur clé de performance, totalement dévitalisé). « Les PDG ont longtemps considéré la fidélité des clients comme essentielle à la réussite d’une entreprise », rappelle Colin. Mais, si tout le monde continue de valoriser le service client, la croissance du chiffre d’affaires a partout détrôné la satisfaction. Les usagers eux-mêmes ont lâché l’affaire. « Nous sommes devenus collectivement plus réticents à punir les entreprises avec lesquelles nous faisons affaire », déclare Amas Tenumah : les clients les plus insatisfaits reviennent à peine moins souvent que les clients les plus satisfaits. Il suffit d’un coupon de réduction de 20% pour faire revenir les clients. Les clients sont devenus paresseux, à moins qu’ils n’aient plus vraiment le choix face au déploiement de monopoles effectifs. Les entreprises ont finalement compris qu’elles étaient libres de nous traiter comme elles le souhaitent, conclut Colin. « Nous sommes entrés dans une relation abusive ». Dans son livre, Tenumah rappelle que les services clients visent bien plus « à vous apaiser qu’à vous satisfaire »… puisqu’ils s’adressent aux clients qui ont déjà payé ! Il est souvent le premier département où une entreprise va chercher à réduire les coûts.

      Dans nombre de secteurs, la fidélité est d’ailleurs assez mal récompensée : les opérateurs réservent leurs meilleurs prix et avantages aux nouveaux clients et ne proposent aux plus fidèles que de payer plus pour de nouvelles offres. Une opératrice de centre d’appel, rappelle que les mots y sont importants, et que les opérateurs sont formés pour éluder les réclamations, les minorer, proposer la remise la moins disante… Une autre que le fait de tomber chaque fois sur une nouvelle opératrice qui oblige à tout réexpliquer et un moyen pour pousser les gens à l’abandon.
      La complexité administrative : un excellent outil pour invisibiliser des objectifs impopulaires

      Dans son livre, Sunstein explique que le Sludge donne aux gens le sentiment qu’ils ne comptent pas, que leur vie ne compte pas. Pour la sociologue Pamela Herd et le politologue Donald Moynihan, coauteurs de Administrative Burden : Policymaking by Other Means (Russel Sage Foundation, 2019), le fardeau administratif comme la paperasserie complexe, les procédures confuses entravent activement l’accès aux services gouvernementaux. Plutôt que de simples inefficacités, affirment les auteurs, nombre de ces obstacles sont des outils politiques délibérés qui découragent la participation à des programmes comme Medicaid, empêchent les gens de voter et limitent l’accès à l’aide sociale. Et bien sûr, cette désorganisation volontaire touche de manière disproportionnée les gens les plus marginalisés. « L’un des effets les plus insidieux du sludge est qu’il érode une confiance toujours plus faible dans les institutions », explique la sociologue. « Une fois ce scepticisme installé, il n’est pas difficile pour quelqu’un comme Elon Musk de sabrer le gouvernement sous couvert d’efficacité »… alors que les coupes drastiques vont surtout compliquer la vie de ceux qui ont besoin d’aide. Mais surtout, comme l’expliquaient les deux auteurs dans une récente tribune pour le New York Times, les réformes d’accès, désormais, ne sont plus lisibles, volontairement. Les coupes que les Républicains envisagent pour l’attribution de Medicaid ne sont pas transparentes, elles ne portent plus sur des modifications d’éligibilité ou des réductions claires, que les électeurs comprennent facilement. Les coupes sont désormais opaques et reposent sur une complexité administrative renouvelée. Alors que les Démocrates avaient œuvré contre les lourdeurs administratives, les Républicains estiment qu’elles constituent un excellent outil politique pour atteindre des objectifs politiques impopulaires.

      Augmenter le fardeau administratif devient une politique, comme de pousser les gens à renouveler leur demande 2 fois par an plutôt qu’une fois par an. L’enjeu consiste aussi à développer des barrières, comme des charges ou un ticket modérateur, même modique, qui permet d’éloigner ceux qui ont le plus besoin de soins et ne peuvent les payer. Les Républicains du Congrès souhaitent inciter les États à alourdir encore davantage les formalités administratives. Ils prévoient d’alourdir ainsi les sanctions pour les États qui commettent des erreurs d’inscription, ce qui va les encourager à exiger des justificatifs excessifs – alors que là bas aussi, l’essentiel de la fraude est le fait des assureurs privés et des prestataires de soins plutôt que des personnes éligibles aux soins. Les Républicains affirment que ces contraintes servent des objectifs politiques vertueux, comme la réduction de la fraude et de la dépendance à l’aide sociale. Mais en vérité, « la volonté de rendre l’assurance maladie publique moins accessible n’est pas motivée par des préoccupations concernant l’intérêt général. Au contraire, les plus vulnérables verront leur situation empirer, tout cela pour financer une baisse d’impôts qui profite principalement aux riches ».

      Dans un article pour The Atlantic de 2021, Annie Lowrey évoquait le concept de Kludgeocracrie du politologue Steven Teles, pour parler de la façon dont étaient bricolés les programmes de prestations en faisant reposer sur les usagers les lourdeurs administratives. Le but, bien souvent, est que les prestations sociales ne soient pas faciles à comprendre et à recevoir. « Le gouvernement rationne les services publics par des frictions bureaucratiques déroutantes et injustes. Et lorsque les gens ne reçoivent pas l’aide qui leur est destinée, eh bien, c’est leur faute ». « C’est un filtre régressif qui sape toutes les politiques progressistes que nous avons ». Ces politiques produisent leurs propres économies. Si elles alourdissent le travail des administrations chargées de contrôler les prestations, elles diminuent mécaniquement le volume des prestations fournies.

      Le mille-feuille de l’organisation des services publics n’explique pas à lui seul la raison de ces complexités. Dans un livre dédié au sujet (The Submerged State : How Invisible Government Policies Undermine American Democracy, University of Chicago Press, 2011), la politologue Suzanne Mettler soulignait d’ailleurs, que les programmes destinés aux plus riches et aux entreprises sont généralement plus faciles à obtenir, automatiques et garantis. « Il n’est pas nécessaire de se prosterner devant un conseiller social pour bénéficier des avantages d’un plan d’épargne-études. Il n’est pas nécessaire d’uriner dans un gobelet pour obtenir une déduction fiscale pour votre maison, votre bateau ou votre avion… ». « Tant et si bien que de nombreuses personnes à revenus élevés, contrairement aux personnes pauvres, ne se rendent même pas compte qu’elles bénéficient de programmes gouvernementaux ». Les 200 milliards d’aides publiques aux entreprises en France, distribués sans grand contrôle, contrastent d’une manière saisissante avec la chasse à la fraude des plus pauvres, bardés de contrôles. Selon que vous êtes riches ou pauvres, les lourdeurs administratives ne sont pas distribuées équitablement. Mais toutes visent d’abord à rendre l’État dysfonctionnel.

      L’article d’Annie Lowrey continue en soulignant bien sûr qu’une meilleure conception et que la simplification sont à portée de main et que certaines agences américaines s’y sont attelé et que cela a porté ses fruits. Mais, le problème n’est plus celui-là me semble-t-il. Voilà longtemps que les effets de la simplification sont démontrés, cela n’empêche pas, bien souvent, ni des reculs, ni une fausse simplification. Le contrôle reste encore largement la norme, même si partout on constate qu’il produit peu d’effets (comme le montraient les sociologues Claire Vivès, Luc Sigalo Santos, Jean-Marie Pillon, Vincent Dubois et Hadrien Clouet, dans leur livre sur le contrôle du chômage, Chômeurs, vos papiers ! – voir notre recension). Il est toujours plus fort sur les plus démunis que sur les plus riches et la tendance ne s’inverse pas, malgré les démonstrations.

      Et le déferlement de l’IA pour le marketing risque de continuer à dégrader les choses. Pour Tenumah, l’arrivée de services clients gérés par l’IA vont leur permettre peut-être de coûter moins cher aux entreprises, mais ils ne vont répondre à aucune attente.

      La résistance au Sludge s’organise bien sûr. Des réglementations, comme la règle « cliquez pour annuler » que promeut la FTC américaine, vise à éliminer les obstacles à la résiliation des abonnements. L’OCDE a développé, elle, une internationale Sludge Academy pour développer des méthodes d’audits de ce type de problème, à l’image de la méthodologie développée par l’unité comportemementale du gouvernement australien. Mais la régulation des lacunes des services clients est encore difficile à mettre en œuvre.

      Le cabinet Gartner a prédit que d’ici 2028, l’Europe inscrira dans sa législation le droit à parler à un être humain. Les entreprises s’y préparent d’ailleurs, puisqu’elles estiment qu’avec l’IA, ses employés seront capables de répondre à toutes les demandes clients. Mais cela ne signifie pas qu’elles vont améliorer leur relation commerciale. On l’a vu, il suffit que les solutions ne soient pas accessibles aux opérateurs des centres d’appels, que les recours ne soient pas dans la liste de ceux qu’ils peuvent proposer, pour que les problèmes ne se résolvent pas. Faudra-t-il aller plus loin ? Demander que tous les services aient des services de médiation ? Que les budgets de services clients soient proportionnels au chiffre d’affaires ?

      Avec ses amis, Chris Colin organise désormais des soirées administratives, où les gens se réunissent pour faire leurs démarches ensemble afin de s’encourager à les faire. L’idée est de socialiser ces moments peu intéressants pour s’entraider à les accomplir et à ne pas lâcher l’affaire.

      Après plusieurs mois de discussions, Ford a fini par proposer à Chris de racheter sa voiture pour une somme équitable.
      Dégradation du service client ? La standardisation en question

      Pour autant, l’article de The Atlantic ne répond pas pleinement à la question de savoir si le numérique aggrave le Sludge. Les pratiques léontines des entreprises ne sont pas nouvelles. Mais le numérique les attise-t-elle ?

      « Après avoir progressé régulièrement pendant deux décennies, l’indice américain de satisfaction client (ACSI), baromètre du contentement, a commencé à décliner en 2018. Bien qu’il ait légèrement progressé par rapport à son point bas pendant la pandémie, il a perdu tous les gains réalisés depuis 2006 », rappelle The Economist. Si la concentration et le développement de monopoles explique en partie la dégradation, l’autre raison tient au développement de la technologie, notamment via le développement de chatbots, ces dernières années. Mais l’article finit par reprendre le discours consensuel pour expliquer que l’IA pourrait améliorer la relation, alors qu’elle risque surtout d’augmenter les services clients automatisés, allez comprendre. Même constat pour Claer Barrett, responsable de la rubrique consommateur au Financial Times. L’envahissement des chatbots a profondément dégradé le service client en empêchant les usagers d’accéder à ce qu’ils souhaitent : un humain capable de leur fournir les réponses qu’ils attendent. L’Institute of Customer Service (ICS), un organisme professionnel indépendant qui milite pour une amélioration des normes de la satisfaction client, constate néanmoins que celle-ci est au plus bas depuis 9 ans dans tous les secteurs de l’économie britannique. En fait, les chatbots ne sont pas le seul problème : même joindre un opérateur humain vous enferme également dans le même type de scripts que ceux qui alimentent les chatbots, puisque les uns comme les autres ne peuvent proposer que les solutions validées par l’entreprise. Le problème repose bien plus sur la normalisation et la standardisation de la relation qu’autre chose.

      « Les statistiques des plaintes des clients sont très faciles à manipuler », explique Martyn James, expert en droits des consommateurs. Vous pourriez penser que vous êtes en train de vous plaindre au téléphone, dit-il, mais si vous n’indiquez pas clairement que vous souhaitez déposer une plainte officielle, celle-ci risque de ne pas être comptabilisée comme telle. Et les scripts que suivent les opérateurs et les chatbots ne proposent pas aux clients de déposer plainte… Pourquoi ? Légalement, les entreprises sont tenues de répondre aux plaintes officielles dans un délai déterminé. Mais si votre plainte n’est pas officiellement enregistrée comme telle, elles peuvent traîner les pieds. Si votre plainte n’est pas officiellement enregistrée, elle n’est qu’une réclamation qui se perd dans l’historique client, régulièrement vidé. Les consommateurs lui confient que, trop souvent, les centres d’appels n’ont aucune trace de leur réclamation initiale.

      Quant à trouver la page de contact ou du service client, il faut la plupart du temps cinq à dix clics pour s’en approcher ! Et la plupart du temps, vous n’avez accès qu’à un chat ou une ligne téléphonique automatisée. Pour Martyn James, tous les secteurs ont réduit leur capacité à envoyer des mails autres que marketing et la plupart n’acceptent pas les réponses. Et ce alors que ces dernières années, de nombreuses chaînes de magasins se sont transformées en centres de traitement des commandes en ligne, sans investir dans un service client pour les clients distants.
      « Notre temps ne leur coûte rien »

      « Notre temps ne leur coûte rien », rappelle l’expert. Ce qui explique que nous soyons contraints d’épuiser le processus automatisé et de nous battre obstinément pour parler à un opérateur humain qui fera son maximum pour ne pas enregistrer l’interaction comme une plainte du fait des objectifs qu’il doit atteindre. Une fois les recours épuisés, reste la possibilité de saisir d’autres instances, mais cela demande de nouvelles démarches, de nouvelles compétences comme de savoir qu’un médiateur peut exister, voire porter plainte en justice… Autant de démarches qui ne sont pas si accessibles.

      Les défenseurs des consommateurs souhaitent que les régulateurs puissent infliger des amendes beaucoup plus lourdes aux plus grands contrevenants des services clients déficients. Mais depuis quels critères ?

      Investir dans un meilleur service client a clairement un coût. Mais traiter les plaintes de manière aussi inefficace en a tout autant. Tous secteurs confondus, le coût mensuel pour les entreprises britanniques du temps consacré par leurs employés à la gestion des problèmes clients s’élève à 8 milliards d’euros, selon l’ICS. Si les entreprises commençaient à mesurer cet impact de cette manière, cela renforcerait-il l’argument commercial en faveur d’un meilleur service ?, interroge Claer Barrett.

      Au Royaume-Uni, c’est le traitement des réclamations financières qui offre le meilleur service client, explique-t-elle, parce que la réglementation y est beaucoup plus stricte. A croire que c’est ce qui manque partout ailleurs. Pourtant, même dans le secteur bancaire, le volume de plaintes reste élevé. Le Financial Ombudsman Service du Royaume-Uni prévoit de recevoir plus de 181 000 plaintes de consommateurs au cours du prochain exercice, soit environ 10 % de plus qu’en 2022-2023. Les principales plaintes à l’encontre des banques portent sur l’augmentation des taux d’intérêts sur les cartes de crédits et la débancarisation (voir notre article). Une autre part importante des plaintes concerne les dossiers de financement automobiles, et porte sur des litiges d’évaluation de dommages et des retards de paiements.

      Pourtant, selon l’ICS, le retour sur investissement d’un bon service client reste fort. « D’après les données collectées entre 2017 et 2023, les entreprises dont le score de satisfaction client était supérieur d’au moins un point à la moyenne de leur secteur ont enregistré une croissance moyenne de leur chiffre d’affaires de 7,4 % ». Mais, celles dont le score de satisfaction est inférieur d’un point à la moyenne, ont enregistré également une croissance de celui-ci du niveau de la moyenne du secteur. La différence n’est peut-être pas suffisamment sensible pour faire la différence. Dans un monde en ligne, où le client ne cesse de s’éloigner des personnels, la nécessité de créer des liens avec eux devrait être plus importante que jamais. Mais, l’inflation élevée de ces dernières années porte toute l’attention sur le prix… et ce même si les clients ne cessent de déclarer qu’ils sont prêts à payer plus cher pour un meilleur service.

      La morosité du service client est assurément à l’image de la morosité économique ambiante.

      https://danslesalgorithmes.net/2025/09/11/sludge-de-la-degradation-volontaire-du-service-client

  • Dans les algorithmes | Politiques publiques : passer de l’IA... à la dénumérisation
    https://danslesalgorithmes.net/2025/10/07/politiques-publiques-passer-de-lia-a-la-denumerisation

    « La complexité de l’IA introduit une opacité fondamentale dans le lien entre les données d’entrée et les résultats, rendant impossible de déterminer précisément pourquoi elle a généré un résultat particulier, empêchant ainsi toute voie de recours. Ce phénomène est aggravé dans les applications concrètes, où les résultats apparemment fiables de l’IA peuvent devenir auto-réalisateurs. Un algorithme d’apprentissage automatique qualifiant une famille de « difficile » peut ainsi créer une boucle de rétroaction entre les membres de la famille et les services sociaux. De cette manière, l’IA imite des phénomènes sociologiques bien connus, tels que les stéréotypes et la #stigmatisation, mais à grande échelle »

    -- (...)

    #intelligenceartificielle #automatisation #imitation #fiabilité #simplification #prédiction #corrélation #causalité #politique #justice #droit #éthique #rationalité #solutionnisme #gouvernementalité #algorithmique #gouvernancealgorithmique #bestof

  • Dans les algorithmes | Op@le, le logiciel comptable qui rend fou
    https://danslesalgorithmes.net/stream/ople-le-logiciel-comptable-qui-rend-fou

    (...)

    Ce système, conçu par Capgemini, aurait déjà coûté près de 100 millions d’euros à l’Education nationale. Problème : quand il était possible de faire 70 facturations en une demi-journée avec l’ancien logiciel, le nouveau permet péniblement d’en traiter une douzaine.

    (...)

    Le logiciel, ça eu payé...

  • Dans les algorithmes | S’attaquer à la hype
    https://danslesalgorithmes.net/2025/09/08/sattaquer-a-la-hype

    On l’a vu, dans leur livre, The AI con, Emily Bender et Alex Hanna proposaient de lutter contre le battage médiatique de l’IA qui déforme notre compréhension de la réalité. Dans une tribune pour Tech Policy Press, le sociologue catalan Andreu Belsunces Gonçalves et le politiste Jascha Bareis proposent de combattre la hype en l’étudiant pour ce qu’elle est : un phénomène politique.

    Pour eux, elle n’est pas une phase neutre des cycles d’adoption des technologies. La hype n’est pas non plus un phénomène économique. Elle est un projet délibéré qui oriente l’imaginaire collectif au profit de certains. Le battage médiatique autour de la technologie et de l’informatique a permis d’affoler les marchés et les investissements. Les deux scientifiques en ont fait un projet de recherche transdisciplinaire pour comprendre les moteurs et les ressorts d’un phénomène puissant et omniprésent qui influence l’économie, la finance, les agendas politiques, les récits médiatiques et les développements technologiques. Concrètement, la hype se caractérise par une fascination pour les technologies d’avenir permettant de produire des promesses exagérées et irréalistes, un optimisme exacerbé qui capte l’attention de tous et amplifie les phénomènes spéculatifs, jusqu’à parfois les rendre réels.

  • Dans les algorithmes | IA, la grande escroquerie
    https://danslesalgorithmes.net/2025/09/04/ia-la-grande-escroquerie

    Emily Bender et Alex Hanna publient The AI con, « L’escroquerie de l’IA ». Une synthèse très documentée qui nous invite à lutter contre le monde que nous proposent les géants de l’IA. Lecture.

    (...)

    AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvé “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placés se sont positionnés pour accumuler des richesses importantes en extrayant de la valeur du travail créatif, des données personnelles ou du travail d’autres personnes et en remplaçant des services de qualité par des fac-similés ». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose.

    (...)

    Sommaire
    – L’IA n’est rien d’autre que du marketing
    – Des outils de manipulation… sans entraves
    – Déconstruire l’emballement
    – De l’automatisation à l’IA : dévaluer le travail
    – Babysitter les IA : l’exploitation est la norme
    – “Quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”
    – "L’IA n’est qu’un pauvre facsimilé de l’Etat providence"
    – L’IA, une machine à produire des dommages sociaux
    – Le risque de l’IA, mais lequel et pour qui ?
    – Face à l’IA, nous devons avoir aucune confiance

  • Dans les algorithmes | “Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”
    https://danslesalgorithmes.net/2025/06/16/il-est-probable-que-lempreinte-environnementale-de-lia-soit-aujo

    « Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ».

    Le futur, tu es connecté à un bidule à longueur de temps, qui t’explique ce qui est le mieux pour toi, en fonction des préférences précédentes, qui t’auront été expliquées, par le bidule, qui à longueur de temps, t’expliquera ce que tu aimes, et ce que tu dois faire, et comment tu dois le faire, et avec qui tu dois le faire.

    Cette dystopie est parfaitement crétine, ou bien ?