ENTRETIEN - ChatGPT est-il en train de détruire Internet ? C’est la question à laquelle tente de répondre Olivier Ertzscheid dans son essai, intitulé « Les IA à l’assaut du cyberespace ». Dans ce livre, le chercheur en sciences de l’information dénonce la surabondance de contenus produits par les intelligences artificielles, qui relègue nos interactions sociales dans des couches de moins en moins visibles du Web.
Le chercheur Olivier Ertzscheid dénonce l’émergence du « Web synthétique », un Internet où les contenus produits par des machines finissent par occuper l’essentiel de l’espace d’expression visible. (Crédits : DR)
Depuis quelques mois, certains observateurs parlent d’un internet « mort » ou « zombie », envahi de bots, de textes et d’images générés par intelligence artificielle. Olivier Ertzscheid, chercheur en sciences de l’information et maître de conférences à l’université de Nantes, ne va pas jusqu’à prêcher la mort du web.
Mais le chercheur estime que celui-ci s’est considérablement transformé avec l’apparition de contenus non produits par les humains. Il détaille son analyse de ce « Web synthétique » et de son impact sur notre manière d’interagir, notre langue, et nos normes sociales dans un essai intitulé Les IA à l’assaut du cyberespace, publié le 5 juin chez C&F Editions.
LA TRIBUNE - Vous parlez d’un « Web synthétique », qu’entendez-vous par ce terme ?
OLIVIER ERTZSCHEID - C’est un Internet où les contenus produits par des machines finissent par occuper l’essentiel de l’espace d’expression visible du Web. Aux antipodes d’un Web naturel, organique, où chacun produit lui-même des contenus. Nous savions déjà que les bots, ces programmes informatiques qui publient de manière automatique, occupent une part de plus en plus importante. Ils représentent la moitié du trafic d’Internet et sont aussi producteurs d’information (ou de désinformation). Puis sont venus ChatGPT et les autres IA génératives, ce qui a amplifié ce phénomène.
Qu’est ce que cela a changé exactement ?
Avec ChatGPT, nous sommes tous devenus acteurs du web synthétique. Nos échanges avec le chatbot - et tout autre IA générative - sont parfois partagés avec des amis, sur les réseaux sociaux... On contribue à la saturation de l’espace discursif. Le problème c’est que cette omniprésence de contenus artificiels, qui ont souvent un intérêt limité, se fait au détriment des interactions sociales.
Cette autre question se pose, selon moi : est-ce que la vanité de croire que l’on peut apporter une réflexion intéressante va-t-elle résister à ce web submergé par des contenus synthétiques ? L’autre question que cela pose c’est le devenir de ces contenus. On pourrait les considérer comme des déchets, car sans grand intérêt pour la plupart des utilisateurs. Mais ils servent toutefois à l’industrie numérique pour renforcer la connaissance qu’elle peut avoir de nos profils, nous inciter à rester sur les plateformes, pour améliorer ses outils d’IA... Ils n’ont donc pas d’autres utilité que de servir le modèle économique de ces acteurs.
A-t-on vraiment conscience qu’il s’agit de contenus synthétiques ?
On s’en accommode. L’enjeu pour les plateformes est de modifier les habitudes. Sur Facebook, par exemple, les interactions ont fondamentalement muté en l’espace de dix ans, au fil des changements stratégiques imposés par Mark Zuckerberg. Au départ, le réseau valorisait les interactions individuelles, ensuite il a davantage mis en avant les contenus des médias pour pouvoir les monétiser.
Après cela, ce sont les interactions locales, via les groupes, qui ont été davantage mises à l’honneur. Aujourd’hui, c’est encore autre chose. La page d’accueil de Facebook ressemble à un bouquet de chaînes de télévision où l’on voit défiler des contenus très similaires. Cela produit de nouvelles normes : on voit tous la même chose tout le temps, tout en ayant l’impression de voir des contenus très personnalisés. L’interaction avec les pairs, elle, a disparu.
Elle subsiste dans les groupes privés...
Justement, cela questionne notre rapport à l’espace public en ligne. Aujourd’hui les interactions « naturelles » ont migré dans des espaces non visibles. Elles se nichent dans des groupes privés, familiaux ou professionnels, des conversations WhatsApp... Pour y accéder, il faut s’inscrire, répondre à des questionnaires, être invité... C’est aussi pour cela que les plateformes commencent à monétiser ces espaces qui ne l’étaient pas avant. On voit arriver dans Messenger ou WhatsApp de la publicité, des contenus poussés de manière algorithmique.
Vous dites que ce changement d’un web « naturel » à un web « synthétique » produit de nouvelles normes. Lesquelles ?
Les productions des générateurs d’images sont extrêmement normées. Ces générateurs mettent en place un certain nombre d’interdits : on ne peut pas demander des portraits de femmes aux sein nus, ni de Mussolini en train de jouer au volley avec Hitler... On finit par intérioriser ces interdictions et ces interdictions deviennent des normes.
De la même manière que l’on a intériorisé en utilisant Instagram à ne pas montrer certaines parties de notre corps. Dans le cas des générateurs d’images et de texte, ce qui est encore plus intéressant et dangereux c’est qu’on finit par brider et donc appauvrir la langue, donc notre capital culturel.
Vous défendez depuis longtemps l’idée que les réseaux sociaux entretiennent une ligne éditoriale, via les algorithmes de recommandation notamment. Ici, vous dites que les acteurs de l’IA, Meta, OpenAI et d’autres, « norment la langue », il s’agit d’une affirmation encore plus forte... Quel est leur intérêt selon vous ?
Le langage c’est un outil de négociation pour aller vers de l’interdit, du transgressif... Ces entreprises nous proposent une vision extrêmement utilitariste du langage. Les prompts sont des chaînes de production qu’il faut apprendre à utiliser. Par ailleurs, les modèles doivent répondre à certaines consignes d’évaluation. Les programmateurs doivent s’assurer de leur innocuité, de leur honnêteté...
Or si on enlève au langage sa capacité à mentir, à blesser, on lui enlève sa capacité à réparer les blessures. Et on finit par obtenir des interactions appauvries et normées, qui n’ont un intérêt que pour les sociétés qui les mettent en ligne.
La solution est-elle d’interagir avec des modèles de langage différents, qui n’ont pas la même vision du monde ?
Plus il y a de diversité, mieux c’est. Pour éviter l’aliénation à ces outils, il faut surtout rester en situation de pilotage, et pas de co-pilotage comme le suggère Microsoft [Microsoft a baptisé son assistant virtuel Copilot, et file cette comparaison de co-pilotage entre l’homme et la machine dans sa communication, ndlr]. Cela signifie comprendre comment ces modèles fonctionnent, pourquoi certaines choses peuvent être générées et d’autres non, vérifier à quel point les biais impactent le modèle...
Il faut aussi avoir conscience de l’existence de modérateurs et modératrices qui nous évitent de faire face à des productions langagières traumatiques. Mais ce qui est inquiétant c’est que les entreprises à l’origine de ces modèles ne sont pour la plupart pas transparentes. Elles disent elles-mêmes ne plus être en capacité d’auditer les bases de données, qui sont devenues trop grandes. Et même lorsqu’une couche technologique est open source (en accès libre), il est rare que l’ensemble le soit.
Vous évoquez l’effet magique produit par ces technologies. Mais au bout de deux ans, s’est-il estompé ?
A l’échelle individuelle, on s’aperçoit vite que l’effet de sidération passée - important avec ces outils - cela reste une technologie. Je le constate chez les étudiants. Il y a eu comme avec Wikipedia au départ une utilisation un peu clandestine de ChatGPT. Mais très vite, ils comprennent que les professeurs arrivent à le détecter.
Les productions sont tellement standardisées qu’elles sont reconnaissables. Et eux-mêmes perçoivent assez rapidement les limites. Ils s’aperçoivent que pour obtenir un résultat satisfaisant, il faut y passer du temps. Soit pour reprendre soi-même ce que ChatGPT écrit, soit pour affiner le prompt. Les étudiants développent une forme de méfiance vis-à-vis de l’IA actuellement.
Vous faites le parallèle avec Wikipedia, qui lui aussi avait effrayé certains enseignants, avant d’être finalement accepté...
Wikipedia, malgré la panique morale qu’il avait suscité à l’époque, reste un outil géré de manière transparente et collective. Les détournements et les erreurs sont rapidement corrigés. ChatGPT n’est pas transparent et derrière on trouve une entreprise avec de forts intérêts économiques.
Si ChatGPT se substitue à Wikipedia, on va dans le mur. Car pour le moment, il n’y a aucun moyen de vérifier où ce modèle puise ses connaissances.
Mais il ne faut pas tomber dans une forme de panique morale vis-à-vis de cet outil non plus. Car cette posture empêche toute forme d’explication. Il faut simplement se poser la question suivante : quels intérêts servent ces outils et qui parlent derrière ?