• La petite chronique sur l’IA qui pose la question que tu n’as pas envie d’entendre.

    Les humeurs de Gee sur « L’IA ne s’en ira pas » dans l’émission Libre à Vous proposée par l’April sur la radio Cause Commune, « la voix des possibles ».

    https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20250617/libre-a-vous-20250617-chronique-les-humeurs-de-gee.mp3

    L’émission complète : https://www.libreavous.org/251-l-association-la-mouette-et-la-bureautique-libre-l-ia-ne-s-en-ira-pa

    En prime, l’interview d’Infini, célèbre hébergeur brestois s’il en est :)

    #april #IA #AI #intelligence_artificielle #radio

    • La retranscription :

      Chronique « Les humeurs de Gee » intitulée « L’IA ne s’en ira pas »

      Isabella Vanni : Nous allons commencer avec la chronique « Les humeurs de Gee ». Gee, auteur du blog-BD Grise Bouille vous expose son humeur du jour : des frasques des GAFAM aux modes numériques, en passant par les dernières lubies anti-Internet de notre classe politique, il partage ce qui l’énerve, l’interroge, le surprend ou l’enthousiasme, toujours avec humour. L’occasion peut-être, derrière les boutades, de faire un peu d’éducation populaire au numérique.
      Le thème du jour : « L’IA ne s’en ira pas ».
      Bonjour Gee, c’est à toi.

      Gee : Salut Isa et salut à toi, public de Libre à vous !.
      Je suis désolé, mais il faut qu’on en parle. Oui, il faut encore qu’on parle d’intelligence artificielle. J’aurais préféré un sujet plus léger et plus fun pour ma dernière chronique de la saison, mais qu’est-ce que tu veux, c’est quand même le sujet du moment. J’ai compté, c’est déjà ma quatrième chronique sur l’IA, la toute première datant de mars 2023, en pleine explosion de popularité de ChatGPT. Et je ne suis pas le seul à en parler régulièrement, sur cette radio comme ailleurs.
      Quand un libriste, comme moi, parle d’IA, en général, il oscille entre trois axes :

      1. C’est dangereux, c’est écocide, c’est caca, c’est pipi, c’est capitaliste. Ce qui est vrai. Donc là, tu boycottes le truc et tu appelles massivement au boycott.
      2. C’est nul, regardez, ça ne marche pas bien, ChatGPT ne sait pas compter et il se plante sur des devinettes pour enfant, ce qui est vrai aussi. Là, tu es plus sur l’humour, tu rigoles en montrant que malgré les résultats, parfois impressionnants, ça fait quand même rapidement de la daube. Moi j’ai commencé plutôt sur ce mode, réécoutez ma première chronique sur le sujet pour vous e convaincre.
      3. C’est une mode, une bulle, c’est comme le Métavers et les NFT, on en voit partout, c’est insupportable, mais ça va finir par passer, ce qui est partiellement vrai. Oui, c’est insupportable ! En revanche, plus le temps passe, plus ça me semble très optimiste de penser que l’IA va finir par simplement disparaître, parce qu’insoutenable, parce que tout cela.

      Moi le premier, j’ai dit à plusieurs reprises que l’IA était une bulle, qu’elle allait finir par exploser et je le maintiens aujourd’hui. Je pense que l’IA est une bulle financière, mais il ne faudrait pas se méprendre sur ce que ça signifie : à la fin des années 90, il y avait un truc qu’on appelait la « bulle internet » et qui a éclaté au début des années 2000. Pourtant, au risque de te surprendre, Internet est toujours là. Pire, l’importance et le poids de l’Internet actuel feraient passer celui d’avant la bulle pour une charmante expérience sociologique. Ce n’est donc pas parce que la bulle financière de l’IA finira par éclater qu’il faut s’imaginer que l’IA disparaîtra dans la foulée sans laisser de traces. Lorsque la bulle éclatera, ça mettra, à n’en pas douter, un beau boxon économique et social – une reconfiguration du marché, comme on dit chez les conn… chez les néolibéraux – mais l’IA ne s’en ira pas. Il y a même un risque, comme avec Internet, qu’elle finisse par en ressortir plus forte que jamais.
      Le fait qu’elle soit insoutenable écologiquement est hors de propos : le système capitaliste est intrinsèquement insoutenable écologiquement et ça ne l’a jamais empêché de diriger la marche du monde, à sa perte, sans doute, mais tu vois bien que ça ne suffit pas à l’arrêter.
      Quant à un modèle économique viable, j’ai de moins en moins de mal à croire qu’OpenAI et compagnie le trouveront : nous sommes encore dans la phase « la première dose est gratuite », mais, ne nous y trompons pas, c’est une drogue redoutable dont des millions de gens deviennent déjà dépendants à vitesse grand V. Il ne faudrait pas que notre propre bulle – une bulle de filtre cette fois – nous fasse oublier que ChatGPT est devenu, en quelques mois, le logiciel avec le taux d’adoption le plus rapide de l’histoire de l’informatique, en gagnant plus de 100 millions d’utilisateurs et d’utilisatrices par mois. La pertinence des comparaisons avec le Métavers ou les NFT devrait s’arrêter là. Si ChatGPT cesse de fournir une version gratuite, je prends le pari que le taux d’adoption de la version payante sera lui aussi vertigineux. Et on verra fleurir des offres « forfait internet + abonnement ChatGPT », comme aujourd’hui Orange propose du « forfait internet + abonnement à Deezer ». Et ça marchera. Parce que l’IA générative est déjà devenue un besoin incontournable pour des millions de gens, à commencer par les plus jeunes. Une étude publiée jeudi dernier indique que 42 % des 18-25 ans déclarent utiliser l’IA tous les jours, 80 % l’utilisent au moins une fois par semaine. Un usage qui, à mon humble avis, va tout simplement tendre vers le taux d’usage des smartphones, avec ChatGPT qui deviendra une application aussi commune que WhatsApp ou YouTube, si ça n’est pas déjà le cas.

      Dans l’IUT d’informatique où je donne quelques cours, la quasi-intégralité des élèves ont toujours une fenêtre ChatGPT dans le navigateur, c’est devenu un outil aussi courant qu’un navigateur. Tous les élèves n’en ont pas exactement le même usage, il y en a qui l’utilisent avec parcimonie, avec recul et puis d’autres qui copient-collent les énoncés, puis copient-collent les réponses sans rien comprendre à rien… mais qui s’en sortent quand même. Pas les mêmes profils, ces élèves d’ailleurs, mais je vais y revenir. En tout cas, j’ai dû mal à leur en vouloir : à leur place, du haut de mes 18 ans, j’aurais sans doute fait pareil.
      N’empêche, la première fournée d’étudiants et d’étudiantes qui ont obtenu leur diplôme en déléguant l’intégralité de leurs études à une IA arrive déjà, et elle arrive vite, pas dans 5 ans, maintenant. Ce sont ces mêmes jeunes adultes pour qui la question de faire sans IA ne sera plus une option : s’il faut payer, ce sera fait.
      On me rétorquera que je parle d’un IUT d’informatique, ce qui est encore une bulle un peu particulière, eh oui, évidemment. Mais on a peu ou prou les mêmes échos en fac de droit, de langue, d’économie et même de médecine, ce qui m’inquiète un peu sur les compétences de nos futurs médecins.
      En plus, là je parle de jeunes adultes en train de faire leurs études, mais chez les 12-17 ans, on a 45 % des jeunes qui déclarent avoir déjà utilisé l’IA pour leur vie scolaire ou privée. Oui, parce qu’un cas d’usage apparemment très répandu, c’est l’IA comme confidente, à qui on raconte à sa vie, avec qui on dialogue comme avec un bon pote, mais en plus, un bon pote qui est toujours disponible, toujours poli, qui vous parle toujours avec bienveillance et patience.
      Une grande part de la génération actuelle d’étudiants et d’étudiantes ne peut déjà plus imaginer sa vie professionnelle sans IA ; une grande part de la génération actuelle de lycéens et lycéennes ne pourra bientôt plus imaginer sa vie sans IA.

      Donc, l’IA ne s’en ira pas.

      À ce titre, les appels au boycott de l’IA me semblent, au mieux, anachroniques, je suis désolé, c’est trop tard pour le boycott !
      Il n’est plus question d’empêcher l’avènement de l’IA, il est question de savoir comment on continue à lutter pour l’émancipation, pour la justice, pour l’écologie, pour l’égalité sociale, dans un monde où l’IA est omniprésente.
      Mon camarade Pierre-Yves Gosset, de Framasoft, allait même jusqu’à dire, dans sa dernière conférence sur l’IA, que pouvoir boycotter l’IA était un truc de privilégié. Oui, pour toi et moi, boycotter l’IA c’est facile, on a grandi sans, on n’en a pas besoin. De la même manière, perso je suis pour un boycott de la voiture pour des raisons écologiques. Évidemment, c’est facile pour moi qui habite dans un coin bien desservi par les transports en commun, qui n’ai pas d’enfant et qui bosse de la maison.

      Une grosse erreur que je vois souvent dans les milieux libristes consiste à voir l’IA comme un gadget de tech bro comme on dit, un joujou technologique pour jeune cadre riche, comme les lunettes connectées ou la blockchain. Et si l’IA est bien une idée de tech bro et de géant de la tech au départ, c’est à mon sens au contraire chez les classes populaires qu’elle a le plus d’impact.

      Je reviens à mon IUT. Un IUT d’informatique, ce n’est pas exactement la même chose qu’une école d’ingénieurs informaticiens : on a un brassage social beaucoup plus important, des gamins, gamines qui viennent du lycée général, d’autres de lycées technologiques ou professionnels, des gosses de prolos mélangés à des gosses de petits fonctionnaires ou autres, avec des niveaux extrêmement hétérogènes et tout le défi, pour les profs, est d’arriver à faire que les plus faibles ne soient pas largués par les plus à l’aise.
      Eh bien, ça va peut-être te surprendre, mais ce sont plutôt les gosses qui ont le plus de difficultés, souvent issus de milieux pauvres, qui usent et abusent de l’IA. Les élèves qui viennent de milieux plus favorisés sont, en général, les plus critiques de cette technologie. Dans un cours sur Android, on a récemment découvert avec mes élèves qu’Android Studio, le logiciel de développement, ajoutait à ses messages d’erreur ask Gemini », « demande à Gemini », l’IA de Google. Eh bien mon élève Thomas, issu de lycée général, jean, t-shirt, 16 de moyenne, a réagi par un « pff, c’est n’importe quoi ! ». Il a quand même essayé par principe, mais il a vite vu que Gemini racontait des salades, et, en lisant le message d’erreur, il a rapidement compris et il a corrigé par lui-même.
      Plus tard, pendant l’examen où tous les documents étaient autorisés – on ne voit pas l’intérêt de faire retenir du par cœur pour de la programmation –, Brandon, lycée technologique, survêt et baskets, 8 de moyenne, répondait aux questions de la manière suivante : il avait préparé un petit document où il avait fait bouffer l’intégralité du cours à ChatGPT, puis lui avait demandé de lui générer des dizaines et des dizaines de questions possibles. Et, pendant l’examen, il recherchait les termes des questions dans son petit document, il trouvait une question suffisamment proche et il copiait-collait la réponse. Vu la vitesse à laquelle il le faisait, je ne pense pas qu’il ait vraiment lu la moindre de mes questions. Je ne suis même pas certain qu’il ait compris de quoi le cours parlait, mais il a eu 11 à son examen. J’avais interdit Internet mais autorisé tous les documents, il a suivi les consignes, je ne vois pas bien pourquoi je l’aurais pénalisé. Thomas, qui a eu 17 en utilisant juste ses connaissances, aura, lui aussi, le même diplôme. Je précise au passage que j’ai changé les prénoms pour ne pas balancer mes élèves en direct.
      Maintenant, c’est sur le marché du travail que Thomas et Brandon se distingueront et, spoiler, c’est encore Brandon qui morflera.
      Parce qu’un informaticien ou une informaticienne qui sait juste taper des prompts, on peut en trouver qui n’ont pas des prétentions salariales de bac+3.
      Parce que l’IA sera, à la fin, malgré les illusions, un aggravateur d’inégalités sociales, un accélérateur de paupérisation des classes populaires.
      En même temps, qu’ai-je de mieux à proposer à Brandon ? Quelles sont mes chances d’arriver à lui faire « boycotter » l’IA qui lui a permis de décrocher un diplôme qu’il n’aurait sans doute pas eu sans, quand l’intégralité de ses camarades font de même ?
      ChatGPT a permis à une foule de personnes nulles en expression, en orthographe et en grammaire de pondre des lettres de motivation parfaites et d’arrêter de se faire recaler avant même l’entretien d’embauche !
      Qui suis-je, moi, du haut de mon doctorat et de mon capital culturel de fils de prof, pour leur dire de boycotter ?

      Oui, je sais, le monde sera meilleur quand on aura arrêté de considérer que les non diplômé⋅es méritent d’être pauvres, ou même quand on aura supprimé ces conneries de lettres de motivation, mais ça c’est comme abattre le capitalisme : je sais bien qu’on va y arriver la semaine prochaine, c’est une question de jours, mais, en attendant, on fait quoi ? On fait quoi pour les aliéné⋅es en attendant d’avoir aboli l’aliénation ? On fait quoi pour cette génération qui a intégré l’IA comme nous-mêmes avions intégré Internet, comme d’anciennes générations avaient intégré l’électricité ou l’eau courante ? On fait quoi pour tous ces gens qui utilisent l’IA pour aller mieux, pour améliorer leur vie, pour s’extraire de leurs conditions sociales ?

      Ah ça fait chier, comme question ? Moi aussi j’aurais préféré ne pas avoir à me la poser. Moi aussi j’aurais préféré qu’on empêche OpenAI et compagnie de développer leurs saletés. Moi aussi j’aurais préféré que cet ouragan n’arrive pas, mais c’est là, c’est partout, et ça ne s’en ira pas de si tôt.
      Boycotter, c’est-à-dire ne rien faire, c’est une bonne réponse à titre individuel, mais c’est comme aller bosser en vélo pour l’écologie. Déjà, il faut avoir la possibilité le faire, et surtout, ça ne suffira pas à l’échelle collective !

      Pour agir contre l’hégémonie de l’IA, il faut donc arrêter le déni, regarder cette réalité difficile en face, mais sans tomber pour autant dans la résignation ou l’aquoibonisme, bref, garder l’espoir que nous avons quand même le pouvoir d’améliorer notre monde. Et pour cela, j’aime bien citer ce dialogue du Seigneur des Anneaux. C’est Frodon qui se lamente de la guerre dans laquelle il est entraîné et dit : « J’aurais voulu que cela n’ait pas à arriver de mon temps. » Ce à quoi Gandalf, le magicien, lui répond : « Moi aussi, et il en va de même pour tous ceux qui vivent en de pareils temps, mais il ne leur appartient pas de décider. Tout ce qu’il nous appartient de décider, c’est ce que nous comptons faire du temps qui nous est imparti. »

      Alors, ami⋅e libriste, face à l’IA comme au reste, je te laisse pour l’été avec cette question : « Qu’allons-nous faire du temps qui nous est imparti ? »

      Isabella Vanni : Voilà ! Merci, Gee, pour cette chronique, nous avons donc tout l’été pour penser à une réponse.

      Gee : J’espère que vous aurez la réponse, parce que moi je ne l’ai pas tout de suite.

      https://www.librealire.org/emission-libre-a-vous-diffusee-mardi-17-juin-2025-sur-radio-cause-commun

    • Très intéressant. Juste pas vraiment convaincu par l’argutie morale à la fin, que je trouve pas du tout au niveau du début :

      En même temps, qu’ai-je de mieux à proposer à Brandon ? Quelles sont mes chances d’arriver à lui faire « boycotter » l’IA qui lui a permis de décrocher un diplôme qu’il n’aurait sans doute pas eu sans, quand l’intégralité de ses camarades font de même ?

      « de mieux à proposer à Brandon » ? mais plein de trucs : par exemple proposer des faveur sexuels à ses professeurs pour obtenir son diplôme qu’il ne pourrait pas réussir autrement. Qui serais-je pour « juger », quand l’intégralité de ses camarades font de même ? (J’écris ça juste pour indiquer que ce genre de question morale à base de « qui suis-je pour juger » me semble tout de même bien faible.)

    • Il faut voir le bon côté des choses : l’IA générative (puisqu’on ne parle que de ce genre d’IA) est très douée pour pondre des trucs sans intérêt, comme une lettre de motivation, je pense que ça va juste mettre définitivement fin aux lettres de motivations (déjà que c’était de moins en moins demandé).

      Mais sinon : j’ai un jeune stagiaire dans ma boîte qui effectivement a le réflexe de tout faire sur ChatGPT, la moindre recherche est faite dessus. Il faut dire qu’il y a un truc simple mais puissant sur ChatGPT, cela historise les recherches/réponses, ce qui génère une sorte de doc en même temps si on a besoin de retrouver rapidement un truc (c’est l’argument que le stagiaire m’a donné, ça se tient, si on excepte le fait qu’il devient dépendant d’un produit).

    • raph@tooter.social sur Mastodon :

      Je vais être un peu brut, mais la posture anti-IA de beaucoup de monde ici m’horripile. Pas que j’ai une affection particulière pour l’IA, même si comme des milliards d’autres humains je trouve ça pratique.

      Mais vous savez. Je sais. Nous savons. Si ça cartonne c’est parce que c’est efficace et que ça répond à une demande.

      L’argumentaire anti-IA dépolitise sa mise en oeuvre. Par exemple, discuter de comment la mettre entre les mains des citoyens pour la libérer de l’emprise du capital.

      Tout l’argumentaire anti-IA repose en fait sur un argumentaire anticapitaliste.

      Les entreprises derrière ces outils pillent du contenu sans l’accord de leurs auteurs ? Yep. C’est le capitalisme.

      Les data-centers consomment l’énergie de plusieurs grandes villes ? Devinez quoi ? C’est encore le capitalisme.

      Les interfaces isolent du reste du web ? Wait. You know.

      ect ect.

      https://tooter.social/@raph/114772379107721340

      Et les différents commentaires qui suivent.

    • Ouais il veut « faire du LLM à visage humain »… bah non ça marche pas. Tout comme une centrale nucléaire communiste autogérée, soit ne peut pas exister, soit si elle existe sera exactement la même merde que la centrale nucléaire capitaliste. Pareil pour les LLM. (et pareil pour les smartphones et l’infrastructure mondiale nécessaire, etc).

    • « ça répond à une demande », alors là faudrait voir. Je l’utilise un peu dans le cadre pro (quasi exclusivement pour me générer des tests unitaires, de la même façon que mon IDE est depuis longtemps capable de me générer des morceaux de code spécifiques comme base de travail) mais dans ma vie perso je n’ai jamais vraiment ressenti le besoin de ça (et je m’en sers absolument jamais). Surtout que je vois bien que dans mon domaine d’expertise (le code), ça génère toujours pas mal de conneries, donc si je n’y connais rien dans un autre domaine j’ai d’autant plus de raison de ne pas l’utiliser. Par contre le marketing m’y incite, chaque jour. Bref, la « demande » se crée. Et il y a cette croyance que cela va être de plus en plus fiable (les LLM). Eh bien non, on arrive déjà aux limites du truc, les expert⋅e⋅s du domaine expliquent en long et en large que cette techno a de fortes limites et qu’il faut encore attendre des années et des années (si ça arrive) avant d’avoir un autre type d’IA plus convaincant.

      Alors bien sûr il y a des cas d’usage intéressant mais ils sont (très) spécifiques et avoir mis cet outil entre les mains de tout le monde et partout est criminel à mes yeux. Reste un espoir : beaucoup d’outils à base d’IA générative promettent des merveilles mais sont en réalité absolument nuls et les gens commencent à s’en apercevoir, il n’est donc pas impossible que cette bulle éclate plus vite que prévu, d’autant plus que pour le moment c’est aussi un gouffre financier pour les entreprises phares du secteur et rien ne dit que ce sera rentable un jour.

    • @rastapopoulos Si on sépare les usages finaux de tout la partie apprentissage, est-ce qu’il ne pourrait pas y avoir une IA des chatons par ex, il existe bien des LLM libre ? Mais peut-être qu’ils ne sont pas performants et/ou que ça demande une infra trop lourde ?

      @b_b tu sais s’il y a des discussions au sein des Chatons ou bien c’est pas du tout réaliste ?

    • @jeanmarie je lisais l’article cité ici https://seenthis.net/messages/1115487 hier soir et justement il aborde un peu la question cf :

      Même s’il est effectivement possible de faire des petites IAs éthiques aux impacts moindres, cela participe à l’acceptation générale de toutes les IAs génératives potentielles, dont celles qui ont un impact énorme et sont fort peu éthiques.

      À propos des CHATONS, non je n’ai pas vu d’échanges à ce sujet sur https://forum.chatons.org

    • @jeanmarie ce qui demande des ressources monstrueuses c’est à la fois l’apprentissage (et la mise à jour permanente avec toujours plus de données à jour) ET ensuite l’utilisation massive.

      D’une part tu ne peux pas juste télécharger un modèle de language ou d’images, en te disant « je l’utilise dans mon coin et moi je ne consomme pas trop », sans te poser la question d’où il sort, comment il a été fait. (et de toute façon les modèles libres ne sont pas à jour et ne servent pas à faire grand chose, il faut que ce soit relié à d’autres bases de connaissances énormes pour que ça serve à quelque chose, c’est qu’une partie du problème de savoir lire et écrire en phrases humaines)

      Hors capitalisme, il pourrait bien sûr n’y avoir qu’un unique modèle commun et libre mondial (ou plusieurs moyens ciblés mais tous communs), plutôt que plein d’entreprises qui se battent et polluent pour essayer de générer au final exactement la même chose. Déjà ça polluerait bien bien moins c’est sûr, de mutualiser. Mais ça polluerait quand même horriblement, si tout le monde l’utilise.

      Mais ensuite le cumul de l’utilisation massive consomme encore bien plus que la création des modèles : des milliards de requêtes par jour, chacune consommant bien plus qu’une recherche dans des bases de données (même énorme comme celle de Google). Et évidemment encore plus pour générer une image ou une vidéo qu’un texte, mais déjà le texte ça consomme beaucoup.

      Donc t’auras beau installer ça sur un Chaton : ça consommera pareil pour générer des choses que tu voudras libre (de la musique, un plan et calendrier de permaculture, des lettres administratives chiantes, ou que sais-je).

    • J’avais manqué de le partager, et je n’avais pas réussi à exprimer ce qui me gênait dans cette conclusion moralisatrice, à la fin. Je n’ai tjs pas réussi, mais j’avance. Et je découvre seulement maintenant votre fil. Ces LLM ne sont pas neutres, ne sont pas fiables. Ce matin, je pensais à l’argument qui dit qu’il n’y a pas de différence entre un LLM et une encyclopédie, ça facilite l’accès à la connaissance, mais en fait non. L’encyclopédie aussi peut ne pas être neutre, OK, mais... l’encyclopédie est figée au moins pour un temps plus ou moins long, elle a une piste d’audit pour comprendre comment la connaissance partagée est dans l’état dans lequel elle est (si on parle de Wikipédia par exemple), alors que dans le cas des LLM, rien de tout cela n’existe, et n’existera jamais. Les réponses données pourront évoluer d’un instant à l’autre, d’un interlocuteur à l’autre (cf. les propos de Musk à propos de Grok qui parfois serait trop woke et qu’on va arranger ça). Il y a un vrai problème. Au delà du fait que ces LLM en plus ne sont pas (encore ?) fiables.

      L’inéluctabilité de l’usage des IA me semble être un énorme mirage, sinon un piège que l’on nous tend. Et je ne crois pas qu’affirmer qu’il n’y a pas le choix soit le marqueur d’une hauteur de vue particulière.

    • @biggrizzly je pense que tu confonds LLM et contenu de la réponse/recherche. Car les outils grands publics mélangent l’ensemble des fonctionnalités à la fois.

      Le LLM sert avant tout à « comprendre » (même si techniquement derrière ce n’est fait que de manière statistique) le prompt envoyé, et à répondre avec des phrases humaines dans n’importe quelle langue.

      Mais le contenu de la réponse lui il est bien totalement personnalisable. Cela fait un moment qu’on a des outils (RAG) qui permette d’utiliser les LLM comme outil d’interaction uniquement (permettant la forme chatbot ou assimilé) mais par contre en demandant explicitement de ne générer des réponses uniquement avec des données fermées précises.
      https://fr.wikipedia.org/wiki/G%C3%A9n%C3%A9ration_augment%C3%A9e_de_r%C3%A9cup%C3%A9ration

      Et même mieux : ça permet d’avoir des réponses avec des données à jour (dès que tu ajoutes des nouveaux contenus dans ta base vectorielle) sans ré-entrainement du modèle utilisé, qui ne sert vraiment qu’à « parler bien ».

      Cela donne comme des moteurs de recherche améliorés, mais avec toujours des réponses que dans ta base à toi. Ça peut être les données de ton entreprise, ou même on peut parfaitement coder ça pour wikipédia par exemple (ça m’étonnerait qu’il n’y ait pas déjà un projet comme ça non ?). Genre tu mets tout wikipédia de toutes les langues du monde dans une base vectorielle, et tu utilises un moteur LLM pour pouvoir poser des questions et avoir des réponses entièrement en language naturelle, mais que avec des infos « vérifiées » par wikipédia.

      Bref tout ça pour dire que rester dans le « c’est pas fiable » n’est pas une argumentation très intéressante il me semble, et l’est de moins en moins dès lors qu’il y aura partout des utilisations ciblées comme ça.

      Et je pense vraiment que sur le moyen-long terme ça sera l’utilisation qui va rester le plus et qui sera rentable (car les prestataires OpenAI etc vendent alors des tokens d’utilisation de leurs modèles par API pour des utilisations métiers).

    • Il y a des gens qui parlent d’IA pour désigner le phénomène, et là, j’ai préféré parler de LLM, pour désigner le phénomène ChatGPT/Grok/Claude, qui sont des agents prétendant répondre à toutes tes questions. Ces agents sont liés à des contenus divers, et massifs, dont les poids ont été massivement ajustés par des millions d’actions humaines de la part de ce que certains désignent comme les nouveaux esclaves numériques sans qui tout ce phénomène s’écroulerait.

      La technologie sous-jacente est sans doute intéressante, et je te remercie pour ton cours magistral, mais pour pouvoir les exploiter, encore faut-il avoir des contenus assez massifs pour qu’ils soient capables d’être rendus utiles. Les cas d’usage pour le tout venant est très restrictif, y compris en entreprise. Il y a 5 ans, on te me promettait que le Watson d’IBM, qui était massivement déployé dans les banques et assurances allait remplacer tous les employés, et 5 ans après, on te me jure la même chose de OpenAI, et on a oublié Watson.

    • Mais encore une fois les LLM c’est pas l’outil final de ChatGPT ou Grok ou Claude. Dedans ça utilise leurs modèles et c’est lié à des recherches dans les contenus sources en plus parfois et d’autres outils supplémentaires (du genre « réflexion en plusieurs étapes » etc).

      Les modèles de language (LLM) seuls, t’es pas obligé de lui faire répondre avec ce qu’il « connait » (hum) dans son modèle et qui est forcément un instantané de quand il a été entrainé, mais uniquement avec des données fermées dans une base précise (qui peut être opendata, libre, ouverte, ou métier de ton entreprise).

      Ça n’a bien sûr un intérêt que si tu dois chercher dans une base un peu importante, mais pas forcément. Surtout ça a un intérêt si tu cherches pas juste « où se trouve tels mots » (à ce moment là juste ElasticSeach, Manticore etc suffisent), mais bien quand tu cherches des questions sémantiques précises, même si ta base n’est pas si grosse. Et que tu ne veux pas apprendre à tout le monde à savoir faire des requêtes graphes ou SQL.

      Genre « quels sont les acteurs ayant joué James Bond » (dans wikipédia) ou « à quelles amendes ont été condamné Google et Apple dans les 10 dernières années et pour quelles raisons » (dans la base des décisions juridiques)… avec des sources fiables dans TA base à toi.

      Les outils finaux de ChatGPT, Grok, Claude, montrent un peu ce que ça permet et surtout ont rendu la chose acceptable et grand public, mais en produisant plein d’hallucination si on pose des vraies questions précises (et pas juste à générer des lettres).

      Ce que je dis, c’est que la technologie pour répondre fiablement à des questions avec des données vérifiées ça existe, et qu’il me semble que sur le long terme c’est ça qui sera utilisé majoritairement. À la fois parce que les utilisateurs ont absolument besoin de réponses fiables et à jour dans leur domaine (un⋅e juriste ne doit pas avoir d’hallucination sur les jurisprudences !) ET parce que c’est ça qui sera rentable pour OpenAI et compagnie, car l’utilisation par API de leurs LLM ça ils peuvent le faire payer. Et donc ça va être utilisé massivement parce que c’est utile à plein de monde, pas juste par mode et buzz.

      De mon point de vue la seule critique qui reste valable quelque soit l’évolution, c’est la critique techno, la pollution, l’énorme infrastructure industrielle qu’il faut pour tout ça. Et sûrement aussi la critique de ce que ça fait à notre cerveau de plus faire plein de choses « par nous mêmes ».

    • @rastapopoulos :

      Genre « quels sont les acteurs ayant joué James Bond » (dans wikipédia) ou « à quelles amendes ont été condamné Google et Apple dans les 10 dernières années et pour quelles raisons » (dans la base des décisions juridiques)… avec des sources fiables dans TA base à toi.

      Les LLM ne sont pas conçus pour dire les faits. Ils sont conçus pour répondre en probabilité.

      Mais à la limite, imaginons qu’ils parviennent à réduire l’écart, un jour, pour atteindre 99 voire 100%, oui, alors, ils seront capables de débiter à coup sûr la liste des accidents sur des sites SEVESO dans les 30 dernières années. Actuellement, aucun LLM n’est capable de le faire, sauf à les entraîner uniquement avec ces uniques informations. Et encore, il y a une chance qu’ils inversent des dates, des lieux, des noms de sites.

      Ceci dit, nous ne parlons pas de la même chose. Mon propos, en intervenant ici, n’est pas de dire si oui ou non, cette technologie est utile. Mon propos, c’était de réagir à la conclusion de Gee, qui dit que les IAG/les LLM qu’on nous demande d’utiliser à grand renfort de marketing, ça va être incontournable, ou pas, parce que Gee, il nous dit que de lutter, c’est déjà perdu, parce que c’est plié, la démonstration est déjà faite que l’utilisation de ces outils est devenu obligatoire de fait. Je ne le pense pas, mais l’exprimer est encore complexe.

      Mon propos, là, c’est de dire que ça ne le sera pas. Que les tentatives maladroites actuelles vont s’écrouler sur elles mêmes. J’ajoute que politiquement, ce qui est développé actuellement est particulièrement néfaste, et à mon sens, un jour, on va les déconnecter, du fait qu’elles vont se révéler nocives et traîtres, exactement comme Office 365 est en train de se faire déconnecter malgré les services rendus manifestes. Nocives et traîtres non pas du fait d’une improbable émancipation. Mais nocives et traîtres du fait de leurs propriétaires, et de l’agenda de ces propriétaires.

      Et je n’ai même pas commencé à évoquer les questions des ressources, posées par l’implémentation actuelle de ces technologies.

    • Actuellement, aucun LLM n’est capable de le faire, sauf à les entraîner uniquement avec ces uniques informations.

      @biggrizzly cette phrase montre que c’est pas certain que tu ais compris mon explication plus haut que tu as appelé « cours magistral » car c’est pas du tout comme ça que c’est utilisé de plus en plus avec les RAG.

      Les LLM sont juste les modèles de langage qui servent à « lire/comprendre » (statistiquement) les prompts et à répondre en phrases humaines.

      Ensuite ils sont utilisés parfois « tel quel » pour générer ce qu’on veut, mais donc avec des hallucinations possibles, puisqu’ils répondent seulement « en l’état de leur entraînement ».

      Mais de plus en plus (et ça ne fait qu’augmenter), ils sont utilisés comme outil de dialogue naturel uniquement mais qui vont chercher leurs réponses dans des données précises.

      Donc si si c’est parfaitement d’ors et déjà possible d’avoir un chatbot « qui parle comme un humain » et qui répond à 100% correct à tes questions sur un domaine précis sans strictement aucun entrainement dans ce domaine (c’est ce point qu’il faut comprendre), uniquement parce que tu le « connectes » avec un RAG qui dit « répond moi seulement avec cette base de données ».

      Si tu as une base d’une asso écolo qui recense toutes les pollutions du siècle passé (dont les accidents SEVESO à l’intérieur), et même si tu viens d’ajouter 10 trucs dedans aujourd’hui même, il te répondra la bonne chose avec des sources, et dans ta langue naturelle. Et pourtant derrière ça sera avec le modèle GPT4 ou Claude qui ne connait rien à ce que tu lui as demandé, mais parce que relié à un RAG avec les bonnes sources fiables.

      C’est vraiment comme ça que sont utilisés les LLM dans les chatbots professionnels aujourd’hui, à aucun moment c’est en demandant ça à ChatGPT « tout seul ».

      Et donc :
      – les vendeurs de LLM sont déficitaires car pour le grand public ils ne vendent rien (sauf si ça fini par être inclus dans les abonnements de box internet)
      – en revanche ils vendent bien leur utilisation par API à intégrer dans d’autres outils (dont majoritairement des RAG)
      – les utilisations hallucinantes grand public peuvent bien se casser la gueule comme tu dis
      – mais l’utilisation pour décrire une question et avoir une réponse en langage naturel MAIS dans des sources fiables, je ne vois pas pour quelle raison ça se casserait la gueule : car à la fois utile, fiable ET potentiellement rentable pour OpenAI et consorts.

    • Bé c’est pas du RAG ça @alexcorp , c’est un chatbot grand public à qui on donne des liens à lire… qu’il lira peut-être s’il a envie (mais qui continue d’utiliser ses pseudo-connaissances entières). C’est pas un truc qui utilise le LLM seulement pour produire des phrases lisibles, mais dont la recherche se fait entièrement dans une base dédiée il me semble (ou j’ai mal compris).

    • @rastapopoulos non c’est censé aller chercher à la source (c’est la dernière grande promesse de ces outils, en version payante) et on voit que le truc hallucine toujours, mais avec beaucoup de confiance s’il vous plaît (des mauvaises langues diront que c’est normal car ce sont des hommes qui sont majoritairement derrière ce genre d’outils). Même avec la technique du RAG, la génération de la réponse est toujours susceptible de produire des choses fausses et le taux « d’erreur » baisse à peine (et surtout c’est plus compliqué de les détecter, surtout que la confiance de l’utilisateur est potentiellement plus élevée).

    • @alexcorp proof or it doesn’t exist :p Je n’ai jamais vu d’hallucination majeure si dans le pré-prompt d’un RAG tu configures bien « réponds uniquement avec le contexte de la base sans rien inventer et réponds que tu n’as pas assez d’infos si tu ne trouves pas ».

      En tout cas l’exemple donné n’est clairement pas un RAG avec un pré-prompt dédié conçu pour une base donnée, mais l’utilisation d’un chatbot grand public en lui demandant de lire un lien quelconque sur internet, donc logique qu’il puisse toujours halluciner.

    • C’est du mauvais RAG oui mais ça en est quand même. À vrai dire, même très bien configuré il n’y a pas de certitude d’avoir un résultat exact à partir du moment où on va demander de générer une réponse et non afficher la source (comme un moteur de recherche).