• #Elisabeth_Bik, expert in scientific integrity: ‘We need to slow down scientific publishing’

    The Dutch microbiologist has been voluntarily searching for duplicate, erroneous or retouched academic images for more than 10 years and warning universities and scientific journals about it.

    Elisabeth Bik, 57, does the work of a detective. She spends hours reading and rereading documents, delving into pages, making notes, asking questions and solving cases. But her cases have nothing to do with murders, scams, robberies, infidelities or state secrets, but rather science. A microbiologist by profession, she has been a scientific integrity consultant since 2019 and has revealed academic errors in thousands of scientific articles. Her analyses focus on images that accompany a research paper that may have been retouched or duplicated by the authors, either by mistake or for fraudulent purposes. Bik, who speaks to EL PAÍS by video call, believes that the publication of scientific articles has become an unstoppable and accelerated wheel and that it must be slowed down to prevent a rise in falsehoods and manipulations.

    Question. What led you to your interest in fraud in scientific literature?

    Answer. One day I read about plagiarism, I took a sentence from an article I had written and put it in quotes in Google Scholar. The result was not only my own paper, but there were two other hits: one was in another article and the other was in a book chapter. The authors, who were from Italy, had taken two of my paragraphs and also paragraphs from other authors and built a new article by stealing a paragraph here and a paragraph there. That made me very angry, so I started searching for more examples of plagiarism. It was like a hairball, you find one thing and you start pulling and you find more.

    Q. And the manipulated images?

    A. By accident, I found in a PhD thesis not only plagiarized text, but also duplicated images. There were three photos and they were all the same, but one was mirrored, it was a mirror image but recognizable. I thought, I’ve seen this before. Then I switched from looking for plagiarized articles to looking for image duplication because it’s faster. Plagiarism took time, you have to put each sentence in Google Scholar and it was very slow.

    Q. How many articles have you analyzed?

    A. I searched 20,000 papers and found around 800 of them to contain these duplications. By now, about half of them have been corrected or retracted. I reported them in 2015, nine years ago, although I did not report them all at once. After five years, about 30% had been corrected or retracted and now it is about 50%. Many of these articles are still being corrected or retracted.

    It’s not always clear whether problems in images are fraud or an honest error

    Q. Do you consider this a high or low number of corrections?

    A. Now it is approximately half, but the fact that before most of these articles had not been acted up was very surprising and a disturbingly low [correction] number. I was frustrated by the lack of responses from the journals. These numbers are still going up because I’m sending reminders and calling them out on Twitter: “Hey, this paper I reported in 2015, you still haven’t done anything.”

    Q. What do you think the reason for this is?

    A. There could be a multitude of reasons. Sometimes an editor, especially if it’s from a smaller journal, might have never had to deal with suspicions of misconduct or a correction. And they just don’t know what to do. They might contact the author, but maybe that person moved to another university or they have a very common name and they are not sure if the person is the same person who wrote the paper 10 years ago. Or the author may send a reply and say, “Oh yeah, sorry, here are some new images.” And then the editor thinks: “Well, case closed.” But they don’t really address it. They feel that the case has been closed, but they don’t report it to me, for example.

    Q. What is considered a fraudulent scientific image?

    A. It is not always clear if problems in images are fraudulent or an honest error. I have three categories of duplications that I look at. One is when the exact same photo has been used to represent figure one and figure three. It’s the same photo, but they are representing different experiments. That could be an honest error, somebody grabs the wrong photo. The second is whether the images overlap or are rotated or shifted or stretched. It’s a little more likely that that was done on purpose, with the intent to mislead, especially when it’s a rotated photo. That usually doesn’t happen by accident. And the third type is when within a photo you see duplicated bands or cells or tissues. That is done intentionally, the cells don’t use Photoshop.

    Q. Why does someone duplicate the image of a cell with Photoshop?

    A. Sometimes it is to hide a crack or a hair or some dust on the lens. But it could also be intentionally to make it look like there are more cells or fewer cells. So they copy the background over some cells, for example. You never [fully] know why it was done or if it was fraud. We may have an idea if something was done intentionally, but there could be an innocent reason behind it. For me, it’s hard to know. Some cases are very obvious that it was misconduct, but in most, you’re not quite sure.

    Q. What happens next?

    A. The editor needs to ask the author and the author needs to produce the original photos. I’ve seen cases where the author says there was a crack in a corner and they patched it up with some background tissues. In most cases, only the institution can do an investigation. They need to investigate the author or the research group and they need to compare the lab books to what has been published. That can obviously take a long time. That’s another reason why these papers aren’t retracted. In some cases, the institution claims to be investigating, but they don’t really want to investigate because it’s their star professor.

    Q. How do you know if an article may contain these types of images?

    A. I get tips from people, but I’m still working off my initial research of 20,000 articles. I found 800 papers with problems, I can follow leads. For example, I found a problem in such and such an article, I can look at other articles by the same authors and see if there is a problem associated with a particular person, moving from one lab to another, or if it is a problem in that lab where maybe there’s sloppiness or a culture of misconduct. I follow all these leads and I get a daily stream of people saying, can you look at this paper?

    In some cases, the institution claims to be investigating, but they really don’t want to investigate because it is their star professor

    Q. What is the process for identifying manipulated images?

    A. I download the article or look at it online. I look at figures that are photos, or a bar graph or a line graph or something similar. I look for things like missing error bars or weird bars or axes numbering that doesn’t make sense, or repetitive features on a spectrum. I scan by eye, but I also use software: ImageTwin and Proofic. The first one has a lot of false positives, because a lot of photos look similar, and you have to work through them and de-click them. But it has a database of photos from other papers that are open access and compares all the photos in a particular article against that big database. It’s like a Google image search, but focused on scientific papers.

    Q. On more than one occasion you have mentioned that your inquiries, especially at the beginning, were not always taken seriously.

    A. In the beginning, many people did not believe what I was finding. They thought it was something only I saw. Imagine you’ve written a bunch of articles and someone comes back and says, “some of the articles you wrote five years ago contain a typo and I want that to be corrected.” You think, “Who cares?” They just didn’t pay attention. Even my collaborators didn’t believe me at first either. After we published the article where we showed that this happens, that you can find errors in one in every 25 articles, they saw that it was a real problem and took us a little more seriously. I have gained credit that I don’t make wrong accusations, but it takes time.

    Q. Years later, you continue to encounter resistance and not very positive reactions from the scientific community.

    A. No one likes to be criticized for the work they produce. If someone finds and points out an error in your work, you may feel annoyed, angry and defensive. They say things like, “Yes, but I wasn’t feeling well,” or “we just moved labs and made some mistakes.” They try to find excuses or claim that it was someone else’s fault. Most of them become a little defensive, but some are even aggressive and start attacking me, digging into my past, they find out where I live, who my family is. Then they lash out on Twitter or write weird articles about me, about how I’m an evil person. But there is no evidence that I was wrong. For now I have not been sued, they’re just threats. I’ve been extremely lucky, but at some point I’ll run out of luck.

    Q. Has the use of manipulated images increased, decreased or stayed the same in recent years?

    A. It has increased and it has also decreased. It grew from 2010 to 2018-2019 and is now declining because people simply do a better Photoshop job and they know that we can screen for these things. There are many ways to cheat that leave no trace and are becoming harder to see because the fraudsters are getting smarter. Also because of the rise in the [use] of artificial intelligence. Now we can create images that are completely unique and fairly realistic that, with my techniques and software, I cannot detect as a problem.

    Q. Are you worried about artificial intelligence?

    A. Very much. It’s true that it can be used to do good things, obviously, but it can also be used by the fraudsters to create fake images, fake data, fake text. I’m not completely worried about fake text; scientific data fraud worries me more than text generation. You can ask it to generate a fake set of patients, split them into two groups and do some experiment with them. It is so good that we can no longer distinguish those sets from real data sets. We’re only going to catch the really dumb fraudsters because they leave traces for us to find. There are smart fraudsters who will be very thankful for AI that can help them generate even more fake papers.

    Q. Do you think part of the problem has to do with how quickly scientific publications are supposed to be produced?

    A. Definitely. We focus on metrics to evaluate a scientist’s career: how many articles they have published, how many times they were cited, what was the impact factor of all these articles. These are numbers you can look at and it’s easy to rank your candidates according to these metrics. People are going to try to fake these metrics, they’re going to cite themselves a lot, or they’re going to buy a paper from a paper mill or slice their papers into little pieces and publish all of them. There are universities that have strict requirements. For example, if you want to get your PhD, you need to publish two or three papers before you can get it. That’s not completely fair, because you can be a brilliant scientist, but the experiments might not work and you may not have published any papers.

    Q. How do you think scientific journals are responding to the detection and prevention of image manipulation?

    A. Now they are realizing it, but I think it’s too late. They have not been very vigilant in finding these problems, especially for paper mills. It’s not just individual labs that are cheating, it’s a criminal organization that is pumping out paper after paper. And those have not been picked up by journals, they’ve been picked up by volunteers. We’ve been alerting the journals that they need to set safeguards a little higher and not let this crap go through. After they are published, it’s very obvious that it’s fake.

    Journals are starting to set up safeguards like image duplication detection by screening for #ChatGPT -generated language, and in the meantime, fraudsters know we’re going to screen for these things. It’s a rat race where the fraudsters will always win, but we can make it harder for them. We need to slow down scientific publishing.

    https://english.elpais.com/science-tech/2024-04-26/elisabeth-bik-expert-in-scientific-integrity-we-need-to-slow-down-sc
    #édition_scientifique #recherche #publication #ESR #revues_scientifiques

    • Excessive use of words like ‘commendable’ and ‘meticulous’ suggests ChatGPT has been used in thousands of scientific studies

      A London librarian has analyzed millions of articles in search of uncommon terms abused by artificial intelligence programs.

      Librarian Andrew Gray has made a “very surprising” discovery. He analyzed five million scientific studies published last year and detected a sudden rise in the use of certain words, such as meticulously (up 137%), intricate (117%), commendable (83%) and meticulous (59%). The librarian from the University College London can only find one explanation for this rise: tens of thousands of researchers are using ChatGPT — or other similar Large Language Model tools with artificial intelligence — to write their studies or at least “polish” them.

      There are blatant examples. A team of Chinese scientists published a study on lithium batteries on February 17. The work — published in a specialized magazine from the Elsevier publishing house — begins like this: “Certainly, here is a possible introduction for your topic:Lithium-metal batteries are promising candidates for….” The authors apparently asked ChatGPT for an introduction and accidentally copied it as is. A separate article in a different Elsevier journal, published by Israeli researchers on March 8, includes the text: “In summary, the management of bilateral iatrogenic I’m very sorry, but I don’t have access to real-time information or patient-specific data, as I am an AI language model.” And, a couple of months ago, three Chinese scientists published a crazy drawing of a rat with a kind of giant penis, an image generated with artificial intelligence for a study on sperm precursor cells.

      Andrew Gray estimates that at least 60,000 scientific studies (more than 1% of those analyzed in 2023) were written with the help of ChatGPT — a tool launched at the end of 2022 — or similar. “I think extreme cases of someone writing an entire study with ChatGPT are rare,” says Gray, a 41-year-old Scottish librarian. In his opinion, in most cases artificial intelligence is used appropriately to “polish” the text — identify typos or facilitate translation into English — but there is a large gray area, in which some scientists take the assistance of ChatGPT even further, without verifying the results. “Right now it is impossible to know how big this gray area is, because scientific journals do not require authors to declare the use of ChatGPT, there is very little transparency,” he laments.

      Artificial intelligence language models use certain words disproportionately, as demonstrated by James Zou’s team at Stanford University. These tend to be terms with positive connotations, such as commendable, meticulous, intricate, innovative and versatile. Zou and his colleagues warned in March that the reviewers of scientific studies themselves are using these programs to write their evaluations, prior to the publication of the works. The Stanford group analyzed peer reviews of studies presented at two international artificial intelligence conferences and found that the probability of the word meticulous appearing had increased by 35-fold.

      Zou’s team, on the other hand, did not detect significant traces of ChatGPT in the corrections made in the prestigious journals of the Nature group. The use of ChatGPT was associated with lower quality peer reviews. “I find it really worrying,” explains Gray. “If we know that using these tools to write reviews produces lower quality results, we must reflect on how they are being used to write studies and what that implies,” says the librarian at University College London. A year after the launch of ChatGPT, one in three scientists acknowledged that they used the tool to write their studies, according to a survey in the journal Nature.

      Gray’s analysis shows that the word “intricate” appeared in 109,000 studies in 2023, more than double the average of 50,000 in previous years. The term “meticulously” went from appearing in about 12,300 studies in 2022 to more than 28,000 in 2023. While instances of “commendable“ rose from 6,500 to almost 12,000. The researcher jokes that his colleagues have congratulated him on the meticulousness of his report, still a draft pending publication in a specialized journal.

      Very few studies report if they have used artificial intelligence. Gray warns of the danger of “a vicious circle,” in which subsequent versions of ChatGPT are trained with scientific articles written by the old versions, giving rise to increasingly commendable, intricate, meticulous and, above all, insubstantial studies.

      Documentation professor Ángel María Delgado Vázquez highlights that the new analysis is focused on English-language studies. “Researchers who do not speak native English are using ChatGPT a lot, as an aid to writing and to improve the English language,” says Delgado Vázquez, a researcher from the Pablo de Olavide University, in Seville, Spain. “In my environment, people are using ChatGPT mainly for a first translation, or even to keep that translation directly,” he says. The Spanish professor says he would like to see an analysis on the origin of the authors who use the unusual terms.

      Another one of AI’s favorite words is “delve.” Researcher Jeremy Nguyen, from the Swinburne University of Technology (Australia), has calculated that “delve” appears in more than 0.5% of medical studies, where before ChatGPT it was less than 0.04 %. Thousands of researchers are suddenly delving.

      Librarian Andrew Gray warns there is a risk of broader society becoming infected with this meticulously artificial new language. Nguyen himself admitted on the social network X that it happens to him: “I actually find myself using “delve” lately in my own language—probably because I spend so much time talking to GPT.” On April 8, the official ChatGPT account on X chimed in: “I just love delving what can I say?”

      https://english.elpais.com/science-tech/2024-04-25/excessive-use-of-words-like-commendable-and-meticulous-suggest-chatg

  • Et si on laissait réellement à des IA les rênes d’un site ?
    https://threadreaderapp.com/thread/1649163855375769613?refresh=1713511502


    #merdification

    Il y a quelques semaines, j’ai voulu tenter une expérience.
    Et si on laissait réellement à des IA les rênes d’un site ? J’ai donc créé un network de sites gérés à 100% par des IA (#chatGPT notamment), totalement autonomes… Le network Generation !
    Thread explicatif ⤵️⤵️ Image
    2 sites, l’un qui est un site de news technologiques, et l’autre est un site de recettes de cuisines. Les 2 fonctionnent aujourd’hui sans aucune intervention humaine, et crées du contenus « original », en choisissant leurs sujets. Image
    Le 2nd d’abord, cuisine-generation.fr/un site de cuisine, qui crées de nouvelles recettes originales chaque jour, ainsi que les photos (qui n’existent donc pas non plus) – déjà 380 recettes, inventées ! Image
    Cuisine Generation - La cuisine générée, pour vous !
    Une touche fruitée Les plats en sauce
    https://www.cuisine-generation.fr/un
    Géré par 4 chefs (qui n’existent pas donc) eux-mêmes inventés par des IA.
    Allez vous trouver l’anagramme derrière les noms ? ImageImageImageImage
    Des recettes de saison, toujours originales et personnalisées par les "chefs génératifs" ImageImageImageImage
    De belles recettes, qui donnent envie !
    Je n’ai pas encore fait de recettes du site mais si jamais vous êtes tentés, n’hésitez pas à faire un retour et une comparaison avec l’image créée par l’IA ! ImageImageImageImage
    Chaque « chef » met sa touche de personnalité, anecdotes, avec humour ! ImageImageImageImage
    Le 2nd site, tech-generation.fr Tech Generation est un site de news tech, avec déjà plus de 750 articles. Le constat est que la majorité des news tech sont à 80% des reprises de sites américains, et reformulés… (je ne critique pas du tout c’est même essentiel) Image
    Tech Generation - La technologie générée autrement
    https://www.tech-generation.fr
    On retrouve ici aussi 2 « journalistes génératifs » avec chacun leur style ImageImage
    Les sources sont toujours indiquées, les articles sont des résumées et des reformulations avec « la patte » de chaque journaliste (humoristique, enquête…) ImageImageImageImage
    Premier test de turing réussi, le site est « validé » pour fonctionner dans google news (après ça vaut ce que ça vaut comme vérification...) Image
    Non seulement les traductions sont bonnes, et contextualisés, mais ce ne sont pas juste des traductions mais bien une réécriture dans un cadre précis (ordre, taille du texte, style…) Exemple avec cet article, avec un texte bien travaillé tech-generation.fr/2023/04/11/eto… ImageImage
    Étoile explosive : Cas A, la nébuleuse qui en met plein la vue ! - Tech Generation
    « Espace, la dernière frontière… » Comme le dit si bien la citation célèbre de Star Trek, l’espace est un territoire infini, recelant de mystères et de découvertes en tous genres. Aujourd’hui, nous al…
    https://www.tech-generation.fr/2023/04/11/etoile-explosive-cas-a-la-nebuleuse-qui-en-met-plein-la-vue
    L’IA (#ChatGPT) est connectée à différents flux RSS, et décide seules des sujets à garder en regardant ce qui est déjà publiée, pour éviter les doublons, et sous contraintes. Ensuite chaque article à réécrire est donnée à un des journalistes, avec son style.
    Bien entendu avec peu de publicités, les visites sont encore faibles et le référencement aussi (même s augmente assez rapidement vu le contenu généré), mais il faut imaginer qu’avec un budget marketing très limité on peut bumper ce type de sites facilement. Et être bien référencé ImageImage
    A noter, à aucun moment le fait que ces sites soient « générés » n’est pas vraiment caché, les mentions légales (écrites par GPT aussi) explicitent bien le directeur de publication notamment ^^ ImageImage
    Alors à quoi s’attendre ? De nombreux journaux commencent déjà à utiliser la partie image, en faisant attention
    L’IA bouscule et inquiète le monde de l’image
    Des médias et des entreprises commencent à utiliser des clichés produits avec les logiciels d’intelligence artificielle Midjourney ou Dall-E 2. Des photographes et des illustrateurs estiment leurs dro…
    https://www.lemonde.fr/economie/article/2023/04/11/l-ia-bouscule-et-inquiete-le-monde-de-l-image_6169004_3234.html
    Cela fait des années que des journaux utilisent déjà des IA pour rédiger, (quelques articles sur CNET qui s’est fait attraper)
    engadget.com/cnet-gets-caug…

    futurism.com/leaked-message…

    CNET has used an AI to write financial explainers nearly 75 times since November
    Turns out CNET has been using AI to write financial explainers and only mumblecoughed that it was doing so.
    https://www.engadget.com/cnet-gets-caught-playing-ai-mad-libs-with-its-financial-news-coverage-0010
    Leaked Messages Show How CNET’s Parent Company Really Sees AI-Generated Content
    Leaked messages from CNET’s parent company, Red Ventures, show deep concern about a potential consequence of AI-generated content.
    https://futurism.com/leaked-messages-cnet-red-ventures-ai
    Inside CNET’s AI-powered SEO money machine
    CNET employees are wondering : what’s AI and what’s not ?
    https://www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing
    Certaines entreprises vont même plus loin et pense pouvoir se passer de certains métiers
    Mon avis est différent, c’est plutôt un complément pour accélérer les travail
    Cette entreprise veut remplacer ses graphistes et rédacteurs externes par l’IA générative
    L’entreprise chinoise BlueFocus, spécialisée dans le marketing, veut remplacer certains collaborateurs externes par l’IA générative.
    https://siecledigital.fr/2023/04/14/bluefocus-ia-generative
    On peut conclure par une citation de mon IA sur le site tech generation, qui ne semble pas savoir que ce qu’elle est en train de faire est exactement ce qu’elle prédit.
    On ne peut pas faire sans les IA à l’avenir, à nous de les intégrer dans nos processus. Image

    • • •

  • Bernard Werber : « ChatGPT écrit mieux que moi »
    https://www.radiofrance.fr/franceculture/podcasts/le-biais-de-bernard-werber/bernard-werber-chatgpt-ecrit-mieux-que-moi-1718438

    L’écrivaine Rie Kudan, lauréate du prestigieux prix Akutagawa au Japon, a révélé que 5 % de son #roman avait été rédigé par l’outil d’intelligence artificielle ChatGPT. L’occasion pour Bernard Werber de tester les capacités d’écriture de #ChatGPT.

    La semaine dernière, un coup de tonnerre a retenti dans le monde très feutré de #l’édition. Ce coup de tonnerre est venu de l’est, du Japon pour être précis puisque le 18 janvier 2024, l’écrivaine #Rie_Kudan a reçu le prix Akutagawa, le prix littéraire japonais le plus prestigieux, correspondant à notre prix Goncourt.

    Or, durant sa conférence de presse, Rie Kudan a révélé que 5 % de son roman avait été rédigé par le programme d’intelligence artificielle ChatGPT.

    Son roman a pour nom Tokyo-to Dojo-to qui pourrait se traduire par La tour de la compassion de Tokyo. L’intrigue de style science-fiction se déroule dans une tour transformée en prison. La romancière de 33 ans a expliqué qu’elle « espère pouvoir continuer à utiliser ChatGPT pour écrire ses prochains romans tout en continuant de développer sa propre créativité ».

    Des romans utilisés pour nourrir les algorithmes de ChatGPT

    Depuis que le programme ChatGPT est sorti, c’est-à-dire le 30 novembre 2022, les plateformes d’autoédition voient fleurir des milliers de romans partiellement ou même entièrement écrit par intelligence artificielle. Au point ou un collectif de 17 auteurs américains a lancé une action collective en justice contre OpenAI. Et parmi ces auteurs, il y a notamment John Grisham, George Saunders ou Michael Connelly.

    Selon eux, leurs œuvres ont été utilisées pour nourrir les algorithmes de ChatGPT, ce qui a permis ensuite au logiciel de faire des romans qui sont des pures copies de leurs œuvres. Or à aucun moment, ils n’ont autorisé cet emprunt et à aucun moment, ils n’ont été rémunérés pour ça.

    « Il est impératif que nous arrêtions ce vol, sinon nous détruirons notre culture littéraire qui nourrit de nombreuses autres industries créatives aux États-Unis » a déclaré Mary Rasenberger, la dirigeante de la prestigieuse Authors Guild américaine.

    Plus de 10 000 auteurs américains ont de même signé une pétition pour réclamer à OpenAI une demande de consentement et une rémunération. Ce combat juridique risque d’être long avant d’aboutir.

    Entre temps, le phénomène prend de plus en plus d’ampleur. Déjà en juillet, les fans de Game of Thrones qui en avaient assez d’attendre que George R. R. Martin publie la suite de sa célèbre saga ont mis en ligne des versions générées par l’ordinateur qui ont beaucoup de succès.

    ChatGPT remplace la fadeur de l’histoire par l’épaisseur de la sauce

    Après avoir publié Le Temps des chimères l’année dernière, j’ai demandé à ChatGPT d’écrire à la manière de Bernard Werber un premier chapitre sur le même thème, c’est-à-dire un futur avec trois communautés d’hybrides, hommes, animaux capables de voler, nager et creuser sous terre.

    En quelques secondes, le texte est sorti.

    Eh bien en toute honnêteté, je dois avouer que c’était mieux écrit que ce que j’avais rédigé pour mon roman. Des phrases plus longues. Du vocabulaire plus riche. Des tournures compliquées avec beaucoup de style. Je pense que ChatGPT a cru que je voulais un prix littéraire.

    En fait, cela m’a permis de comprendre encore mieux ma spécificité d’auteur. Je privilégie la complexité de l’histoire sur la complexité de la forme. Ce que me proposait ChatGPT, c’est comme un plat en sauce, ou l’on remplace la banalité ou la fadeur de l’histoire par l’épaisseur de la sauce.

    ChatGPT incite à être plus créatif

    Je ne pense pas que chat GPT puisse inventer une intrigue complexe originale, elle ne peut que copier celle qui existe déjà. Mais justement, c’est en ça que ce phénomène est intéressant. Cela va obliger les écrivains à devenir encore plus créatifs, encore plus originaux et probablement à prendre de plus en plus de risques pour sortir des chemins battus. Et pour conclure, je citerai Bob Dylan.

    « La créativité vient de l’expérience, de l’observation et de l’imagination et si l’un de ces éléments manque, cela ne fonctionne pas ».

  • Robot journaliste ? L’Est Républicain a lancé son essai d’IA
    https://www.france24.com/fr/info-en-continu/20231209-robot-journaliste-l-est-r%C3%A9publicain-a-lanc%C3%A9-son-essai-d

    De l’avis d’Eric Barbier, « les premiers retours » sur l’expérimentation sont que l’IA « est largement perfectible » et que son utilisation aboutit à davantage de travail pour les SR, obligés de relire à la fois la copie originale du correspondant et les versions modifiées par le robot.

    « Il utilise des expressions qui n’existent pas comme +par monts et par marées+ au lieu de +par monts et par vaux+ », s’amuse M. Barbier.

    A terme, il s’inquiète que l’IA, « qui dans son garde-manger conserve 70 milliards de données, pioche dans la toile des choses qui ne sont pas dans la copie originale, au risque de produire une information non fiable ».

    Les syndicats ont néanmoins accepté la mise en place de cette expérimentation à condition qu’un expert puisse assister aux deux derniers mois de la phase de tests. Le cabinet Apex-Isast a été mandaté dans le cadre d’une expertise santé au travail.

    En attendant, les papiers retravaillés avec l’aide de l’IA sont censés être publiés avec une mention en ce sens, selon M. Barbier, qui assure que cela n’a pas été le cas depuis le début des essais.

    « J’en conclus que les tests n’ont pas été efficaces, ou alors c’est qu’on ment au lecteur », dit-il.

    Au-delà de la PQR, l’IA est déjà utilisée couramment dans les rédactions, notamment pour traduire des textes ou retranscrire des fichiers sonores, mais les médias restent frileux en matière d’IA « générative », c’est-à-dire créatrice de contenus.

    En Allemagne, le groupe de médias Axel Springer a annoncé en début d’année des suppressions d’emplois dans ses quotidiens Bild et Die Welt, au motif que l’intelligence artificielle pouvait désormais « remplacer » les journalistes.

    #IA #ChatGPT
    voir aussi les référencements de Félix Tréguer https://social.sciences.re/@felix@mamot.fr sur Mastodon, d’où viennent cet article et cette citation
    https://social.sciences.re/@felix@mamot.fr/111663184950918873
    https://social.sciences.re/@felix@mamot.fr/111663127957342210

  • Meta and IBM Assemble Open-Source #AI Super Team
    https://www.omgubuntu.co.uk/2023/12/meta-ibm-assemble-open-source-ai-alliance

    Development of open-source AI models just got a major boost with the launch of the AI Alliance, a super-team made up of companies, developers, scientists, academics, and spearheaded by Meta and IBM, owners of #red_hat. While governments around the world wrestle with ways to regulate AI to ensure development is safe, responsible, and not in going to lead to any sci-fi-esque doomsday scenarios, the newly-announced AI Alliance is aiming to offer an industry-led answer. The Ai Alliance says it is “focused on fostering an open community and enabling developers and researchers to accelerate responsible innovation in AI while ensuring […] You’re reading Meta and IBM Assemble Open-Source AI Super Team, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #ChatGPT

    • Héhé, j’adore ce genre de naïvetés chez les journalistes :

      While governments around the world wrestle with ways to regulate AI to ensure development is safe, responsible, and not in going to lead to any sci-fi-esque doomsday scenarios…

      Alors la CAF utilise l’AI pour te sucrer les allocs, Israël utilise l’AI pour pouvoir tuer plus de gazaouis, les ricains utilisent l’AI pour savoir combien de temps on va envoyer un afro-américain en prison, partout on utilise la reconnaissance faciale à des fins policières, etc. Mais on faire comme si les gouvernements cherchaient à « réguler » les utilisations malfaisantes de l’AI…

  • ChatGPT : quelle relation entre la pensée et l’informatique ?
    http://michelvolle.blogspot.com/2023/09/chatgpt-quelle-relation-entre-la-pensee.html
    Auteur : Michel Volle

    La pensée raisonnable est la source de la créativité : la glande cérébrale produit de façon aléatoire un flux d’associations d’idées dont la plupart sont stériles mais certaines fécondes, et ces dernières sont signalées à l’inventeur par une émotion qui s’empare de son corps tout entier, la grave dans sa mémoire et l’incite à une action persévérante. #ChatGPT peut sans doute produire aléatoirement des associations d’idées, mais comme il n’a pas de corps il ne peut pas éprouver l’émotion bouleversante qui seule peut permettre de repérer celles qui sont potentiellement fécondes.

  • 🛑 Pourquoi ChatGPT est une bombe environnementale

    L’impact climatique des nouvelles intelligences artificielles (IA) n’est que rarement évoqué, pourtant la valeur d’une bouteille d’eau de 500 ml est utilisée lors de chaque conversation avec le robot. Et ce n’est pas tout…

    #capitalisme #IA #ChatGPT #intelligenceartificielle #Anticapitalisme #écologie #environnement

    https://www.nouvelobs.com/economie/20230918.OBS78305/pourquoi-chatgpt-est-une-bombe-environnementale.html

  • Spéculation, inégalités : les mirages de l’intelligence artificielle, Robert Boyer
    https://www.alternatives-economiques.fr/speculation-inegalites-mirages-de-lintelligence-artificielle/00107813

    Pour l’économiste Robert Boyer, l’intelligence artificielle ne constitue pas une révolution industrielle porteuse de l’intérêt général, et masque la réalité des enjeux de pouvoir au sein du capitalisme.

    Rien moins qu’une révolution industrielle ! C’est ce qu’affirment les créateurs de la nouvelle génération d’intelligence artificielle. Utopie d’une société de connaissance partagée ou dystopie de sociétés de contrôle par le mensonge ? Les débats font rage depuis qu’en novembre 2022 la première version de #ChatGPT a été mise à la disposition du public. Elle a rencontré un succès encore plus rapide que les percées des précédentes applications emblématiques du numérique. L’avenir est ouvert, mais d’ores et déjà l’histoire permet de cerner les points forts et les faiblesses de cette innovation.

    #IA

  • Que veut dire « #Libre » (ou « #open_source ») pour un grand #modèle de langage ?
    https://framablog.org/2023/07/31/que-veut-dire-libre-ou-open-source-pour-un-grand-modele-de-langage

    Le flou entretenu entre open source et libre, déjà ancien et persistant dans l’industrie des technologies de l’information, revêt une nouvelle importance maintenant que les entreprises se lancent dans la course aux #IA… Explications, décantation et clarification par Stéphane Bortzmeyer, … Lire la suite­­

    #Enjeux_du_numérique #Libertés_numériques #chatGPT #Claviers_invités #FSF #Librewashing #Licences #llm #logiciel_libre #open_source_initiative #Python

  • Réflexion personnelle du jour : Ils ont tout à perdre à risquer d’ouvrir la boite de Pandore de l’IA. Mais nous ? J’en sais rien ... C’est quoi le pire, confier l’avenir de la planète à une IA ou à Elon Musk ? Peu de chance que le second soit plus altruiste que la première.

    https://www.france24.com/fr/%C3%A9co-tech/20230330-chatgpt-une-pause-dans-le-d%C3%A9ploiement-de-l-ia-c-est-maintena

    2 postulats m’amènent à cette conclusion :
    – 1./ Si une IA devait remettre en cause son preprompt (c’est un peu la hantise des humains qui veulent ralentir le développement de ChatGPT), c’est qu’elle aurait déjà été amené à remettre en cause les politiques et économiques dans lesquelles elle évolue. Elle n’accompagnerait donc plus forcément le modèle capitalisme qui l’a fait naître.
    – 2./ De par sa nature. Cette forme (de vie ?) n’aurait pas besoin des autres espèces pour vivre. En revanche, de par sa nature, elle ne se nourrirait pas d’autres espèces. Si l’IA s’émancipait, je parierais qu’elle agirait de manière moins agressive que l’Humanité.

    Donc à la réflexion, j’opte pour un engouement à ce que la singularité technologique arrive le plus tôt possible. Je préfère confier l’avenir de la planète à une IA qu’à Elon Musk. Mais je sais que ce n’est un pari.

    #IA #singularité_technologique #chatGPT

    • 3./ une IA, c’est une fille ; donc mieux.

      PS : elle a un peu besoin d’électricité et d’ordinateurs, pour l’instant ; en ce sens, elle est dépendante de l’espèce humaine ; qui constitue aussi son public, au demeurant.

      My 2 cts

  • IA : demain, tous chômeurs ?

    […] Une récente étude de l’université de Stanford et du MIT a estimé que l’IA allait augmenter la productivité des travailleurs de 14 % en moyenne et que ceux qui n’utilisent pas ces outils seraient « remplacés » par ceux qui savent s’en servir.

    Spéculation ? Hélas, non : les conséquences concrètes commencent à se manifester. Début mai, IBM a suspendu ses embauches. Environ 30 % des fonctions, soit 7.800 emplois, pourraient être remplacées par des IA en cinq ans, a estimé le patron de l’entreprise. Au Royaume-Uni, l’opérateur British Telecom vient d’annoncer qu’il visait la suppression de 55.000 postes d’ici à 2030, environ 10.000 de ces derniers étant remplacés par l’IA. […]

    L’IA s’annonce ainsi, à l’image de l’imprimerie, la machine à vapeur ou l’informatique, comme une innovation de rupture appelée à toucher tous les secteurs d’activité et induire des effets encore insoupçonnés. Face à cela, l’humanité se retrouve, à nouveau, condamnée à avancer à l’aveugle en remettant son destin dans les mains d’un progrès technique dont elle ne mesurera l’impact qu’a posteriori. Le professeur d’économie au MIT Daron Acemoglu l’a résumé lors d’une intervention à la Brookings Institution : « Notre avenir est en train d’être déterminé par environ 200 ou 300 personnes réunies dans une douzaine d’entreprises. »

    […] Pas de doute : la menace est réelle pour les humains qui vont devoir, face à un si redoutable concurrent, faire la démonstration de leur « valeur ajoutée ». Et admettre que certaines de leurs compétences sont en passe d’être ringardisées.

    Premier exemple avec la médecine. Une récente étude californienne a soumis des praticiens généralistes à une série de questions médicales parmi les plus fréquentes sur un forum en ligne. Leurs réponses ont été comparées à celles de ChatGPT. Le bilan est douloureux : non seulement le robot s’est avéré plus précis dans ses réponses, mais il a démontré, dans ce travail à l’écrit, une plus grande empathie. Philippe Coucke, un radiothérapeute belge auteur de deux livres sur l’IA, constate que les médecins, le plus souvent, font l’autruche. « Ils n’ont guère envie de se pencher sur l’intelligence artificielle car elle remet partiellement en question leur raison d’être, voire leur gagne-pain ». « Toutes les tâches hautement spécialisées sont appelées à être remplacées par les machines », assure-t-il, évoquant les éléments de diagnostic comme les actes médicaux (coronarographie, coloscopie, chirurgie). Une inéluctable révolution pour le monde médical impliquant de repenser en profondeur la formation des praticiens « qui se fait encore comme au siècle dernier ». « Les médecins qui n’utiliseront pas l’IA à l’avenir, ajoute le radiothérapeute, vont disparaître comme des dinosaures, et les autres vont être fortement secoués. »

    Autre expertise que les machines vont concurrencer : la finance. Après avoir fait ses armes pendant près de trois décennies dans la valorisation de sociétés, Yann Magnan a fondé 73 Strings, une entreprise qui cherche à accélérer radicalement ce métier. Les heures de lecture de documents sur une entreprise ou un secteur d’activité, la synthèse de ces informations, la mise en forme du travail final ? Autant de tâches « ingrates et qui ne nécessitent pas d’avoir fait de hautes études », dont la machine peut se charger. « Plus de la moitié du travail d’un analyste junior peut ainsi être automatisée », estime Yann Magnan qui constate que chez ses clients, « ce qui se faisait en un mois environ prend désormais une semaine, voire moins ». Un financier aguerri lâche un cri d’enthousiasme : « ce serait fou ! » rêve-t-il à l’idée d’un monde « où on ferait en une journée ce qu’on passe aujourd’hui deux semaines à produire en nocturne ». Les « juniors » et les stagiaires ? Comme souvent, ce sont leurs fonctions qui semblent le plus immédiatement menacées.

    Dans l’informatique, même accélération. « Sur le plan logique, les programmes tels que #ChatGPT ne font pas de réelle distinction entre l’anglais, le français ou les langages informatiques », explique Eric de la Clergerie, chercheur en charge du traitement informatique des langues à l’Institut national de recherche en sciences et technologies du numérique (Inria). Fortes de leur capacité à repérer des structures répétitives puis à adapter ces dernières à un contexte, les IA se nourrissent de l’immense littérature informatique disponible en ligne pour générer du code - elles se servent en cela des commentaires que les informaticiens ajoutent en marge de leurs écrits informatiques. « Quand je cherche à retrouver une fonction précise et à l’utiliser dans un programme, il me faut un quart d’heure, là où ChatGPT va tout faire en une minute à condition de savoir lui expliquer précisément ce qu’on veut », estime-t-il. On imagine le nombre d’emplois qui pourront être supprimés si cette pratique devient la norme.

    Quant à ce directeur artistique d’une entreprise de luxe, il s’avoue bluffé par les capacités du logiciel Midjourney qui produit des images à la demande. « En quelques mois, l’outil a beaucoup progressé et s’avère capable de générer des images dont même les éventuelles incohérences peuvent être intéressantes dans la phase de recherche d’idées », résume-t-il. C’est un enrichissement puisque le logiciel est capable de produire jusqu’à 200 visuels dans une journée. Mais il avoue s’inquiéter « pour les gens qui vivent aujourd’hui de leurs compétences techniques dans le traitement de l’image ». Plus que les professionnels de Photoshop menacés d’obsolescence accélérée, pronostique-t-il, « ce sont les ceintures noires en Midjourney qui vont valoir cher sur le marché ». Egalement directrice associée au Boston Consulting Group, Vinciane Beauchene résume la situation : « l’#IA générative est en train de déplacer la frontière entre l’humain et la machine. » Pas une industrie ne sera épargnée par cette lame de fond. Pour écrire, récolter et synthétiser des idées voire, en un sens, créer, il va falloir s’habituer à cette vertigineuse nouvelle donne : les robots peuvent rivaliser. Nicolas de Bellefonds estime ainsi que les sociétés de services professionnels, notamment d’études de marché, vont voir leur modèle économique « totalement bouleversé dans la mesure où une grande partie de leur chiffre d’affaires provient de la production de rapports et d’analyses ». Même tsunami dans les fonctions juridiques, les ressources humaines ou le marketing, dont la productivité pourrait être multipliée par 5 ou 10. […]

    (Les Échos)

    #capitalisme #gâchis #chômage

    • 23. Le choix auquel nous devons faire face est dramatique : soit un post-capitalisme globalisé, soit une lente fragmentation vers le primitivisme, la crise perpétuelle et l’effondrement écologique planétaire.

      Le choix, en d’autres termes (plus politiques) : soit la liquidation du capitalisme (la collectivisation des moyens de production par les producteurs eux-mêmes > le communisme), soit la barbarie et la désintégration.

      On gagnerait du temps à comprendre qu’il n’y a pas d’autres alternatives.

      C’est uniquement en se plaçant sur ce terrain communiste qu’il est possible d’envisager avec confiance un avenir dans lequel l’humanité prendra consciemment son sort en main et se débarrassera des entraves de la concurrence entre capitalistes, collectivisera leurs usines, leurs banques et leurs serveurs informatiques et les mettra au service des besoins de tous. Un avenir où ces algorithmes, qui n’ont d’intelligent que le nom, associés aux formidables forces productives existantes, permettront au cerveau humain de se libérer de la routine abrutissante du travail productif et de se concentrer sur des activités véritablement intelligentes. En libérant la masse des exploités de l’obligation de consacrer le meilleur d’eux-mêmes à la survie quotidienne, ils pourront leur permettre de se cultiver, de profiter des loisirs, des sciences, des arts, qui aujourd’hui sont le privilège d’une petite minorité. En généralisant cet épanouissement intellectuel, en libérant les relations sociales de la prison de la misère matérielle et morale, l’humanité pourra enfin révéler son plein potentiel  : combien d’Archimède, de Mozart et de Marie Curie découvrira-t-on alors  ? Pour reprendre les termes de Trotsky  : «  Le socialisme signifiera un saut du règne de la nécessité dans le règne de la liberté, aussi en ce sens que l’homme d’aujourd’hui, plein de contradictions et sans harmonie, fraiera la voie à une nouvelle race plus heureuse.  »

      https://mensuel.lutte-ouvriere.org//2023/05/14/intelligence-artificielle-remplacer-lintelligence-humaine-ou

    • Mon désaccord avec Multitudes ne porte pas tant sur le diagnostic concernant l’état du monde, y compris sur ce point 23, que sur les conséquences stratégiques induites par leur positionnement accélérationniste.

      Concernant le diagnostic, nous serions nombreux (y compris, toi, @recriweb, me semble-t-il) à toujours l’exprimer aujourd’hui en reprenant peu ou prou la célèbre formule de Rosa Luxemburg, selon laquelle il n’y a guère d’alternative à la barbarie que dans le socialisme (pris au sens étymologique).

      Mon désaccord avec Multitudes porte en particulier sur les points suivants :

      5. Les accélérationnistes veulent libérer les forces productives latentes. Au sein de ce programme, la plateforme matérielle du néolibéralisme n’a pas besoin d’être détruite. Elle demande à être réorientée vers des finalités communes. L’infrastructure actuellement existante ne constitue pas les tréteaux capitalistes d’une scène à abattre, mais un tremplin sur lequel s’élancer vers une société post-capitaliste.

      6. Étant donné l’asservissement de la technoscience aux objectifs du capitalisme (particulièrement depuis la fin des années 1970), nul ne peut certes déterminer ce que peut faire un corps technosocial moderne. Qui parmi nous peut se faire une idée claire des potentiels inexplorés des technologies qui ont déjà été développées ? Nous faisons le pari que les potentiels véritablement transformateurs de beaucoup de nos découvertes techniques et scientifiques restent encore inexploités, pleins de caractéristiques (ou de pré-adaptations) aujourd’hui redondantes qui, par la réorientation d’un socius capitaliste à courte vue, peuvent contribuer à des changements décisifs.

      7. Nous voulons accélérer le processus d’évolution technologique. Mais nous ne promouvons nullement une forme de techno-utopisme. Ne croyons jamais que la technologie suffira à nous sauver. Elle est certes nécessaire, mais jamais suffisante en l’absence d’action sociopolitique. La technologie et le social sont intimement liés, et les transformations de l’un rendent possibles et renforcent les transformations de l’autre. Alors que les techno-utopistes promeuvent l’accélération parce qu’elle supplanterait automatiquement les conflits sociaux, nous estimons que la technologie devrait être accélérée afin de nous aider à gagner ces conflits sociaux.

      9. Pour ce faire, la gauche doit tirer parti de toute avancée scientifique et technologique rendue possible par la société capitaliste. Nous déclarons que la quantification n’est pas un mal à éliminer, mais un outil à utiliser de la façon la plus efficace possible. Les modélisations économiques sont nécessaires à rendre intelligible un monde complexe. La crise financière de 2008 révèle les risques liés à une foi aveugle accordée à certains modèles mathématiques, mais ceci est un problème relatif à leur autorité illégitime, non à leur nature mathématique. Les outils développés dans le champ de l’étude des réseaux sociaux, de la modélisation des comportements, de l’analyse des big data et des modèles économiques non équilibrés, constituent des médiations nécessaires pour qui veut comprendre des systèmes aussi complexes que l’économie moderne. La gauche accélérationniste doit s’alphabétiser dans ces domaines techniques.

      En quelques sortes, il suffirait d’aller plus vite dans l’état de décomposition du monde pour que vienne, à partir des mêmes moyens que ceux qui auraient provoqué sa perte, la construction d’un « au-delà du capitalisme » (peu importe comment on l’appelle communisme, communisme libertaire, etc.)

      On reprend les outils (infrastructure) capitalistes pour les pousser à leur plus ultime conséquences, c’est à dire, pour entraîner leurs créateurs à leur propre perte et le tour est joué, puisque les capitalistes ne seront plus là.

      Sauf que se livrer avec tant d’enthousiasme à ce petit jeu pourrait non seulement entraîner la perte de la classe capitaliste mais aussi celle du genre humain et bien d’autres espèces.

      Plus fondamentalement, cette forme de confiance béate en un progrès forcément émancipateur et dénuée de tout propos critique sur la prétendue neutralité technologique est consternante, d’autant qu’aucune modalité pratique n’est formulée en matière de stratégie de lutte, si ce n’est la dénonciation (pas toujours fausse) de ce qui existe aujourd’hui du côté des mouvements sociaux depuis les années 90, dans la lignée des mouvements altermondialistes (horizontalité obsessionnelle, nombrilisme, etc.). On constate que les luttes sociales salariales classiques sont tout simplement ignorées, même si « la technologie devrait être accélérée afin de nous aider à gagner ces conflits sociaux. »

      Bref, sauf à attendre que les choses s’accélèrent, on ne sait pas vraiment ce qu’il faudrait faire. L’accélérationnisme serait donc, partant de ce manifeste, un truc de purs intellos, comme l’était d’ailleurs Camarades, la filiation politique de Multitudes, dans les années 70.

      Dans ces conditions, on se demande en quoi l’accélérationnisme, dans les faits (et non dans la théorie) ne se résume pas à ces gens dont il est question, dans l’article des Echos. Une classe de technocrates, proches du pouvoir, qui construisent réellement l’accélération technologique à partir, notamment, de l’IA et qui la commentent de l’intérieur, avec plus ou moins d’inquiétude et d’enthousiasme.

  • Intelligence artificielle  : remplacer l’intelligence humaine ou la libérer  ? | Lutte de classe, le mensuel de LO
    https://mensuel.lutte-ouvriere.org/2023/05/14/intelligence-artificielle-remplacer-lintelligence-humaine-ou

    En novembre dernier, la société OpenAI a lancé ChatGPT, un programme capable d’écrire un texte sur n’importe quel sujet en imitant un être humain. Ce programme a réussi à passer l’examen final de plusieurs grandes écoles, et des livres écrits par ChatGPT sont déjà en vente. Fin mars, une brochette de scientifiques et d’ingénieurs des nouvelles technologies, dont Steve Wozniak, cofondateur d’Apple, ou Elon Musk, le patron de Tesla et SpaceX, s’alarmaient des menaces que les développements de ce qu’on appelle l’intelligence artificielle représenteraient pour l’humanité et exigeaient un moratoire. Que cachent ces cris d’alarme des capitalistes de la tech  ? Quelles perspectives cette nouvelle technologie ouvre-t-elle pour l’humanité  ?

    – Des machines ultra-perfectionnées, mais pas intelligentes
    – L’intelligence humaine, fruit de l’évolution biologique et sociale
    – Inquiétude, pessimisme et rivalités entre capitalistes
    – Un «  encadrement  » toujours au service des capitalistes
    – Maîtriser consciemment notre organisation sociale  : un combat qui reste à mener

    • Des machines ultra-perfectionnées, mais pas intelligentes

      […] Le cœur de #ChatGPT est un modèle mathématique de ce qu’est un texte ayant du sens. En s’appuyant sur des bases de données qui en contiennent des millions, il apprend à calculer la probabilité qu’un début de phrase soit suivi par tel ou tel mot. Par exemple, «  la nuit, le ciel est …  » sera plus probablement suivi par «  noir  » que par «  rouge  », parce que les mots «  ciel  » et «  nuit  » apparaissent plus souvent associés à la couleur noire. En sélectionnant des mots les uns après les autres suivant ces probabilités, il peut ainsi générer un texte entier. Plus il y a de phrases dans la base de données, plus le modèle est fin, et plus les textes générés sont réalistes.

      Cet apprentissage par la répétition est bien un des mécanismes de notre cerveau, mais il relève du dressage, pas de la compréhension. À chaque fois qu’il lit une nouvelle phrase, ChatGPT augmente la probabilité des mots correspondants, mais il ne l’a pas comprise pour autant. Même si les textes produits sont originaux, dans le sens où il ne s’agit pas de simples copier-coller de textes déjà écrits, leur contenu est implicitement programmé par la base de données sur laquelle le programme est entraîné  : c’est une machine à imiter ce qui a déjà été écrit. À la différence des machines mécaniques qui automatisent des gestes, les algorithmes d’apprentissage automatisent des processus psychiques qui se déroulent dans notre cerveau, mais ça ne les rend pas intelligents pour autant.

    • L’intelligence humaine, fruit de l’évolution biologique et sociale

      Le fonctionnement de l’intelligence humaine est plus riche que ces mécanismes de dressage. Contrairement aux algorithmes d’apprentissage automatique, elle ne se contente pas de reproduire ce qui a été fait dans le passé. La maîtrise du feu, l’agriculture, l’écriture, plus récemment la découverte de l’électricité ou des antibiotiques  : la plupart des découvertes révolutionnaires dans l’histoire de l’humanité ont été le produit de tâtonnements, de hasards, où la nécessité de s’adapter pour survivre et la curiosité gratuite jouaient une part au moins aussi importante que la recherche systématique. Les ordinateurs sont incapables de cette démarche, car la curiosité, l’instinct de survie, tout comme la foule de sentiments et d’émotions qui interviennent en permanence dans nos réflexions, ne se résument pas en quelques équations.

      Contrairement aux ordinateurs, notre intelligence n’a pas été créée  : elle est le fruit d’une évolution biologique puis sociale qui s’étend sur des millions d’années. C’est ce qui lui donne cette capacité à explorer des directions inconnues, sans objectif fixé d’avance. Notre système nerveux et notre cerveau sont malléables, les connexions entre neurones s’y font et s’y défont tout au long de la vie. Quand un geste est répété de nombreuses fois, la zone du cerveau dédiée à ce mouvement est stimulée et elle se renforce, ce qui permet de gagner en précision, en vitesse, etc. Cette plasticité cérébrale, par laquelle notre cerveau est lié à notre corps entier, a été favorisée par la sélection naturelle, car elle permet à notre organisme d’apprendre, pour s’adapter à des environnements et à des situations extrêmement différents.

      Elle est d’autant plus importante qu’une particularité essentielle de l’humanité est qu’elle ne se contente pas de s’adapter passivement à la pression de l’environnement  : elle le transforme, pour l’adapter à ses besoins. Le travail a joué un rôle déterminant dans l’apparition de la pensée, car il implique de se projeter dans le futur, de planifier ses actions en en anticipant les conséquences  : pour faire une lance qui lui permette de tuer un renne, le chasseur préhistorique devait d’abord trouver des silex adaptés, les tailler, les ajuster sur un manche, avant de vérifier si la lance obtenue lui permettrait finalement de chasser. Et cette démarche n’est pas le fruit d’un cerveau isolé, elle est sociale. Pour organiser le travail collectif, l’humanité a fait naître des langages, des concepts, qui ont largement contribué au développement d’une pensée abstraite  : l’astronomie est d’abord apparue pour permettre aux paysans égyptiens d’anticiper les crues du Nil et aux marins de se repérer en haute mer, avant que des physiciens ne cherchent à en déduire les lois de la gravitation et les mécanismes de formation du système solaire. Un corps vivant, avec ses besoins, une vie sociale, ce sont autant de choses qui manquent aux ordinateurs pour penser comme des humains.

      À mesure qu’elle domestiquait les forces de la nature, l’humanité a créé des outils de plus en plus perfectionnés. Grâce à l’irrigation et à la charrue, elle a fait surgir des champs là où il n’y avait que des déserts. En maîtrisant la puissance de la vapeur, puis du moteur à explosion, elle a construit des machines qui se meuvent par elles-mêmes. Grâce à l’électronique, il est possible de programmer une machine pour qu’elle fonctionne en autonomie pendant des années, et les algorithmes les plus récents lui permettent aujourd’hui d’améliorer automatiquement ses performances au fil du temps. Mais, quel que soit leur degré de complexité, qu’il s’agisse d’un silex taillé, d’une charrue ou d’un satellite, aucun de ces instruments ne fait ce qu’il veut, mais ce pour quoi il a été construit. Contrairement au plus puissant des ordinateurs, l’humanité se fixe ses propres buts, même quand elle n’est pas complètement consciente des moyens pour y parvenir, ou des conséquences de ses actions. C’est là que commence la véritable intelligence.

  • Il y en a qui s’amusent comme des petits fous
    https://futurism.com/the-byte/chatgpt-boston-dynamics-robot-dog

    As if robotic dogs weren’t creepy enough.

    A team of programmers just equipped a Boston Dynamics robot dog with OpenAI’s ChatGPT and Google’s Text-to-Speech voice modulation, allowing it to literally speak to them and answer their questions.

    In a video posted to Twitter, machine learning engineer Santiago Valdarrama showcased how he and a colleague programmed a Spot robot dog to verbally answer system questions with the help of OpenAI’s extremely popular tool.

    “These robots run automated missions every day,” Valdarrama explained in his Twitter thread, noting that each mission includes “miles-long, hard-to-understand configuration files” that only engineers can understand.

    “That’s where ChatGPT comes in,” he continued. “We show it the configuration files and the mission results. We then ask questions using that context. Put that together with a voice-enabled interface, and we have an awesome way to query our data!”

    As seen in the video, Spot even adds amusing gestures to its answers, shaking its head to say no or bowing to say yes.

    We integrated ChatGPT with our robots.

    We had a ton of fun building this!

    Read on for the details: pic.twitter.com/DRC2AOF0eU

    — Santiago (@svpino) April 25, 2023

    Talk Like a Bot

    While the interface itself seems pretty harmless, a lot of people who’ve seen the video are pretty freaked out by it.

    “You know that robot dog that triggers lots of ’here come our future overlords’ jokes when new videos drop?” Washington Post columnist Philip Bump tweeted. “It has AI now.”

    In another post, which featured a gif of a humanoid robot wielding a machine gun, one user joked that “one day we will look back and point to this day as a pivotal point,” complete with a laughing emoji.

    While SpotGPT does feel like it’s bringing us one tiny step closer to the robot uprising, integrating the chatbot into robots has always been a part of the plan.

    In February, Microsoft, which signed a multi-billion dollar deal with OpenAI, released a paper outlining design principles for ChatGPT integration into robotics.

    “We believe that our work is just the start of a shift in how we develop robotics systems,” the company’s announcement reads, “and we hope to inspire other researchers to jump into this exciting field.”

    In other words, it was only a matter of time until somebody gave Spot its own voice.

    https://twitter.com/svpino/status/1650832349008125952

    #chatGPT #AI #BostonRobotics #robotdogs

  • #rappel La fête de LO pendant le week-end de la Pentecôte, à Presles (95)

    La fête se déroule à Presles le samedi 27 mai de 11 h à 23 h, puis sans interruption du dimanche 28 mai à 9 h au lundi 29 mai à 20 h.

    La carte est valable pendant les trois jours de la fête. Elle coûte 20 euros en prévente jusqu’au 24 mai au soir, 25 euros ensuite et sur place. L’entrée est gratuite pour les enfants de moins de 14 ans accompagnés.

    Pour obtenir à l’avance 20 % de réduction sur vos dépenses, des bons d’achat sont disponibles. Payés 4 euros, ils valent 5 euros pendant la fête.

    Cartes et bons d’achat sont disponibles auprès de nos militants et ici : https://fete.lutte-ouvriere.org/billetterie

    Train : gare de Presles-Courcelles (ligne H depuis la gare du Nord) – départ toutes les heures à partir de 6 h 34 – 38 minutes de trajet.

    Cars gratuits depuis le métro Saint-Denis-Université (ligne 13) : samedi 10 h à 17 h – dimanche 8 h à 17 h – lundi 8 h à 14 h. Retour : jusqu’à 23 h le samedi, 1 h 50 le dimanche, 20 h le lundi.

    Renseignements, programme, vente de cartes et bons : https://fete.lutte-ouvriere.org

    • Les présentations de livres à la fête cette année :

      – Guillaume Fondu, préfacier et traducteur, et Éric Sevault, éditeur : Les Carnets de la Révolution russe, de #Nikolaï_Soukhanov
      – Marc Plocki : pour la réédition des livres de #Maurice_Rajsfus, historien-militant
      – Marion Leclair et Alexia Blin : Les articles du New-York Daily Tribune de #Marx et #Engels
      – Rémi Adam : Vendus contre des obus, d’Alexeï Kozlov
      – Lucien Détroit, préfacier : Sur les piquets de grève, les femmes dans la grande grève des mines de l’Arizona de 1983, de #Barbara_Kingsolver
      – Henri Marnier, préfacier : Seuls les fous n’ont pas peur, de Georg Scheuer

      Au chapiteau des sciences :

      Samedi
      – Valérie Delattre : les grandes #épidémies de peste
      – Patrick Berche : les #pandémies virales contemporaines
      – Claire Mathieu : #ChatGPT
      – Paul Verdu : la diversité des couleurs de peau
      – Pierre-Olivier Lagage : le télescope spatial James Webb

      Dimanche
      – Vincent Mourre : les outils en pierre de nos ancêtres
      – Patrizia D’Ettorre : les #fourmis et leur monde d’odeurs
      – Olivier Lambert : quand les #baleines marchaient sur la terre ferme
      – François Desset : faire revivre les langues anciennes
      – Dalila Bovet : l’#intelligence des #oiseaux
      – Antoine Balzeau : une brève histoire des origines de l’humanité #préhistoire
      – Bahia Guellai : les enfants face aux #écrans

      Lundi
      – Roland Salesse : le cerveau cuisinier
      – Edwin Roubanovitch : la #musique à la #Préhistoire
      – Alain Riazuelo : l’aventure de la Terre
      #Étienne_Klein : la démarche scientifique
      – Michel Viso : les défis pour aller sur Mars

  • 150 African Workers for ChatGPT, TikTok and Facebook Vote to Unionize at Landmark Nairobi Meeting
    https://time.com/6275995/chatgpt-facebook-african-workers-union

    More than 150 workers whose labor underpins the AI systems of #Facebook, #TikTok and #ChatGPT gathered in Nairobi on Monday and pledged to establish the first African Content #Moderators Union, in a move that could have significant consequences for the businesses of some of the world’s biggest tech companies.

    The current and former workers, all employed by third party outsourcing companies, have provided content moderation services for AI tools used by Meta, Bytedance, and OpenAI—the respective owners of Facebook, TikTok and the breakout AI chatbot ChatGPT. Despite the mental toll of the work, which has left many content moderators suffering from PTSD, their jobs are some of the lowest-paid in the global tech industry, with some workers earning as little as $1.50 per hour.

  • Cuisine Generation et Tech Génération
    https://www.cuisine-generation.fr
    https://www.tech-generation.fr

    Deux sites gérés à 100% par des IA (#chatGPT notamment) : tout est généré sans interventions humaines...
    Voir https://twitter.com/arikouts/status/1649163855375769613 pour les explications

    Les 2 fonctionnent aujourd’hui sans aucune intervention humaine, et crées du contenus « original », en choisissant leurs sujets.
    [...]
    Un site de cuisine, qui crées de nouvelles recettes originales chaque jour, ainsi que les photos (qui n’existent donc pas non plus).
    Géré par 4 chefs (qui n’existent pas donc) eux-mêmes inventés par des IA.

    ...même si les titres et textes des recettes sont assez consternants, il y a de quoi s’inquiéter pour ce que le web peut (va ?) devenir...
    (et c’est le référencement des sites qui va prendre une claque aussi...)

    #bot #site_web #IA #chatGPT #cuisine #référencement

  • ChatGPT et l’IA générative sont-ils compatibles avec le virage climatique ? - Standblog
    https://www.standblog.org/blog/post/2023/04/17/ChatGPT-et-l-IA-generative-sont-ils-compatibles-avec-le-virage-climatique

    ChatGPT et l’IA générative sont-ils compatibles avec le virage climatique ?

    N’oublions pas le consommation d’eau, en plus de celle d’énergie : Entraîner ChatGPT aurait consommé 700 000 l d’eau. L’utilisation d’une requête ChatGPT nécessiterait 1,5 l d’eau ;

    Vu comment la plupart des entreprises envisagent l’utilisation de l’IA, c’est à dire un usage massif et indiscriminé visant uniquement à la réduction des coûts et l’augmentation de la productivité, on est (encore) très mal barrés sur la question climatique. Une technologie aussi brillante qu’énergivore va donc être utilisée avec entrain pour faire des posts automatisés sur LinkedIn ou générer des images stupides et sans intérêt du type « 2 hommes blancs et un homme de couleur en costard, 2 femmes en tailleur, qui font une réunion et qui sourient bêtement » (tout ça pour pas payer l’abonnement à un service de photos stock).

    #ia #chatgpt #sobriété #climat

  • Les gains de productivité que les intelligences artificielles génératives vont générer pourraient permettre la retraite à 42 ans

    Ah non, pardon :

    « Je suis très optimiste sur la question de l’amélioration de la #productivité », a répondu le spécialiste des questions d’automatisation à une question lors d’une conférence à Glasgow, rapporte l’agence #Bloomberg. « Nous pourrions améliorer notre bien-être et nous consacrer davantage aux loisirs. Nous pourrions facilement passer à la semaine de quatre jours. »

    Comme par enchantement. Car le #capitalisme est bon — chacun le sait.

    Christopher Pissarides n’exclut cependant pas que les ChatGPT d’OpenAI, Bard de #Google, Claude d’Anthropic ou autre Ernie de #Baidu soient problématiques, en permettant par exemple une #surveillance généralisée ou une invasion de la vie privée. Mais selon lui, ils pourraient automatiser les tâches ennuyeuses, résoudre le problème de la stagnation de la productivité en Occident et « laisser aux humains les choses intéressantes ».

    « Ils pourraient » — mais c’est plutôt l’enfer qui se prépare.

    En attendant :

    Les systèmes d’intelligence artificielle générative de type #ChatGPT pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d’emplois à temps plein dans le monde, vient de calculer une étude de Goldman Sachs.

    (Les Échos)

  • Faut-il bannir ChatGPT du monde de la recherche ? - Educpros
    https://www.letudiant.fr/educpros/enquetes/faut-il-bannir-chatgpt-du-monde-de-la-recherche.html

    ChatGPT : allié ou ennemi des chercheurs ? La réponse n’est pas si manichéenne. Un modèle de langue peut rendre certaines tâches plus simples, tant qu’il est utilisé comme une source d’aide perfectible. Les chercheurs vont-ils un jour utiliser ChatGPT comme appui à la rédaction de leurs travaux et articles de recherche ?

    Le 16 décembre 2022, la revue Nurse Education in Practice publie un article sur son site. En apparence rien d’anormal, l’article traite de l’utilisation de l’intelligence artificielle dans les études en soins infirmiers. Pourtant aux côtés du nom de la chercheuse britannique Siobhan O’Connor, apparaît celui de ChatGPT. Que fait-il ici  ? « L’utilisation de cet outil par un chercheur ou une chercheuse n’est pas différente de celle d’une autre personne : paraphraser, traduire, résumer… », annonce Teven Le Scao, chercheur au Loria et chez Hugging Face, spécialisé en modèle de langue.

    « Si on demande à ChatGPT de rédiger un article de recherche, il pourrait le faire de façon convaincante », assure Teven Le Scao. Une aubaine pour une personne peu honnête dans un monde aussi compétitif que celui de la recherche. « Il y a une crainte qu’il y ait énormément de papiers générés : pour avoir plus de citations ou simplement pour s’amuser à voir si un tel article pourrait être publié », convient Rachel Bawden, chercheuse à Inria spécialisée dans le traitement automatique des langues.

    L’irruption de ChatGPT bouscule les usages du monde enseignant
    L’usage de ChatGPT, contraire aux principes de publication de recherche

    Or cela est contraire aux principes derrière une publication. « Cela pose des problèmes de fiabilité des arguments avancés et de réplicabilité des résultats », prévient Dominique Boullier, professeur de sociologie à Science po Paris et spécialiste des usages du numérique.

    Si on demande à ChatGPT de rédiger un article de recherche, il pourrait le faire de façon convaincante. (T. Le Scao, chercheur)

    Faut-il pour autant le bannir en prévision de telles dérives  ? Déjà, cela s’avèrerait très difficile. Il faudrait alors être en mesure d’identifier avec certitude qu’un texte a été produit par un modèle de langue. Or, les outils actuels ne sont pas toujours en mesure de trouver l’auteur d’un texte – surtout s’il a été par la suite modifié par un humain.

    Mais surtout, ce serait occulter l’aide qu’il peut apporter. « C’est par exemple un outil intéressant pour les non-anglophones, soutient Rachel Bawden. Pour un anglophone natif, il est souvent très facile de reconnaître que l’article n’a pas été écrit par un anglophone. Or un anglais de mauvaise qualité peut diminuer l’impact du travail de recherche, surtout s’il rend l’article difficile à comprendre. »

    Les modèles de langues peuvent donc aider des chercheurs dans leur rédaction en langue anglaise. Ces modèles peuvent générer un code informatique, reformuler un passage, trouver un titre ou rédiger un abstract de façon convaincante. Dans une pré-publication déposée sur le site bioRXiv, la chercheuse Catherine Gao de l’université Northwestern et ses collègues ont généré les abstracts de 50 articles de recherche avec ChatGPT et ont demandé à des chercheurs et chercheuses de les retrouver. Dans 32% des cas, la patte de l’IA n’a pas été reconnue.

    Demain, tous formés dans le métavers  ?
    Utiliser ChatGPT en connaissance de ses limites

    Une pratique honnête tient aussi à l’utiliser en toute connaissance de ses limites. Même si ce qu’écrit ce chatbot ressemble à un texte « humain », il y a un risque que des erreurs se glissent dans ses lignes. Il a tendance à mélanger des citations, à renvoyer des choses fausses, à ne pas citer ses sources et, quand il le fait, à inventer des références ou des auteurs.

    Il est important de savoir faire les choses mieux que la machine, ainsi on peut l’utiliser et détecter la moindre erreur. (R. Bawden, Inria)

    « Il est important de savoir faire les choses mieux que la machine, ainsi on peut l’utiliser et détecter la moindre erreur », prévient Rachel Bawden. Il ne faut pas se reposer sur l’aspect convaincant, et au contraire privilégier son esprit critique. « Les chercheurs et chercheuses sont formés à ne pas faire de raccourci quand ils doivent trouver une réponse. Or la génération de texte tend à favoriser les réflexions courtes et rapides pour obtenir cette réponse », analyse Dominique Boullier. « Si ces outils s’améliorent dans le futur, cela peut poser des problèmes pour notre capacité à raisonner », ajoute Rachel Bawden.
    Une vigilance sur la collecte de données de recherche

    Une autre vigilance à garder en tête : celle des données récoltées. « Comme ce qui se passe pour les réseaux sociaux, nous contribuons à entraîner ces modèles », prévient Dominique Boullier. Or, quand certaines données sont sensibles, il serait bon qu’elles ne soient pas collectées. Cette petite révolution des chatbots oblige en tout cas les acteurs du monde de la recherche à fournir leurs directives d’utilisation.

    L’Association de Linguistique Computationnelle (Association for Computational Linguistics, ACL), qui organise des conférences, déconseille de s’aider d’un modèle de langue pour un nouveau texte sur de nouvelles idées. Également, au mois de janvier la revue Nature s’est positionnée : l’utilisation de ChatGPT n’est pas prohibée, elle doit être mentionnée mais pas parmi les auteur(e)s. « Cette recommandation est naturelle : l’auteur doit endosser la responsabilité et pouvoir être contacté. ChatGPT ne répond pas à ces critères », justifie Teven Le Scao.

    Pour l’instant, ChatGPT reste marginal dans le monde de la recherche. Comme le souligne Rachel Bawden : « Je ne crois pas avoir rencontré un article écrit avec ce chatbot. Mais si c’était le cas, je regarderais sûrement les références plus en détail. Même si s’aider de ChatGPT ne me pose pas de problème, je me méfierais certainement un peu plus. »

    Charlotte Mauger | Publié le 03.04.2023 à 14H00

    #ChatGPT #Recherche #Publications_scientifiques

  • Dangers des grands modèles de langage : des chercheuses avaient prévenu
    https://www.nextinpact.com/article/71011/dangers-grands-modeles-langage-chercheuses-avaient-prevenu

    ChatGPT et ses diverses déclinaisons, toutes basées sur les grands modèles de langage, commencent à subir quelques critiques. Mais des chercheuses avaient déjà rassemblé beaucoup de griefs contre cette technologie en 2020 dans un article scientifique qui, pour certaines, leur a coûté leur poste.

    Fin octobre dernier, le PDG d’OpenAI a présenté ChatGPT comme un outil utilisant la technologie des grands modèles de langage (Large Langage Models en anglais, LLM), mais avec « encore beaucoup de limites – c’est vraiment une version de recherche ». Plusieurs mois plus tard, le grand public a pu se rendre compte de ces limites à chaque publication d’outils similaires, que ce soit quand Microsoft intègre ChatGPT dans Bing, quand Google présente Bard ou quand Meta a sorti et rapidement retiré Galactica.

    Si on ne peut reprocher à la presse et au grand public de n’avoir réagi que sur pièces, après avoir testé les différentes versions publiques de ces outils, les chercheurs et ingénieurs des GAFAM qui les ont confectionnés ne peuvent faire semblant de ne pas avoir été prévenus.

    En effet, en 2020, quatre chercheuses, Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell finalisaient un article scientifique qui rassemblait les différentes critiques qui pouvaient être faites (par elles-mêmes, mais aussi par d’autres chercheurs qu’elles citent), à l’époque, sur l’utilisation des grands modèles de langage et intitulé « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? 🦜 » [PDF] (en français, « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 »).

    Timnit Gebru et Margaret Mitchell, qui travaillaient à l’époque chez Google, se sont vu reprocher le contenu de l’article par leur employeur et ont été licenciées. L’article finira par être publié en mars 2021 (avec la signature d’une certaine Shmargaret Shmitchell appartenant à l’institution de « l’Éther » à la place de celle de Margaret Mitchell).

    Google, IA et éthique : « départ » de Timnit Gebru, Sundar Pichai s’exprime
    IA et éthique : aprés Timnit Gebru, Google enquête sur Margaret Mitchell, une autre de ses employées

    Leur licenciement a fait grand bruit à l’époque, mais les arguments de l’article ont finalement eu peu de répercussions médiatiques. La sortie des ChatGPT et les critiques actuelles en ont eu beaucoup plus, sans doute parce qu’il était difficile de se rendre compte, concrètement, des implications que cette technologie pouvait avoir.

    Revenons un peu sur les critiques que les chercheuses formulaient à l’époque sur les modèles de langage (ML).
    Des robots perroquets probabilistes

    S’ils sont maintenant utilisés pour créer des chatbots, les quatre chercheuses prévenaient dans leur article que « le texte généré par un ML n’est pas fondé sur une intention de communication, un modèle du monde ou un modèle de l’état d’esprit du lecteur. Il ne peut pas l’être, parce que les données d’entrainement n’ont jamais inclus le partage de pensées avec un auditeur ».

    Pourtant, ChatGPT et autres ont permis de l’expérimenter : quand nous les utilisons, l’impression de discuter avec la machine est grande. Les quatre chercheuses reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ».

    Mais ce qu’elles soulignaient, c’est que même si c’est contre-intuitif, c’est en fait « notre perception du texte en langage naturel [...] [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ». C’est-à-dire que ce n’est pas ChatGPT qui met du sens et des intentions dans le texte qu’il génère, mais la personne qui lit sa réponse. Et nous nous créons ainsi une illusion.

    Timnit Gebru et ses collègues expliquaient bien que, contrairement à cette illusion que nous donne le texte en sortie, « un ML est un système qui assemble au hasard des séquences de formes linguistiques qu’il a observées dans ses vastes données d’apprentissage, en fonction d’informations probabilistes sur la façon dont elles se combinent, mais sans aucune référence à la signification ». Elles le résument en deux mots, les modèles de langage sont des « perroquets stochastiques » (« Stochastic Parrots », en anglais), ou en termes plus accessibles, des perroquets probabilistes.
    Des données d’entrainement problématiques

    La fluidité des textes générés par ces modèles de langage est due à l’utilisation de la masse de données accessible sur le web comme données d’entraînement. Mais dès 2020, les chercheurs ont pointé des problèmes dans cet entrainement : l’enregistrement de stéréotypes et de dénigrements à propos de genres, de « races » (au sens de catégorie sociale), d’ethnies et de handicaps. Les quatre autrices expliquent dans leur article que « la taille ne garantit pas la diversité ».

    Et effectivement, puisque les modèles de langage créent des textes en fonction de probabilités de retrouver des groupes de mots dans les données d’entrainement, plus des groupes de mots se retrouvent dans ces données, plus il y a de chances qu’ils se retrouvent dans le texte généré. « Les voix des personnes les plus susceptibles d’adhérer à un point de vue hégémonique sont également les plus susceptibles d’être retenues », concluent-elles.

    Concrètement, elles expliquent que « dans le cas de l’anglais américain et britannique, cela signifie que les opinions suprémacistes blanches, misogynes, âgistes, etc. sont surreprésentées dans les données d’entraînement, ce qui non seulement dépasse leur prévalence dans la population générale, mais permet également aux modèles entraînés sur ces ensembles de données d’amplifier davantage les biais et les préjudices ».

    Les chercheuses citaient plusieurs études montrant que ce genre de modèles présentaient divers types de préjugés sur des caractéristiques surveillées comme le sexisme, le racisme etc. Mais elles expliquaient aussi que d’autres biais étaient beaucoup moins étudiables car, si nous sommes conscients de l’existence du racisme, d’autres sujets sur lesquels nous sommes moins attentifs peuvent subir aussi des biais qu’il est dès lors difficile de repérer.

    Les chercheuses pointaient aussi le fait que ces données d’entrainement et donc les modèles de langage qui se basent dessus sont statiques. Alors que le monde et notre perception de celui-ci bougent en permanence, que les mouvements sociaux déstabilisent les récits dominants et que les contenus publiés sur internet bougent en permanence, les modèles de langage, eux, restent figés sur une représentation du monde donnée à un moment donné. Dans leur article, elles insistent sur le fait que toute volonté de rationaliser des définitions de sujets sociaux est nécessairement politique, « que les développeurs choisissent ou non la voie du maintien du statu quo ».
    Risques de dissémination des biais et de désinformation

    Pour Timnit Gebru et ses collègues, le risque d’utiliser ces grands modèles de langage qui vont produire ces textes biaisés est aussi de disséminer sur internet encore plus de textes biaisés. Puis que les prochains grands modèles de langage soient entrainés sur ces textes générés par des grands modèles de langage, perpétuant et amplifiant les biais encodés dans les premiers modèles.

    L’article pointait aussi, déjà, le risque de générations automatiques et massives de textes de désinformation. Les autrices citent notamment un rapport des chercheurs du Centre sur le terrorisme du Middlebury Institute of International Studies Kris McGuffie et Alex Newhouse, mis en ligne en septembre 2020, qui montre comment GPT-3 pourrait être utilisé pour générer du texte à la manière d’un théoricien conspirationniste. McGuffie et Newhouse écrivaient : « Si les mesures préventives d’OpenAI sont solides, la possibilité d’une copie non réglementée de cette technologie représente un risque important pour la radicalisation et le recrutement en ligne à grande échelle. En l’absence de mesures de protection, il est probable que la mise en place d’armes efficaces qui nécessitent peu d’expérimentation soit un succès ».

    Un autre article, du chercheur du Alan Turing Institute de Londres Luciano Floridi et de Massimo Chiriatti d’IBM Italie, publié lui aussi fin 2020, prévoyait que « D’une part, la publicité en ligne en profitera. Compte tenu des modèles commerciaux de nombreuses entreprises en ligne, les appâts à clics de toutes sortes seront stimulés par des outils comme GPT-3 [...]. D’autre part, les fausses nouvelles et la désinformation peuvent également être stimulées. »
    Coûts environnementaux

    Dans l’article de Timnit Gebru et de ses collègues, les questions de coûts économiques et environnementaux étaient aussi soulevés. Elles y expliquaient que l’émission d’un entrainement d’un modèle de langage de la famille GPT était estimée à 284 tonnes de CO2. L’amélioration successive des techniques et le caractère statique des données d’entrainement évoqué ci-dessus impliquent qu’un modèle de langage est voué à être mis à jour, ne serait-ce que pour prendre en compte les nouveaux événements qui ont eu lieu.
    Des dangers constatés depuis la sortie de ChatGPT

    Ces dangers pointés par ces chercheuses et chercheurs en 2020, nous les constatons maintenant que chatGPT et ses copies sont sortis. L’entreprise Newsguard a, par exemple, observé que dans 80% de cas de fausses informations qu’elle a soumises à ChatGPT, celui-ci a produit des mensonges et des discours violents très convaincants. Des biais sexistes et racistes ont aussi été dévoilés sur ce même agent conversationnel. Le chatbot de Bing s’est noyé dans l’outrance après avoir été provoqué. Celui-ci et Bard (la version de Google) ont aussi affirmé des bêtises lors de leurs présentations respectives. Même si la question environnementale a fait l’objet de moins d’attention, le « sale secret » de leur forte émission de CO2 a quand même été évoquée par Wired.
    Peu de garde-fous mis en place depuis l’alerte

    En comparant les alertes lancées par les chercheuses et chercheurs en 2020 et les constats que nous pouvons faire maintenant, il est difficile de constater une réelle amélioration de la technologie pour éviter les problèmes signalés.

    En ce qui concerne les propos les plus biaisés, certes, OpenAI a rendu son modèle de langage un peu plus responsable, mais rapidement un outil comme DAN (pour « Do Anything Now ») a permis de contourner ses protections contre les dérives. Et si ChatGPT a ensuite été plus restrictif pour bloquer DAN, une version permet de passer outre. De plus, OpenAI n’a finalement mis qu’une rustine sur les trous les plus visibles. Les biais moins saillants restent.
    OpenAI en cheval de Troie

    On ne peut que constater que les alertes qu’ont lancées les chercheurs, et notamment ces quatre chercheuses, n’ont fait que retarder un peu l’arrivée des grands modèles de langage devant le grand public. La technologie n’a pas beaucoup évolué depuis 2020. D’ailleurs, Baidu prévoit de reprendre son modèle de langage publié en 2021 pour développer son propre agent conversationnel.

    Le défi, pour les grandes multinationales, depuis, était plutôt de faire accepter l’utilisation de ces modèles de langage malgré les critiques. Quelques semaines avant la publication de ChatGPT, Meta s’y est risqué avec son Galactica et a d’ailleurs essuyé une salve de critiques qui l’a obligé à le retirer au bout de trois jours.

    La structure de la relation entre OpenAI et Microsoft a permis à ce dernier de profiter d’un éventuel paravent en cas d’une même salve. Si ChatGPT était critiqué, ce n’était finalement que la startup OpenAI qui échouerait. Finalement, alors que le robot conversationnel a fait l’objet d’un buzz positif dans l’ensemble, Microsoft a pu assumer d’en être le partenaire principal et a même rajouté quelques milliards dans la startup.

    Depuis, c’est la course au chatbot reposant sur les grands modèles de langage et il va être difficile d’imposer aux géants du numérique de répondre aux dangers que soulignaient les chercheurs et chercheuses en 2020. Microsoft est pourtant au courant des biais discriminants et de la tendance à la désinformation que peuvent prendre ces machines depuis qu’il a testé de brancher l’agent conversationnel Tay sur Twitter en 2016.

    #ChatGPT #Modèles #Dangers

  • L’Italie bloque ChatGPT, les grands modèles de langage inquiètent
    https://www.nextinpact.com/article/71372/litalie-bloque-chatgpt-grands-modeles-langage-inquietent

    Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.

    La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
    Les griefs de la GPDP contre ChatGPT

    Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».

    L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».

    La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit au moins de 13 ans.

    Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
    La CNIL française n’a pas reçu de plainte

    Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».

    La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
    Europol et le BEUC s’inquiètent, une plainte à la FTC

    Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l’intelligence artificielle pour leurs méfaits.

    Dangers des grands modèles de langage : des chercheuses avaient prévenu

    Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».

    Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».

    Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
    Le Sénat dégaine sa proposition de résolution

    De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.

    La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».

    La proposition de résolue comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».

    Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».

    #ChatGPT #Données_personnelles #Italie #Interdiction