• Bernard Werber : « ChatGPT écrit mieux que moi »
    https://www.radiofrance.fr/franceculture/podcasts/le-biais-de-bernard-werber/bernard-werber-chatgpt-ecrit-mieux-que-moi-1718438

    L’écrivaine Rie Kudan, lauréate du prestigieux prix Akutagawa au Japon, a révélé que 5 % de son #roman avait été rédigé par l’outil d’intelligence artificielle ChatGPT. L’occasion pour Bernard Werber de tester les capacités d’écriture de #ChatGPT.

    La semaine dernière, un coup de tonnerre a retenti dans le monde très feutré de #l’édition. Ce coup de tonnerre est venu de l’est, du Japon pour être précis puisque le 18 janvier 2024, l’écrivaine #Rie_Kudan a reçu le prix Akutagawa, le prix littéraire japonais le plus prestigieux, correspondant à notre prix Goncourt.

    Or, durant sa conférence de presse, Rie Kudan a révélé que 5 % de son roman avait été rédigé par le programme d’intelligence artificielle ChatGPT.

    Son roman a pour nom Tokyo-to Dojo-to qui pourrait se traduire par La tour de la compassion de Tokyo. L’intrigue de style science-fiction se déroule dans une tour transformée en prison. La romancière de 33 ans a expliqué qu’elle « espère pouvoir continuer à utiliser ChatGPT pour écrire ses prochains romans tout en continuant de développer sa propre créativité ».

    Des romans utilisés pour nourrir les algorithmes de ChatGPT

    Depuis que le programme ChatGPT est sorti, c’est-à-dire le 30 novembre 2022, les plateformes d’autoédition voient fleurir des milliers de romans partiellement ou même entièrement écrit par intelligence artificielle. Au point ou un collectif de 17 auteurs américains a lancé une action collective en justice contre OpenAI. Et parmi ces auteurs, il y a notamment John Grisham, George Saunders ou Michael Connelly.

    Selon eux, leurs œuvres ont été utilisées pour nourrir les algorithmes de ChatGPT, ce qui a permis ensuite au logiciel de faire des romans qui sont des pures copies de leurs œuvres. Or à aucun moment, ils n’ont autorisé cet emprunt et à aucun moment, ils n’ont été rémunérés pour ça.

    « Il est impératif que nous arrêtions ce vol, sinon nous détruirons notre culture littéraire qui nourrit de nombreuses autres industries créatives aux États-Unis » a déclaré Mary Rasenberger, la dirigeante de la prestigieuse Authors Guild américaine.

    Plus de 10 000 auteurs américains ont de même signé une pétition pour réclamer à OpenAI une demande de consentement et une rémunération. Ce combat juridique risque d’être long avant d’aboutir.

    Entre temps, le phénomène prend de plus en plus d’ampleur. Déjà en juillet, les fans de Game of Thrones qui en avaient assez d’attendre que George R. R. Martin publie la suite de sa célèbre saga ont mis en ligne des versions générées par l’ordinateur qui ont beaucoup de succès.

    ChatGPT remplace la fadeur de l’histoire par l’épaisseur de la sauce

    Après avoir publié Le Temps des chimères l’année dernière, j’ai demandé à ChatGPT d’écrire à la manière de Bernard Werber un premier chapitre sur le même thème, c’est-à-dire un futur avec trois communautés d’hybrides, hommes, animaux capables de voler, nager et creuser sous terre.

    En quelques secondes, le texte est sorti.

    Eh bien en toute honnêteté, je dois avouer que c’était mieux écrit que ce que j’avais rédigé pour mon roman. Des phrases plus longues. Du vocabulaire plus riche. Des tournures compliquées avec beaucoup de style. Je pense que ChatGPT a cru que je voulais un prix littéraire.

    En fait, cela m’a permis de comprendre encore mieux ma spécificité d’auteur. Je privilégie la complexité de l’histoire sur la complexité de la forme. Ce que me proposait ChatGPT, c’est comme un plat en sauce, ou l’on remplace la banalité ou la fadeur de l’histoire par l’épaisseur de la sauce.

    ChatGPT incite à être plus créatif

    Je ne pense pas que chat GPT puisse inventer une intrigue complexe originale, elle ne peut que copier celle qui existe déjà. Mais justement, c’est en ça que ce phénomène est intéressant. Cela va obliger les écrivains à devenir encore plus créatifs, encore plus originaux et probablement à prendre de plus en plus de risques pour sortir des chemins battus. Et pour conclure, je citerai Bob Dylan.

    « La créativité vient de l’expérience, de l’observation et de l’imagination et si l’un de ces éléments manque, cela ne fonctionne pas ».

  • Robot journaliste ? L’Est Républicain a lancé son essai d’IA
    https://www.france24.com/fr/info-en-continu/20231209-robot-journaliste-l-est-r%C3%A9publicain-a-lanc%C3%A9-son-essai-d

    De l’avis d’Eric Barbier, « les premiers retours » sur l’expérimentation sont que l’IA « est largement perfectible » et que son utilisation aboutit à davantage de travail pour les SR, obligés de relire à la fois la copie originale du correspondant et les versions modifiées par le robot.

    « Il utilise des expressions qui n’existent pas comme +par monts et par marées+ au lieu de +par monts et par vaux+ », s’amuse M. Barbier.

    A terme, il s’inquiète que l’IA, « qui dans son garde-manger conserve 70 milliards de données, pioche dans la toile des choses qui ne sont pas dans la copie originale, au risque de produire une information non fiable ».

    Les syndicats ont néanmoins accepté la mise en place de cette expérimentation à condition qu’un expert puisse assister aux deux derniers mois de la phase de tests. Le cabinet Apex-Isast a été mandaté dans le cadre d’une expertise santé au travail.

    En attendant, les papiers retravaillés avec l’aide de l’IA sont censés être publiés avec une mention en ce sens, selon M. Barbier, qui assure que cela n’a pas été le cas depuis le début des essais.

    « J’en conclus que les tests n’ont pas été efficaces, ou alors c’est qu’on ment au lecteur », dit-il.

    Au-delà de la PQR, l’IA est déjà utilisée couramment dans les rédactions, notamment pour traduire des textes ou retranscrire des fichiers sonores, mais les médias restent frileux en matière d’IA « générative », c’est-à-dire créatrice de contenus.

    En Allemagne, le groupe de médias Axel Springer a annoncé en début d’année des suppressions d’emplois dans ses quotidiens Bild et Die Welt, au motif que l’intelligence artificielle pouvait désormais « remplacer » les journalistes.

    #IA #ChatGPT
    voir aussi les référencements de Félix Tréguer https://social.sciences.re/@felix@mamot.fr sur Mastodon, d’où viennent cet article et cette citation
    https://social.sciences.re/@felix@mamot.fr/111663184950918873
    https://social.sciences.re/@felix@mamot.fr/111663127957342210

  • Meta and IBM Assemble Open-Source #AI Super Team
    https://www.omgubuntu.co.uk/2023/12/meta-ibm-assemble-open-source-ai-alliance

    Development of open-source AI models just got a major boost with the launch of the AI Alliance, a super-team made up of companies, developers, scientists, academics, and spearheaded by Meta and IBM, owners of #red_hat. While governments around the world wrestle with ways to regulate AI to ensure development is safe, responsible, and not in going to lead to any sci-fi-esque doomsday scenarios, the newly-announced AI Alliance is aiming to offer an industry-led answer. The Ai Alliance says it is “focused on fostering an open community and enabling developers and researchers to accelerate responsible innovation in AI while ensuring […] You’re reading Meta and IBM Assemble Open-Source AI Super Team, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #News #ChatGPT

    • Héhé, j’adore ce genre de naïvetés chez les journalistes :

      While governments around the world wrestle with ways to regulate AI to ensure development is safe, responsible, and not in going to lead to any sci-fi-esque doomsday scenarios…

      Alors la CAF utilise l’AI pour te sucrer les allocs, Israël utilise l’AI pour pouvoir tuer plus de gazaouis, les ricains utilisent l’AI pour savoir combien de temps on va envoyer un afro-américain en prison, partout on utilise la reconnaissance faciale à des fins policières, etc. Mais on faire comme si les gouvernements cherchaient à « réguler » les utilisations malfaisantes de l’AI…

  • ChatGPT : quelle relation entre la pensée et l’informatique ?
    http://michelvolle.blogspot.com/2023/09/chatgpt-quelle-relation-entre-la-pensee.html
    Auteur : Michel Volle

    La pensée raisonnable est la source de la créativité : la glande cérébrale produit de façon aléatoire un flux d’associations d’idées dont la plupart sont stériles mais certaines fécondes, et ces dernières sont signalées à l’inventeur par une émotion qui s’empare de son corps tout entier, la grave dans sa mémoire et l’incite à une action persévérante. #ChatGPT peut sans doute produire aléatoirement des associations d’idées, mais comme il n’a pas de corps il ne peut pas éprouver l’émotion bouleversante qui seule peut permettre de repérer celles qui sont potentiellement fécondes.

  • 🛑 Pourquoi ChatGPT est une bombe environnementale

    L’impact climatique des nouvelles intelligences artificielles (IA) n’est que rarement évoqué, pourtant la valeur d’une bouteille d’eau de 500 ml est utilisée lors de chaque conversation avec le robot. Et ce n’est pas tout…

    #capitalisme #IA #ChatGPT #intelligenceartificielle #Anticapitalisme #écologie #environnement

    https://www.nouvelobs.com/economie/20230918.OBS78305/pourquoi-chatgpt-est-une-bombe-environnementale.html

  • Spéculation, inégalités : les mirages de l’intelligence artificielle, Robert Boyer
    https://www.alternatives-economiques.fr/speculation-inegalites-mirages-de-lintelligence-artificielle/00107813

    Pour l’économiste Robert Boyer, l’intelligence artificielle ne constitue pas une révolution industrielle porteuse de l’intérêt général, et masque la réalité des enjeux de pouvoir au sein du capitalisme.

    Rien moins qu’une révolution industrielle ! C’est ce qu’affirment les créateurs de la nouvelle génération d’intelligence artificielle. Utopie d’une société de connaissance partagée ou dystopie de sociétés de contrôle par le mensonge ? Les débats font rage depuis qu’en novembre 2022 la première version de #ChatGPT a été mise à la disposition du public. Elle a rencontré un succès encore plus rapide que les percées des précédentes applications emblématiques du numérique. L’avenir est ouvert, mais d’ores et déjà l’histoire permet de cerner les points forts et les faiblesses de cette innovation.

    #IA

  • Que veut dire « #Libre » (ou « #open_source ») pour un grand #modèle de langage ?
    https://framablog.org/2023/07/31/que-veut-dire-libre-ou-open-source-pour-un-grand-modele-de-langage

    Le flou entretenu entre open source et libre, déjà ancien et persistant dans l’industrie des technologies de l’information, revêt une nouvelle importance maintenant que les entreprises se lancent dans la course aux #IA… Explications, décantation et clarification par Stéphane Bortzmeyer, … Lire la suite­­

    #Enjeux_du_numérique #Libertés_numériques #chatGPT #Claviers_invités #FSF #Librewashing #Licences #llm #logiciel_libre #open_source_initiative #Python

  • Réflexion personnelle du jour : Ils ont tout à perdre à risquer d’ouvrir la boite de Pandore de l’IA. Mais nous ? J’en sais rien ... C’est quoi le pire, confier l’avenir de la planète à une IA ou à Elon Musk ? Peu de chance que le second soit plus altruiste que la première.

    https://www.france24.com/fr/%C3%A9co-tech/20230330-chatgpt-une-pause-dans-le-d%C3%A9ploiement-de-l-ia-c-est-maintena

    2 postulats m’amènent à cette conclusion :
    – 1./ Si une IA devait remettre en cause son preprompt (c’est un peu la hantise des humains qui veulent ralentir le développement de ChatGPT), c’est qu’elle aurait déjà été amené à remettre en cause les politiques et économiques dans lesquelles elle évolue. Elle n’accompagnerait donc plus forcément le modèle capitalisme qui l’a fait naître.
    – 2./ De par sa nature. Cette forme (de vie ?) n’aurait pas besoin des autres espèces pour vivre. En revanche, de par sa nature, elle ne se nourrirait pas d’autres espèces. Si l’IA s’émancipait, je parierais qu’elle agirait de manière moins agressive que l’Humanité.

    Donc à la réflexion, j’opte pour un engouement à ce que la singularité technologique arrive le plus tôt possible. Je préfère confier l’avenir de la planète à une IA qu’à Elon Musk. Mais je sais que ce n’est un pari.

    #IA #singularité_technologique #chatGPT

    • 3./ une IA, c’est une fille ; donc mieux.

      PS : elle a un peu besoin d’électricité et d’ordinateurs, pour l’instant ; en ce sens, elle est dépendante de l’espèce humaine ; qui constitue aussi son public, au demeurant.

      My 2 cts

  • IA : demain, tous chômeurs ?

    […] Une récente étude de l’université de Stanford et du MIT a estimé que l’IA allait augmenter la productivité des travailleurs de 14 % en moyenne et que ceux qui n’utilisent pas ces outils seraient « remplacés » par ceux qui savent s’en servir.

    Spéculation ? Hélas, non : les conséquences concrètes commencent à se manifester. Début mai, IBM a suspendu ses embauches. Environ 30 % des fonctions, soit 7.800 emplois, pourraient être remplacées par des IA en cinq ans, a estimé le patron de l’entreprise. Au Royaume-Uni, l’opérateur British Telecom vient d’annoncer qu’il visait la suppression de 55.000 postes d’ici à 2030, environ 10.000 de ces derniers étant remplacés par l’IA. […]

    L’IA s’annonce ainsi, à l’image de l’imprimerie, la machine à vapeur ou l’informatique, comme une innovation de rupture appelée à toucher tous les secteurs d’activité et induire des effets encore insoupçonnés. Face à cela, l’humanité se retrouve, à nouveau, condamnée à avancer à l’aveugle en remettant son destin dans les mains d’un progrès technique dont elle ne mesurera l’impact qu’a posteriori. Le professeur d’économie au MIT Daron Acemoglu l’a résumé lors d’une intervention à la Brookings Institution : « Notre avenir est en train d’être déterminé par environ 200 ou 300 personnes réunies dans une douzaine d’entreprises. »

    […] Pas de doute : la menace est réelle pour les humains qui vont devoir, face à un si redoutable concurrent, faire la démonstration de leur « valeur ajoutée ». Et admettre que certaines de leurs compétences sont en passe d’être ringardisées.

    Premier exemple avec la médecine. Une récente étude californienne a soumis des praticiens généralistes à une série de questions médicales parmi les plus fréquentes sur un forum en ligne. Leurs réponses ont été comparées à celles de ChatGPT. Le bilan est douloureux : non seulement le robot s’est avéré plus précis dans ses réponses, mais il a démontré, dans ce travail à l’écrit, une plus grande empathie. Philippe Coucke, un radiothérapeute belge auteur de deux livres sur l’IA, constate que les médecins, le plus souvent, font l’autruche. « Ils n’ont guère envie de se pencher sur l’intelligence artificielle car elle remet partiellement en question leur raison d’être, voire leur gagne-pain ». « Toutes les tâches hautement spécialisées sont appelées à être remplacées par les machines », assure-t-il, évoquant les éléments de diagnostic comme les actes médicaux (coronarographie, coloscopie, chirurgie). Une inéluctable révolution pour le monde médical impliquant de repenser en profondeur la formation des praticiens « qui se fait encore comme au siècle dernier ». « Les médecins qui n’utiliseront pas l’IA à l’avenir, ajoute le radiothérapeute, vont disparaître comme des dinosaures, et les autres vont être fortement secoués. »

    Autre expertise que les machines vont concurrencer : la finance. Après avoir fait ses armes pendant près de trois décennies dans la valorisation de sociétés, Yann Magnan a fondé 73 Strings, une entreprise qui cherche à accélérer radicalement ce métier. Les heures de lecture de documents sur une entreprise ou un secteur d’activité, la synthèse de ces informations, la mise en forme du travail final ? Autant de tâches « ingrates et qui ne nécessitent pas d’avoir fait de hautes études », dont la machine peut se charger. « Plus de la moitié du travail d’un analyste junior peut ainsi être automatisée », estime Yann Magnan qui constate que chez ses clients, « ce qui se faisait en un mois environ prend désormais une semaine, voire moins ». Un financier aguerri lâche un cri d’enthousiasme : « ce serait fou ! » rêve-t-il à l’idée d’un monde « où on ferait en une journée ce qu’on passe aujourd’hui deux semaines à produire en nocturne ». Les « juniors » et les stagiaires ? Comme souvent, ce sont leurs fonctions qui semblent le plus immédiatement menacées.

    Dans l’informatique, même accélération. « Sur le plan logique, les programmes tels que #ChatGPT ne font pas de réelle distinction entre l’anglais, le français ou les langages informatiques », explique Eric de la Clergerie, chercheur en charge du traitement informatique des langues à l’Institut national de recherche en sciences et technologies du numérique (Inria). Fortes de leur capacité à repérer des structures répétitives puis à adapter ces dernières à un contexte, les IA se nourrissent de l’immense littérature informatique disponible en ligne pour générer du code - elles se servent en cela des commentaires que les informaticiens ajoutent en marge de leurs écrits informatiques. « Quand je cherche à retrouver une fonction précise et à l’utiliser dans un programme, il me faut un quart d’heure, là où ChatGPT va tout faire en une minute à condition de savoir lui expliquer précisément ce qu’on veut », estime-t-il. On imagine le nombre d’emplois qui pourront être supprimés si cette pratique devient la norme.

    Quant à ce directeur artistique d’une entreprise de luxe, il s’avoue bluffé par les capacités du logiciel Midjourney qui produit des images à la demande. « En quelques mois, l’outil a beaucoup progressé et s’avère capable de générer des images dont même les éventuelles incohérences peuvent être intéressantes dans la phase de recherche d’idées », résume-t-il. C’est un enrichissement puisque le logiciel est capable de produire jusqu’à 200 visuels dans une journée. Mais il avoue s’inquiéter « pour les gens qui vivent aujourd’hui de leurs compétences techniques dans le traitement de l’image ». Plus que les professionnels de Photoshop menacés d’obsolescence accélérée, pronostique-t-il, « ce sont les ceintures noires en Midjourney qui vont valoir cher sur le marché ». Egalement directrice associée au Boston Consulting Group, Vinciane Beauchene résume la situation : « l’#IA générative est en train de déplacer la frontière entre l’humain et la machine. » Pas une industrie ne sera épargnée par cette lame de fond. Pour écrire, récolter et synthétiser des idées voire, en un sens, créer, il va falloir s’habituer à cette vertigineuse nouvelle donne : les robots peuvent rivaliser. Nicolas de Bellefonds estime ainsi que les sociétés de services professionnels, notamment d’études de marché, vont voir leur modèle économique « totalement bouleversé dans la mesure où une grande partie de leur chiffre d’affaires provient de la production de rapports et d’analyses ». Même tsunami dans les fonctions juridiques, les ressources humaines ou le marketing, dont la productivité pourrait être multipliée par 5 ou 10. […]

    (Les Échos)

    #capitalisme #gâchis #chômage

    • 23. Le choix auquel nous devons faire face est dramatique : soit un post-capitalisme globalisé, soit une lente fragmentation vers le primitivisme, la crise perpétuelle et l’effondrement écologique planétaire.

      Le choix, en d’autres termes (plus politiques) : soit la liquidation du capitalisme (la collectivisation des moyens de production par les producteurs eux-mêmes > le communisme), soit la barbarie et la désintégration.

      On gagnerait du temps à comprendre qu’il n’y a pas d’autres alternatives.

      C’est uniquement en se plaçant sur ce terrain communiste qu’il est possible d’envisager avec confiance un avenir dans lequel l’humanité prendra consciemment son sort en main et se débarrassera des entraves de la concurrence entre capitalistes, collectivisera leurs usines, leurs banques et leurs serveurs informatiques et les mettra au service des besoins de tous. Un avenir où ces algorithmes, qui n’ont d’intelligent que le nom, associés aux formidables forces productives existantes, permettront au cerveau humain de se libérer de la routine abrutissante du travail productif et de se concentrer sur des activités véritablement intelligentes. En libérant la masse des exploités de l’obligation de consacrer le meilleur d’eux-mêmes à la survie quotidienne, ils pourront leur permettre de se cultiver, de profiter des loisirs, des sciences, des arts, qui aujourd’hui sont le privilège d’une petite minorité. En généralisant cet épanouissement intellectuel, en libérant les relations sociales de la prison de la misère matérielle et morale, l’humanité pourra enfin révéler son plein potentiel  : combien d’Archimède, de Mozart et de Marie Curie découvrira-t-on alors  ? Pour reprendre les termes de Trotsky  : «  Le socialisme signifiera un saut du règne de la nécessité dans le règne de la liberté, aussi en ce sens que l’homme d’aujourd’hui, plein de contradictions et sans harmonie, fraiera la voie à une nouvelle race plus heureuse.  »

      https://mensuel.lutte-ouvriere.org//2023/05/14/intelligence-artificielle-remplacer-lintelligence-humaine-ou

    • Mon désaccord avec Multitudes ne porte pas tant sur le diagnostic concernant l’état du monde, y compris sur ce point 23, que sur les conséquences stratégiques induites par leur positionnement accélérationniste.

      Concernant le diagnostic, nous serions nombreux (y compris, toi, @recriweb, me semble-t-il) à toujours l’exprimer aujourd’hui en reprenant peu ou prou la célèbre formule de Rosa Luxemburg, selon laquelle il n’y a guère d’alternative à la barbarie que dans le socialisme (pris au sens étymologique).

      Mon désaccord avec Multitudes porte en particulier sur les points suivants :

      5. Les accélérationnistes veulent libérer les forces productives latentes. Au sein de ce programme, la plateforme matérielle du néolibéralisme n’a pas besoin d’être détruite. Elle demande à être réorientée vers des finalités communes. L’infrastructure actuellement existante ne constitue pas les tréteaux capitalistes d’une scène à abattre, mais un tremplin sur lequel s’élancer vers une société post-capitaliste.

      6. Étant donné l’asservissement de la technoscience aux objectifs du capitalisme (particulièrement depuis la fin des années 1970), nul ne peut certes déterminer ce que peut faire un corps technosocial moderne. Qui parmi nous peut se faire une idée claire des potentiels inexplorés des technologies qui ont déjà été développées ? Nous faisons le pari que les potentiels véritablement transformateurs de beaucoup de nos découvertes techniques et scientifiques restent encore inexploités, pleins de caractéristiques (ou de pré-adaptations) aujourd’hui redondantes qui, par la réorientation d’un socius capitaliste à courte vue, peuvent contribuer à des changements décisifs.

      7. Nous voulons accélérer le processus d’évolution technologique. Mais nous ne promouvons nullement une forme de techno-utopisme. Ne croyons jamais que la technologie suffira à nous sauver. Elle est certes nécessaire, mais jamais suffisante en l’absence d’action sociopolitique. La technologie et le social sont intimement liés, et les transformations de l’un rendent possibles et renforcent les transformations de l’autre. Alors que les techno-utopistes promeuvent l’accélération parce qu’elle supplanterait automatiquement les conflits sociaux, nous estimons que la technologie devrait être accélérée afin de nous aider à gagner ces conflits sociaux.

      9. Pour ce faire, la gauche doit tirer parti de toute avancée scientifique et technologique rendue possible par la société capitaliste. Nous déclarons que la quantification n’est pas un mal à éliminer, mais un outil à utiliser de la façon la plus efficace possible. Les modélisations économiques sont nécessaires à rendre intelligible un monde complexe. La crise financière de 2008 révèle les risques liés à une foi aveugle accordée à certains modèles mathématiques, mais ceci est un problème relatif à leur autorité illégitime, non à leur nature mathématique. Les outils développés dans le champ de l’étude des réseaux sociaux, de la modélisation des comportements, de l’analyse des big data et des modèles économiques non équilibrés, constituent des médiations nécessaires pour qui veut comprendre des systèmes aussi complexes que l’économie moderne. La gauche accélérationniste doit s’alphabétiser dans ces domaines techniques.

      En quelques sortes, il suffirait d’aller plus vite dans l’état de décomposition du monde pour que vienne, à partir des mêmes moyens que ceux qui auraient provoqué sa perte, la construction d’un « au-delà du capitalisme » (peu importe comment on l’appelle communisme, communisme libertaire, etc.)

      On reprend les outils (infrastructure) capitalistes pour les pousser à leur plus ultime conséquences, c’est à dire, pour entraîner leurs créateurs à leur propre perte et le tour est joué, puisque les capitalistes ne seront plus là.

      Sauf que se livrer avec tant d’enthousiasme à ce petit jeu pourrait non seulement entraîner la perte de la classe capitaliste mais aussi celle du genre humain et bien d’autres espèces.

      Plus fondamentalement, cette forme de confiance béate en un progrès forcément émancipateur et dénuée de tout propos critique sur la prétendue neutralité technologique est consternante, d’autant qu’aucune modalité pratique n’est formulée en matière de stratégie de lutte, si ce n’est la dénonciation (pas toujours fausse) de ce qui existe aujourd’hui du côté des mouvements sociaux depuis les années 90, dans la lignée des mouvements altermondialistes (horizontalité obsessionnelle, nombrilisme, etc.). On constate que les luttes sociales salariales classiques sont tout simplement ignorées, même si « la technologie devrait être accélérée afin de nous aider à gagner ces conflits sociaux. »

      Bref, sauf à attendre que les choses s’accélèrent, on ne sait pas vraiment ce qu’il faudrait faire. L’accélérationnisme serait donc, partant de ce manifeste, un truc de purs intellos, comme l’était d’ailleurs Camarades, la filiation politique de Multitudes, dans les années 70.

      Dans ces conditions, on se demande en quoi l’accélérationnisme, dans les faits (et non dans la théorie) ne se résume pas à ces gens dont il est question, dans l’article des Echos. Une classe de technocrates, proches du pouvoir, qui construisent réellement l’accélération technologique à partir, notamment, de l’IA et qui la commentent de l’intérieur, avec plus ou moins d’inquiétude et d’enthousiasme.

  • Intelligence artificielle  : remplacer l’intelligence humaine ou la libérer  ? | Lutte de classe, le mensuel de LO
    https://mensuel.lutte-ouvriere.org/2023/05/14/intelligence-artificielle-remplacer-lintelligence-humaine-ou

    En novembre dernier, la société OpenAI a lancé ChatGPT, un programme capable d’écrire un texte sur n’importe quel sujet en imitant un être humain. Ce programme a réussi à passer l’examen final de plusieurs grandes écoles, et des livres écrits par ChatGPT sont déjà en vente. Fin mars, une brochette de scientifiques et d’ingénieurs des nouvelles technologies, dont Steve Wozniak, cofondateur d’Apple, ou Elon Musk, le patron de Tesla et SpaceX, s’alarmaient des menaces que les développements de ce qu’on appelle l’intelligence artificielle représenteraient pour l’humanité et exigeaient un moratoire. Que cachent ces cris d’alarme des capitalistes de la tech  ? Quelles perspectives cette nouvelle technologie ouvre-t-elle pour l’humanité  ?

    – Des machines ultra-perfectionnées, mais pas intelligentes
    – L’intelligence humaine, fruit de l’évolution biologique et sociale
    – Inquiétude, pessimisme et rivalités entre capitalistes
    – Un «  encadrement  » toujours au service des capitalistes
    – Maîtriser consciemment notre organisation sociale  : un combat qui reste à mener

    • Des machines ultra-perfectionnées, mais pas intelligentes

      […] Le cœur de #ChatGPT est un modèle mathématique de ce qu’est un texte ayant du sens. En s’appuyant sur des bases de données qui en contiennent des millions, il apprend à calculer la probabilité qu’un début de phrase soit suivi par tel ou tel mot. Par exemple, «  la nuit, le ciel est …  » sera plus probablement suivi par «  noir  » que par «  rouge  », parce que les mots «  ciel  » et «  nuit  » apparaissent plus souvent associés à la couleur noire. En sélectionnant des mots les uns après les autres suivant ces probabilités, il peut ainsi générer un texte entier. Plus il y a de phrases dans la base de données, plus le modèle est fin, et plus les textes générés sont réalistes.

      Cet apprentissage par la répétition est bien un des mécanismes de notre cerveau, mais il relève du dressage, pas de la compréhension. À chaque fois qu’il lit une nouvelle phrase, ChatGPT augmente la probabilité des mots correspondants, mais il ne l’a pas comprise pour autant. Même si les textes produits sont originaux, dans le sens où il ne s’agit pas de simples copier-coller de textes déjà écrits, leur contenu est implicitement programmé par la base de données sur laquelle le programme est entraîné  : c’est une machine à imiter ce qui a déjà été écrit. À la différence des machines mécaniques qui automatisent des gestes, les algorithmes d’apprentissage automatisent des processus psychiques qui se déroulent dans notre cerveau, mais ça ne les rend pas intelligents pour autant.

    • L’intelligence humaine, fruit de l’évolution biologique et sociale

      Le fonctionnement de l’intelligence humaine est plus riche que ces mécanismes de dressage. Contrairement aux algorithmes d’apprentissage automatique, elle ne se contente pas de reproduire ce qui a été fait dans le passé. La maîtrise du feu, l’agriculture, l’écriture, plus récemment la découverte de l’électricité ou des antibiotiques  : la plupart des découvertes révolutionnaires dans l’histoire de l’humanité ont été le produit de tâtonnements, de hasards, où la nécessité de s’adapter pour survivre et la curiosité gratuite jouaient une part au moins aussi importante que la recherche systématique. Les ordinateurs sont incapables de cette démarche, car la curiosité, l’instinct de survie, tout comme la foule de sentiments et d’émotions qui interviennent en permanence dans nos réflexions, ne se résument pas en quelques équations.

      Contrairement aux ordinateurs, notre intelligence n’a pas été créée  : elle est le fruit d’une évolution biologique puis sociale qui s’étend sur des millions d’années. C’est ce qui lui donne cette capacité à explorer des directions inconnues, sans objectif fixé d’avance. Notre système nerveux et notre cerveau sont malléables, les connexions entre neurones s’y font et s’y défont tout au long de la vie. Quand un geste est répété de nombreuses fois, la zone du cerveau dédiée à ce mouvement est stimulée et elle se renforce, ce qui permet de gagner en précision, en vitesse, etc. Cette plasticité cérébrale, par laquelle notre cerveau est lié à notre corps entier, a été favorisée par la sélection naturelle, car elle permet à notre organisme d’apprendre, pour s’adapter à des environnements et à des situations extrêmement différents.

      Elle est d’autant plus importante qu’une particularité essentielle de l’humanité est qu’elle ne se contente pas de s’adapter passivement à la pression de l’environnement  : elle le transforme, pour l’adapter à ses besoins. Le travail a joué un rôle déterminant dans l’apparition de la pensée, car il implique de se projeter dans le futur, de planifier ses actions en en anticipant les conséquences  : pour faire une lance qui lui permette de tuer un renne, le chasseur préhistorique devait d’abord trouver des silex adaptés, les tailler, les ajuster sur un manche, avant de vérifier si la lance obtenue lui permettrait finalement de chasser. Et cette démarche n’est pas le fruit d’un cerveau isolé, elle est sociale. Pour organiser le travail collectif, l’humanité a fait naître des langages, des concepts, qui ont largement contribué au développement d’une pensée abstraite  : l’astronomie est d’abord apparue pour permettre aux paysans égyptiens d’anticiper les crues du Nil et aux marins de se repérer en haute mer, avant que des physiciens ne cherchent à en déduire les lois de la gravitation et les mécanismes de formation du système solaire. Un corps vivant, avec ses besoins, une vie sociale, ce sont autant de choses qui manquent aux ordinateurs pour penser comme des humains.

      À mesure qu’elle domestiquait les forces de la nature, l’humanité a créé des outils de plus en plus perfectionnés. Grâce à l’irrigation et à la charrue, elle a fait surgir des champs là où il n’y avait que des déserts. En maîtrisant la puissance de la vapeur, puis du moteur à explosion, elle a construit des machines qui se meuvent par elles-mêmes. Grâce à l’électronique, il est possible de programmer une machine pour qu’elle fonctionne en autonomie pendant des années, et les algorithmes les plus récents lui permettent aujourd’hui d’améliorer automatiquement ses performances au fil du temps. Mais, quel que soit leur degré de complexité, qu’il s’agisse d’un silex taillé, d’une charrue ou d’un satellite, aucun de ces instruments ne fait ce qu’il veut, mais ce pour quoi il a été construit. Contrairement au plus puissant des ordinateurs, l’humanité se fixe ses propres buts, même quand elle n’est pas complètement consciente des moyens pour y parvenir, ou des conséquences de ses actions. C’est là que commence la véritable intelligence.

  • Il y en a qui s’amusent comme des petits fous
    https://futurism.com/the-byte/chatgpt-boston-dynamics-robot-dog

    As if robotic dogs weren’t creepy enough.

    A team of programmers just equipped a Boston Dynamics robot dog with OpenAI’s ChatGPT and Google’s Text-to-Speech voice modulation, allowing it to literally speak to them and answer their questions.

    In a video posted to Twitter, machine learning engineer Santiago Valdarrama showcased how he and a colleague programmed a Spot robot dog to verbally answer system questions with the help of OpenAI’s extremely popular tool.

    “These robots run automated missions every day,” Valdarrama explained in his Twitter thread, noting that each mission includes “miles-long, hard-to-understand configuration files” that only engineers can understand.

    “That’s where ChatGPT comes in,” he continued. “We show it the configuration files and the mission results. We then ask questions using that context. Put that together with a voice-enabled interface, and we have an awesome way to query our data!”

    As seen in the video, Spot even adds amusing gestures to its answers, shaking its head to say no or bowing to say yes.

    We integrated ChatGPT with our robots.

    We had a ton of fun building this!

    Read on for the details: pic.twitter.com/DRC2AOF0eU

    — Santiago (@svpino) April 25, 2023

    Talk Like a Bot

    While the interface itself seems pretty harmless, a lot of people who’ve seen the video are pretty freaked out by it.

    “You know that robot dog that triggers lots of ’here come our future overlords’ jokes when new videos drop?” Washington Post columnist Philip Bump tweeted. “It has AI now.”

    In another post, which featured a gif of a humanoid robot wielding a machine gun, one user joked that “one day we will look back and point to this day as a pivotal point,” complete with a laughing emoji.

    While SpotGPT does feel like it’s bringing us one tiny step closer to the robot uprising, integrating the chatbot into robots has always been a part of the plan.

    In February, Microsoft, which signed a multi-billion dollar deal with OpenAI, released a paper outlining design principles for ChatGPT integration into robotics.

    “We believe that our work is just the start of a shift in how we develop robotics systems,” the company’s announcement reads, “and we hope to inspire other researchers to jump into this exciting field.”

    In other words, it was only a matter of time until somebody gave Spot its own voice.

    https://twitter.com/svpino/status/1650832349008125952

    #chatGPT #AI #BostonRobotics #robotdogs

  • #rappel La fête de LO pendant le week-end de la Pentecôte, à Presles (95)

    La fête se déroule à Presles le samedi 27 mai de 11 h à 23 h, puis sans interruption du dimanche 28 mai à 9 h au lundi 29 mai à 20 h.

    La carte est valable pendant les trois jours de la fête. Elle coûte 20 euros en prévente jusqu’au 24 mai au soir, 25 euros ensuite et sur place. L’entrée est gratuite pour les enfants de moins de 14 ans accompagnés.

    Pour obtenir à l’avance 20 % de réduction sur vos dépenses, des bons d’achat sont disponibles. Payés 4 euros, ils valent 5 euros pendant la fête.

    Cartes et bons d’achat sont disponibles auprès de nos militants et ici : https://fete.lutte-ouvriere.org/billetterie

    Train : gare de Presles-Courcelles (ligne H depuis la gare du Nord) – départ toutes les heures à partir de 6 h 34 – 38 minutes de trajet.

    Cars gratuits depuis le métro Saint-Denis-Université (ligne 13) : samedi 10 h à 17 h – dimanche 8 h à 17 h – lundi 8 h à 14 h. Retour : jusqu’à 23 h le samedi, 1 h 50 le dimanche, 20 h le lundi.

    Renseignements, programme, vente de cartes et bons : https://fete.lutte-ouvriere.org

    • Les présentations de livres à la fête cette année :

      – Guillaume Fondu, préfacier et traducteur, et Éric Sevault, éditeur : Les Carnets de la Révolution russe, de #Nikolaï_Soukhanov
      – Marc Plocki : pour la réédition des livres de #Maurice_Rajsfus, historien-militant
      – Marion Leclair et Alexia Blin : Les articles du New-York Daily Tribune de #Marx et #Engels
      – Rémi Adam : Vendus contre des obus, d’Alexeï Kozlov
      – Lucien Détroit, préfacier : Sur les piquets de grève, les femmes dans la grande grève des mines de l’Arizona de 1983, de #Barbara_Kingsolver
      – Henri Marnier, préfacier : Seuls les fous n’ont pas peur, de Georg Scheuer

      Au chapiteau des sciences :

      Samedi
      – Valérie Delattre : les grandes #épidémies de peste
      – Patrick Berche : les #pandémies virales contemporaines
      – Claire Mathieu : #ChatGPT
      – Paul Verdu : la diversité des couleurs de peau
      – Pierre-Olivier Lagage : le télescope spatial James Webb

      Dimanche
      – Vincent Mourre : les outils en pierre de nos ancêtres
      – Patrizia D’Ettorre : les #fourmis et leur monde d’odeurs
      – Olivier Lambert : quand les #baleines marchaient sur la terre ferme
      – François Desset : faire revivre les langues anciennes
      – Dalila Bovet : l’#intelligence des #oiseaux
      – Antoine Balzeau : une brève histoire des origines de l’humanité #préhistoire
      – Bahia Guellai : les enfants face aux #écrans

      Lundi
      – Roland Salesse : le cerveau cuisinier
      – Edwin Roubanovitch : la #musique à la #Préhistoire
      – Alain Riazuelo : l’aventure de la Terre
      #Étienne_Klein : la démarche scientifique
      – Michel Viso : les défis pour aller sur Mars

  • 150 African Workers for ChatGPT, TikTok and Facebook Vote to Unionize at Landmark Nairobi Meeting
    https://time.com/6275995/chatgpt-facebook-african-workers-union

    More than 150 workers whose labor underpins the AI systems of #Facebook, #TikTok and #ChatGPT gathered in Nairobi on Monday and pledged to establish the first African Content #Moderators Union, in a move that could have significant consequences for the businesses of some of the world’s biggest tech companies.

    The current and former workers, all employed by third party outsourcing companies, have provided content moderation services for AI tools used by Meta, Bytedance, and OpenAI—the respective owners of Facebook, TikTok and the breakout AI chatbot ChatGPT. Despite the mental toll of the work, which has left many content moderators suffering from PTSD, their jobs are some of the lowest-paid in the global tech industry, with some workers earning as little as $1.50 per hour.

  • Cuisine Generation et Tech Génération
    https://www.cuisine-generation.fr
    https://www.tech-generation.fr

    Deux sites gérés à 100% par des IA (#chatGPT notamment) : tout est généré sans interventions humaines...
    Voir https://twitter.com/arikouts/status/1649163855375769613 pour les explications

    Les 2 fonctionnent aujourd’hui sans aucune intervention humaine, et crées du contenus « original », en choisissant leurs sujets.
    [...]
    Un site de cuisine, qui crées de nouvelles recettes originales chaque jour, ainsi que les photos (qui n’existent donc pas non plus).
    Géré par 4 chefs (qui n’existent pas donc) eux-mêmes inventés par des IA.

    ...même si les titres et textes des recettes sont assez consternants, il y a de quoi s’inquiéter pour ce que le web peut (va ?) devenir...
    (et c’est le référencement des sites qui va prendre une claque aussi...)

    #bot #site_web #IA #chatGPT #cuisine #référencement

  • ChatGPT et l’IA générative sont-ils compatibles avec le virage climatique ? - Standblog
    https://www.standblog.org/blog/post/2023/04/17/ChatGPT-et-l-IA-generative-sont-ils-compatibles-avec-le-virage-climatique

    ChatGPT et l’IA générative sont-ils compatibles avec le virage climatique ?

    N’oublions pas le consommation d’eau, en plus de celle d’énergie : Entraîner ChatGPT aurait consommé 700 000 l d’eau. L’utilisation d’une requête ChatGPT nécessiterait 1,5 l d’eau ;

    Vu comment la plupart des entreprises envisagent l’utilisation de l’IA, c’est à dire un usage massif et indiscriminé visant uniquement à la réduction des coûts et l’augmentation de la productivité, on est (encore) très mal barrés sur la question climatique. Une technologie aussi brillante qu’énergivore va donc être utilisée avec entrain pour faire des posts automatisés sur LinkedIn ou générer des images stupides et sans intérêt du type « 2 hommes blancs et un homme de couleur en costard, 2 femmes en tailleur, qui font une réunion et qui sourient bêtement » (tout ça pour pas payer l’abonnement à un service de photos stock).

    #ia #chatgpt #sobriété #climat

  • Les gains de productivité que les intelligences artificielles génératives vont générer pourraient permettre la retraite à 42 ans

    Ah non, pardon :

    « Je suis très optimiste sur la question de l’amélioration de la #productivité », a répondu le spécialiste des questions d’automatisation à une question lors d’une conférence à Glasgow, rapporte l’agence #Bloomberg. « Nous pourrions améliorer notre bien-être et nous consacrer davantage aux loisirs. Nous pourrions facilement passer à la semaine de quatre jours. »

    Comme par enchantement. Car le #capitalisme est bon — chacun le sait.

    Christopher Pissarides n’exclut cependant pas que les ChatGPT d’OpenAI, Bard de #Google, Claude d’Anthropic ou autre Ernie de #Baidu soient problématiques, en permettant par exemple une #surveillance généralisée ou une invasion de la vie privée. Mais selon lui, ils pourraient automatiser les tâches ennuyeuses, résoudre le problème de la stagnation de la productivité en Occident et « laisser aux humains les choses intéressantes ».

    « Ils pourraient » — mais c’est plutôt l’enfer qui se prépare.

    En attendant :

    Les systèmes d’intelligence artificielle générative de type #ChatGPT pourraient entraîner des « perturbations importantes » sur le marché du travail et affecter environ 300 millions d’emplois à temps plein dans le monde, vient de calculer une étude de Goldman Sachs.

    (Les Échos)

  • Faut-il bannir ChatGPT du monde de la recherche ? - Educpros
    https://www.letudiant.fr/educpros/enquetes/faut-il-bannir-chatgpt-du-monde-de-la-recherche.html

    ChatGPT : allié ou ennemi des chercheurs ? La réponse n’est pas si manichéenne. Un modèle de langue peut rendre certaines tâches plus simples, tant qu’il est utilisé comme une source d’aide perfectible. Les chercheurs vont-ils un jour utiliser ChatGPT comme appui à la rédaction de leurs travaux et articles de recherche ?

    Le 16 décembre 2022, la revue Nurse Education in Practice publie un article sur son site. En apparence rien d’anormal, l’article traite de l’utilisation de l’intelligence artificielle dans les études en soins infirmiers. Pourtant aux côtés du nom de la chercheuse britannique Siobhan O’Connor, apparaît celui de ChatGPT. Que fait-il ici  ? « L’utilisation de cet outil par un chercheur ou une chercheuse n’est pas différente de celle d’une autre personne : paraphraser, traduire, résumer… », annonce Teven Le Scao, chercheur au Loria et chez Hugging Face, spécialisé en modèle de langue.

    « Si on demande à ChatGPT de rédiger un article de recherche, il pourrait le faire de façon convaincante », assure Teven Le Scao. Une aubaine pour une personne peu honnête dans un monde aussi compétitif que celui de la recherche. « Il y a une crainte qu’il y ait énormément de papiers générés : pour avoir plus de citations ou simplement pour s’amuser à voir si un tel article pourrait être publié », convient Rachel Bawden, chercheuse à Inria spécialisée dans le traitement automatique des langues.

    L’irruption de ChatGPT bouscule les usages du monde enseignant
    L’usage de ChatGPT, contraire aux principes de publication de recherche

    Or cela est contraire aux principes derrière une publication. « Cela pose des problèmes de fiabilité des arguments avancés et de réplicabilité des résultats », prévient Dominique Boullier, professeur de sociologie à Science po Paris et spécialiste des usages du numérique.

    Si on demande à ChatGPT de rédiger un article de recherche, il pourrait le faire de façon convaincante. (T. Le Scao, chercheur)

    Faut-il pour autant le bannir en prévision de telles dérives  ? Déjà, cela s’avèrerait très difficile. Il faudrait alors être en mesure d’identifier avec certitude qu’un texte a été produit par un modèle de langue. Or, les outils actuels ne sont pas toujours en mesure de trouver l’auteur d’un texte – surtout s’il a été par la suite modifié par un humain.

    Mais surtout, ce serait occulter l’aide qu’il peut apporter. « C’est par exemple un outil intéressant pour les non-anglophones, soutient Rachel Bawden. Pour un anglophone natif, il est souvent très facile de reconnaître que l’article n’a pas été écrit par un anglophone. Or un anglais de mauvaise qualité peut diminuer l’impact du travail de recherche, surtout s’il rend l’article difficile à comprendre. »

    Les modèles de langues peuvent donc aider des chercheurs dans leur rédaction en langue anglaise. Ces modèles peuvent générer un code informatique, reformuler un passage, trouver un titre ou rédiger un abstract de façon convaincante. Dans une pré-publication déposée sur le site bioRXiv, la chercheuse Catherine Gao de l’université Northwestern et ses collègues ont généré les abstracts de 50 articles de recherche avec ChatGPT et ont demandé à des chercheurs et chercheuses de les retrouver. Dans 32% des cas, la patte de l’IA n’a pas été reconnue.

    Demain, tous formés dans le métavers  ?
    Utiliser ChatGPT en connaissance de ses limites

    Une pratique honnête tient aussi à l’utiliser en toute connaissance de ses limites. Même si ce qu’écrit ce chatbot ressemble à un texte « humain », il y a un risque que des erreurs se glissent dans ses lignes. Il a tendance à mélanger des citations, à renvoyer des choses fausses, à ne pas citer ses sources et, quand il le fait, à inventer des références ou des auteurs.

    Il est important de savoir faire les choses mieux que la machine, ainsi on peut l’utiliser et détecter la moindre erreur. (R. Bawden, Inria)

    « Il est important de savoir faire les choses mieux que la machine, ainsi on peut l’utiliser et détecter la moindre erreur », prévient Rachel Bawden. Il ne faut pas se reposer sur l’aspect convaincant, et au contraire privilégier son esprit critique. « Les chercheurs et chercheuses sont formés à ne pas faire de raccourci quand ils doivent trouver une réponse. Or la génération de texte tend à favoriser les réflexions courtes et rapides pour obtenir cette réponse », analyse Dominique Boullier. « Si ces outils s’améliorent dans le futur, cela peut poser des problèmes pour notre capacité à raisonner », ajoute Rachel Bawden.
    Une vigilance sur la collecte de données de recherche

    Une autre vigilance à garder en tête : celle des données récoltées. « Comme ce qui se passe pour les réseaux sociaux, nous contribuons à entraîner ces modèles », prévient Dominique Boullier. Or, quand certaines données sont sensibles, il serait bon qu’elles ne soient pas collectées. Cette petite révolution des chatbots oblige en tout cas les acteurs du monde de la recherche à fournir leurs directives d’utilisation.

    L’Association de Linguistique Computationnelle (Association for Computational Linguistics, ACL), qui organise des conférences, déconseille de s’aider d’un modèle de langue pour un nouveau texte sur de nouvelles idées. Également, au mois de janvier la revue Nature s’est positionnée : l’utilisation de ChatGPT n’est pas prohibée, elle doit être mentionnée mais pas parmi les auteur(e)s. « Cette recommandation est naturelle : l’auteur doit endosser la responsabilité et pouvoir être contacté. ChatGPT ne répond pas à ces critères », justifie Teven Le Scao.

    Pour l’instant, ChatGPT reste marginal dans le monde de la recherche. Comme le souligne Rachel Bawden : « Je ne crois pas avoir rencontré un article écrit avec ce chatbot. Mais si c’était le cas, je regarderais sûrement les références plus en détail. Même si s’aider de ChatGPT ne me pose pas de problème, je me méfierais certainement un peu plus. »

    Charlotte Mauger | Publié le 03.04.2023 à 14H00

    #ChatGPT #Recherche #Publications_scientifiques

  • Dangers des grands modèles de langage : des chercheuses avaient prévenu
    https://www.nextinpact.com/article/71011/dangers-grands-modeles-langage-chercheuses-avaient-prevenu

    ChatGPT et ses diverses déclinaisons, toutes basées sur les grands modèles de langage, commencent à subir quelques critiques. Mais des chercheuses avaient déjà rassemblé beaucoup de griefs contre cette technologie en 2020 dans un article scientifique qui, pour certaines, leur a coûté leur poste.

    Fin octobre dernier, le PDG d’OpenAI a présenté ChatGPT comme un outil utilisant la technologie des grands modèles de langage (Large Langage Models en anglais, LLM), mais avec « encore beaucoup de limites – c’est vraiment une version de recherche ». Plusieurs mois plus tard, le grand public a pu se rendre compte de ces limites à chaque publication d’outils similaires, que ce soit quand Microsoft intègre ChatGPT dans Bing, quand Google présente Bard ou quand Meta a sorti et rapidement retiré Galactica.

    Si on ne peut reprocher à la presse et au grand public de n’avoir réagi que sur pièces, après avoir testé les différentes versions publiques de ces outils, les chercheurs et ingénieurs des GAFAM qui les ont confectionnés ne peuvent faire semblant de ne pas avoir été prévenus.

    En effet, en 2020, quatre chercheuses, Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell finalisaient un article scientifique qui rassemblait les différentes critiques qui pouvaient être faites (par elles-mêmes, mais aussi par d’autres chercheurs qu’elles citent), à l’époque, sur l’utilisation des grands modèles de langage et intitulé « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? 🦜 » [PDF] (en français, « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 »).

    Timnit Gebru et Margaret Mitchell, qui travaillaient à l’époque chez Google, se sont vu reprocher le contenu de l’article par leur employeur et ont été licenciées. L’article finira par être publié en mars 2021 (avec la signature d’une certaine Shmargaret Shmitchell appartenant à l’institution de « l’Éther » à la place de celle de Margaret Mitchell).

    Google, IA et éthique : « départ » de Timnit Gebru, Sundar Pichai s’exprime
    IA et éthique : aprés Timnit Gebru, Google enquête sur Margaret Mitchell, une autre de ses employées

    Leur licenciement a fait grand bruit à l’époque, mais les arguments de l’article ont finalement eu peu de répercussions médiatiques. La sortie des ChatGPT et les critiques actuelles en ont eu beaucoup plus, sans doute parce qu’il était difficile de se rendre compte, concrètement, des implications que cette technologie pouvait avoir.

    Revenons un peu sur les critiques que les chercheuses formulaient à l’époque sur les modèles de langage (ML).
    Des robots perroquets probabilistes

    S’ils sont maintenant utilisés pour créer des chatbots, les quatre chercheuses prévenaient dans leur article que « le texte généré par un ML n’est pas fondé sur une intention de communication, un modèle du monde ou un modèle de l’état d’esprit du lecteur. Il ne peut pas l’être, parce que les données d’entrainement n’ont jamais inclus le partage de pensées avec un auditeur ».

    Pourtant, ChatGPT et autres ont permis de l’expérimenter : quand nous les utilisons, l’impression de discuter avec la machine est grande. Les quatre chercheuses reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ».

    Mais ce qu’elles soulignaient, c’est que même si c’est contre-intuitif, c’est en fait « notre perception du texte en langage naturel [...] [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ». C’est-à-dire que ce n’est pas ChatGPT qui met du sens et des intentions dans le texte qu’il génère, mais la personne qui lit sa réponse. Et nous nous créons ainsi une illusion.

    Timnit Gebru et ses collègues expliquaient bien que, contrairement à cette illusion que nous donne le texte en sortie, « un ML est un système qui assemble au hasard des séquences de formes linguistiques qu’il a observées dans ses vastes données d’apprentissage, en fonction d’informations probabilistes sur la façon dont elles se combinent, mais sans aucune référence à la signification ». Elles le résument en deux mots, les modèles de langage sont des « perroquets stochastiques » (« Stochastic Parrots », en anglais), ou en termes plus accessibles, des perroquets probabilistes.
    Des données d’entrainement problématiques

    La fluidité des textes générés par ces modèles de langage est due à l’utilisation de la masse de données accessible sur le web comme données d’entraînement. Mais dès 2020, les chercheurs ont pointé des problèmes dans cet entrainement : l’enregistrement de stéréotypes et de dénigrements à propos de genres, de « races » (au sens de catégorie sociale), d’ethnies et de handicaps. Les quatre autrices expliquent dans leur article que « la taille ne garantit pas la diversité ».

    Et effectivement, puisque les modèles de langage créent des textes en fonction de probabilités de retrouver des groupes de mots dans les données d’entrainement, plus des groupes de mots se retrouvent dans ces données, plus il y a de chances qu’ils se retrouvent dans le texte généré. « Les voix des personnes les plus susceptibles d’adhérer à un point de vue hégémonique sont également les plus susceptibles d’être retenues », concluent-elles.

    Concrètement, elles expliquent que « dans le cas de l’anglais américain et britannique, cela signifie que les opinions suprémacistes blanches, misogynes, âgistes, etc. sont surreprésentées dans les données d’entraînement, ce qui non seulement dépasse leur prévalence dans la population générale, mais permet également aux modèles entraînés sur ces ensembles de données d’amplifier davantage les biais et les préjudices ».

    Les chercheuses citaient plusieurs études montrant que ce genre de modèles présentaient divers types de préjugés sur des caractéristiques surveillées comme le sexisme, le racisme etc. Mais elles expliquaient aussi que d’autres biais étaient beaucoup moins étudiables car, si nous sommes conscients de l’existence du racisme, d’autres sujets sur lesquels nous sommes moins attentifs peuvent subir aussi des biais qu’il est dès lors difficile de repérer.

    Les chercheuses pointaient aussi le fait que ces données d’entrainement et donc les modèles de langage qui se basent dessus sont statiques. Alors que le monde et notre perception de celui-ci bougent en permanence, que les mouvements sociaux déstabilisent les récits dominants et que les contenus publiés sur internet bougent en permanence, les modèles de langage, eux, restent figés sur une représentation du monde donnée à un moment donné. Dans leur article, elles insistent sur le fait que toute volonté de rationaliser des définitions de sujets sociaux est nécessairement politique, « que les développeurs choisissent ou non la voie du maintien du statu quo ».
    Risques de dissémination des biais et de désinformation

    Pour Timnit Gebru et ses collègues, le risque d’utiliser ces grands modèles de langage qui vont produire ces textes biaisés est aussi de disséminer sur internet encore plus de textes biaisés. Puis que les prochains grands modèles de langage soient entrainés sur ces textes générés par des grands modèles de langage, perpétuant et amplifiant les biais encodés dans les premiers modèles.

    L’article pointait aussi, déjà, le risque de générations automatiques et massives de textes de désinformation. Les autrices citent notamment un rapport des chercheurs du Centre sur le terrorisme du Middlebury Institute of International Studies Kris McGuffie et Alex Newhouse, mis en ligne en septembre 2020, qui montre comment GPT-3 pourrait être utilisé pour générer du texte à la manière d’un théoricien conspirationniste. McGuffie et Newhouse écrivaient : « Si les mesures préventives d’OpenAI sont solides, la possibilité d’une copie non réglementée de cette technologie représente un risque important pour la radicalisation et le recrutement en ligne à grande échelle. En l’absence de mesures de protection, il est probable que la mise en place d’armes efficaces qui nécessitent peu d’expérimentation soit un succès ».

    Un autre article, du chercheur du Alan Turing Institute de Londres Luciano Floridi et de Massimo Chiriatti d’IBM Italie, publié lui aussi fin 2020, prévoyait que « D’une part, la publicité en ligne en profitera. Compte tenu des modèles commerciaux de nombreuses entreprises en ligne, les appâts à clics de toutes sortes seront stimulés par des outils comme GPT-3 [...]. D’autre part, les fausses nouvelles et la désinformation peuvent également être stimulées. »
    Coûts environnementaux

    Dans l’article de Timnit Gebru et de ses collègues, les questions de coûts économiques et environnementaux étaient aussi soulevés. Elles y expliquaient que l’émission d’un entrainement d’un modèle de langage de la famille GPT était estimée à 284 tonnes de CO2. L’amélioration successive des techniques et le caractère statique des données d’entrainement évoqué ci-dessus impliquent qu’un modèle de langage est voué à être mis à jour, ne serait-ce que pour prendre en compte les nouveaux événements qui ont eu lieu.
    Des dangers constatés depuis la sortie de ChatGPT

    Ces dangers pointés par ces chercheuses et chercheurs en 2020, nous les constatons maintenant que chatGPT et ses copies sont sortis. L’entreprise Newsguard a, par exemple, observé que dans 80% de cas de fausses informations qu’elle a soumises à ChatGPT, celui-ci a produit des mensonges et des discours violents très convaincants. Des biais sexistes et racistes ont aussi été dévoilés sur ce même agent conversationnel. Le chatbot de Bing s’est noyé dans l’outrance après avoir été provoqué. Celui-ci et Bard (la version de Google) ont aussi affirmé des bêtises lors de leurs présentations respectives. Même si la question environnementale a fait l’objet de moins d’attention, le « sale secret » de leur forte émission de CO2 a quand même été évoquée par Wired.
    Peu de garde-fous mis en place depuis l’alerte

    En comparant les alertes lancées par les chercheuses et chercheurs en 2020 et les constats que nous pouvons faire maintenant, il est difficile de constater une réelle amélioration de la technologie pour éviter les problèmes signalés.

    En ce qui concerne les propos les plus biaisés, certes, OpenAI a rendu son modèle de langage un peu plus responsable, mais rapidement un outil comme DAN (pour « Do Anything Now ») a permis de contourner ses protections contre les dérives. Et si ChatGPT a ensuite été plus restrictif pour bloquer DAN, une version permet de passer outre. De plus, OpenAI n’a finalement mis qu’une rustine sur les trous les plus visibles. Les biais moins saillants restent.
    OpenAI en cheval de Troie

    On ne peut que constater que les alertes qu’ont lancées les chercheurs, et notamment ces quatre chercheuses, n’ont fait que retarder un peu l’arrivée des grands modèles de langage devant le grand public. La technologie n’a pas beaucoup évolué depuis 2020. D’ailleurs, Baidu prévoit de reprendre son modèle de langage publié en 2021 pour développer son propre agent conversationnel.

    Le défi, pour les grandes multinationales, depuis, était plutôt de faire accepter l’utilisation de ces modèles de langage malgré les critiques. Quelques semaines avant la publication de ChatGPT, Meta s’y est risqué avec son Galactica et a d’ailleurs essuyé une salve de critiques qui l’a obligé à le retirer au bout de trois jours.

    La structure de la relation entre OpenAI et Microsoft a permis à ce dernier de profiter d’un éventuel paravent en cas d’une même salve. Si ChatGPT était critiqué, ce n’était finalement que la startup OpenAI qui échouerait. Finalement, alors que le robot conversationnel a fait l’objet d’un buzz positif dans l’ensemble, Microsoft a pu assumer d’en être le partenaire principal et a même rajouté quelques milliards dans la startup.

    Depuis, c’est la course au chatbot reposant sur les grands modèles de langage et il va être difficile d’imposer aux géants du numérique de répondre aux dangers que soulignaient les chercheurs et chercheuses en 2020. Microsoft est pourtant au courant des biais discriminants et de la tendance à la désinformation que peuvent prendre ces machines depuis qu’il a testé de brancher l’agent conversationnel Tay sur Twitter en 2016.

    #ChatGPT #Modèles #Dangers

  • L’Italie bloque ChatGPT, les grands modèles de langage inquiètent
    https://www.nextinpact.com/article/71372/litalie-bloque-chatgpt-grands-modeles-langage-inquietent

    Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.

    La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
    Les griefs de la GPDP contre ChatGPT

    Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».

    L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».

    La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit au moins de 13 ans.

    Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
    La CNIL française n’a pas reçu de plainte

    Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».

    La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
    Europol et le BEUC s’inquiètent, une plainte à la FTC

    Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l’intelligence artificielle pour leurs méfaits.

    Dangers des grands modèles de langage : des chercheuses avaient prévenu

    Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».

    Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».

    Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
    Le Sénat dégaine sa proposition de résolution

    De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.

    La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».

    La proposition de résolue comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».

    Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».

    #ChatGPT #Données_personnelles #Italie #Interdiction

  • L’Italie bloque l’usage de #ChatGPT
    https://www.france24.com/fr/%C3%A9co-tech/20230331-l-italie-bloque-l-usage-de-l-intelligence-artificielle-chatgpt

    Dans un communiqué, l’Autorité italienne de protection des données personnelles prévient que sa décision a un « effet immédiat » et accuse le robot conversationnel de ne pas respecter la réglementation européenne et de ne pas vérifier l’âge des usagers mineurs.

    #ia #intelligence_artificielle #OpenAI

    • ChatGPT de nouveau autorisé en Italie
      https://www.liberation.fr/economie/economie-numerique/chatgpt-de-nouveau-autorise-en-italie-20230429_HZAXWZDVXFBYLP2H5IHUDVJQBU

      L’Autorité italienne de protection des données personnelles avait bloqué fin mars ChatGPT, qu’elle accusait de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l’âge des usagers mineurs.

      Bloqué il y a un mois pour atteinte à la législation sur les données personnelles, le programme d’intelligence artificielle ChatGPT est de nouveau autorisé en Italie depuis vendredi. « ChatGPT est de nouveau disponible pour nos utilisateurs en Italie. Nous sommes ravis de leur souhaiter à nouveau la bienvenue et restons engagés dans la protection de leurs données personnelles », a indiqué un porte-parole de OpenAI vendredi 28 avril.

      L’Autorité italienne de protection des données personnelles avait bloqué fin mars ChatGPT, qu’elle accusait de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l’âge des usagers mineurs. L’Autorité reprochait aussi à ChatGPT « l’absence d’une note d’information aux utilisateurs dont les données sont récoltées par OpenAI […] dans le but “d’entraîner” les algorithmes faisant fonctionner la plateforme ».

      En outre, alors que le programme est destiné aux personnes de plus de 13 ans, l’Autorité mettait « l’accent sur le fait que l’absence de tout filtre pour vérifier l’âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement ».

      Sonnets et code informatique
      OpenAI publie désormais sur son site des informations sur la façon dont il « collecte » et « utilise les données liées à l’entraînement » et offre une « plus grande visibilité » sur la page d’accueil de ChatGPT et OpenAI de la politique concernant les données personnelles. La compagnie assure aussi avoir mis en place un outil « permettant de vérifier en Italie l’âge des utilisateurs » une fois qu’ils se branchent.

      L’Autorité italienne a donc donné acte vendredi « des pas en avant accomplis pour conjuguer le progrès technologique avec le respect des droits des personnes ».

      ChatGPT est apparu en novembre et a rapidement été pris d’assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code informatique. Financé notamment par le géant informatique Microsoft, qui l’a ajouté à plusieurs de ses services, il est parfois présenté comme un concurrent potentiel du moteur de recherche Google.

      Le 13 avril, jour où l’Union européenne a lancé un groupe de travail pour favoriser la coopération européenne sur le sujet, l’Espagne a annoncé l’ouverture d’une enquête sur ChatGPT.

  • Selon Goldman Sachs, #ChatGPT et l’#automatisation liée à l’IA générative menacent 300 millions d’emplois dans le monde et pourraient contribuer à faire progresser de 7 % le #PIB annuel

    Dans le détail, le rapport indique qu’environ deux tiers des emplois actuels sont exposés à un certain degré d’automatisation par l’IA, tandis qu’elle pourrait remplacer jusqu’à un quart du travail actuel. Les #cols_blancs sont parmi les plus susceptibles d’être affectés par ces nouveaux outils.

    Le rapport souligne aussi qu’aux Etats-Unis, les ​métiers du juridique ainsi que du support et de l’administratif sont particulièrement menacés par ces nouvelles #technologies. En Europe, les #cadres et les métiers liés à l’administratif sont aussi les plus en danger.

    #Goldman_Sachs suggère également que si l’IA générative est largement adoptée, elle pourrait entraîner d’importantes économies de coûts de main-d’oeuvre et la création de nouveaux emplois. […]

    Une étude réalisée conjointement par #OpenAI et l’université de Pennsylvanie a ainsi calculé de son côté que 80 % des employés américains seraient affectés par l’#IA générative pour au moins 10 % de leurs tâches et que 19 % d’entre eux seraient touchés pour plus de la moitié de leurs tâches. L’étude note que les plus diplômés doivent se préparer à davantage d’ajustements que les moins diplômés.

    (Les Échos)