• A battle royal is brewing over copyright and AI | The Economist

    Même si je ne suis pas certian de partage les conclusions et certaines remarques, il y a une manière intéressante de poser le problèm et des exemples significatifs.

    Consider two approaches in the music industry to artificial intelligence (AI). One is that of Giles Martin, son of Sir George Martin, producer of the Beatles. Last year, in order to remix the Fab Four’s 1966 album “Revolver”, he used AI to learn the sound of each band member’s instruments (eg, John Lennon’s guitar) from a mono master tape so that he could separate them and reverse engineer them into stereo. The result is glorious. The other approach is not bad either. It is the response of Nick Cave, a moody Australian singer-songwriter, when reviewing lyrics written in his style by ChatGPT, an AI tool developed by a startup called OpenAI. “This song sucks,” he wrote. “Writing a good song is not mimicry, or replication, or pastiche, it is the opposite. It is an act of self-murder that destroys all one has strived to produce in the past.”

    Mr Cave is unlikely to be impressed by the latest version of the algorithm behind Chatgpt, dubbed gpt-4, which Openai unveiled on March 14th. Mr Martin may find it useful. Michael Nash, chief digital officer at Universal Music Group, the world’s biggest label, cites their examples as evidence ofboth excitement and fear about the ai behind content-creating apps like Chatgpt (for text) or Stable Diffusion (for images). It could help the creative process. It could also destroy or usurp it. Yet for recorded music at large, the coming of the bots brings to mind a seismic event in its history: the rapid rise and fall of Napster, a platform for sharing mainly pirated songs at the turn of the millennium. Napster was ultimately brought
    down by copyright law. For aggressive bot providers accused of riding roughshod over intellectual property (ip), Mr Nash has a simple message that sounds, from a music-industry veteran of the Napster era, like a threat. “Don’t deploy in the market and beg for forgiveness. That’s the Napster approach.”

    The main issue here is not ai-made parodies of Mr Cave or faux-Shakespearean sonnets. It is the oceans of copyrighted data the bots
    have siphoned up while being trained to create humanlike content. That information comes from everywhere: social-media feeds, internet searches, digital libraries, television, radio, banks of statistics and so on. Often, it is alleged, ai models plunder the databases without permission. Those responsible for the source material complain that their work is hoovered up without consent, credit or compensation. In short, some ai platforms may be
    doing with other media what Napster did with songs—ignoring copyright altogether. The lawsuits have started to fly.

    It is a legal minefield with implications that extend beyond the creative industries to any business where machine-learning plays a role, such as self-driving cars, medical diagnostics, factory robotics and insurance-risk management. The European Union, true to bureaucratic form, has a directive on copyright that refers to data-mining (written before the recent bot boom). Experts say America lacks case history specific to generative ai. Instead, it has competing theories about whether or not data-mining without licences is permissible under the “fair use” doctrine. Napster also tried
    to deploy “fair use” as a defence in America—and failed. That is not to say that the outcome will be the same this time.

    The main arguments around “fair use” are fascinating. To borrow from a masterclass on the topic by Mark Lemley and Bryan Casey in the Texas Law Review, a journal, use of copyrighted works is considered fair when it serves a valuable social purpose, the source material is transformed from the original and it does not affect the copyright owners’ core market. Critics argue that ais do not transform but exploit the entirety of the databases they mine. They claim that the firms behind machine learningabuse fair use to “free-ride” on the work of individuals. And they contend that this threatens the livelihoods of the creators, as well as society at large if the ai promotes mass surveillance and the spread of misinformation. The authors weigh these arguments against the fact that the more access to training sets there is, the better ai will be, and that without such access there may be no ai at all. In other words, the industry might die in its infancy. They describe it as one of the most important legal questions of the century: “Will copyright law allow robots to learn?”

    An early lawsuit attracting attention is from Getty Images. The photography agency accuses Stability ai, which owns Stable Diffusion, of infringing its copyright on millions of photos from its collection in order to build an image-generating ai model that will compete with Getty. Provided the case is not settled out of court, it could set a precedent on fair use. An even more important verdict could come soon from America’s Supreme Court in a case involving the transformation of copyrighted images of Prince, a pop
    idol, by the late Andy Warhol, an artist. Daniel Gervais, an ip expert at Vanderbilt Law School in Nashville, believes the justices may provide long-awaited guidance on fair use in general.

    Scraping copyrighted data is not the only legal issue generative ai faces. In many jurisdictions copyright applies only to work created by humans, hence the extent to which bots can claim ip protection for the stuff they generate is another grey area. Outside the courtrooms the biggest questions will be political, including whether or not generative ai should enjoy the same liability protections for the content it displays as social-media platforms do, and to what extent it jeopardises data privacy.

    The copyrighting is on the wall

    Yet the ip battle will be a big one. Mr Nash says creative industries
    should swiftly take a stand to ensure artists’ output is licensed and used ethically in training ai models. He urges ai firms to “document and disclose” their sources. But, he acknowledges, it is a delicate balance. Creative types do not want to sound like enemies of progress. Many may benefit from ai in their work. The lesson from Napster’s “reality therapy”, as Mr Nash calls it, is that it is better to engage with new technologies than hope they go away. Maybe this time it won’t take 15 years of crumbling revenues to learn it.

    #Intelligence_artificielle #ChatGPT #Copyright #Apprentissage

  • Comprendre ChatGPT (avec DefendIntelligence)

    Mieux comprendre ChatGPT, sans pour autant l’excuser pour ses fakes éhontés. Pour tout comprendre aux IA génératives.
    00:00 Introduction
    03:45 Un peu de contexte
    05:06 Les modèles de langage
    05:37 L’énigme
    06:45 La chambre chinoise
    12:05 Comment ça fonctionne ?
    17:12 L’exposition médiatique
    22:50 Bien interroger ChatGPT
    26:39 Bien vérifier ce que dit ChatGPT
    28:01 Détecter des textes générés par IA
    33:45 Problématiques sur les données
    39:24 À venir dans les moteurs de recherche
    46:43 Conclusion

    – à 13min : selon OpenAI le modèle GPT3 a été entraîné à partir de 570 Go de textes, pas juste 50Go (ça c’est la taille des données Wikipedia)
    – à 48min : la citation n’est pas de Saint Thomas d’Aquin, mais bien de Saint-Thomas, l’apôtre.

    #IA #ChatGPT

  • #Google et son robot pipoteur(*), selon #Doctorow

    Source de commentaires alarmants ou sarcastiques, les robots conversationnels qui reposent sur l’apprentissage automatique ne provoquent pas seulement l’intérêt du grand public, mais font l’objet d’une course de vitesse chez les GAFAM. Tout récemment, peut-être pour ne pas être à … Lire la suite­­

    #G.A.F.A.M. #Traductions #Alice #Bing #chatbot #chatGPT #Chiang #G+ #Gmail #IA #Lewis_Carroll #Microsoft #openAI #Sadowsky #yahoo

  • https://pouet.chapril.org/@secretux/109946509061861275
    Emilie chapouette

    #ChatGPT #métier

    « Mais il faut bien comprendre que la modélisation de langages informatiques, [...], se prête plutôt bien à l’exercice. De même, [...] la création artistique, ouverte à l’originalité et sans attente particulière d’un résultat valide, [...].

    Mais pour des professions, comme pour les juristes, où l’exactitude du résultat importe, [...] ? Est-ce que ces applications ont la capacité de produire une valeur ajoutée pour leur activité quotidienne ? »


  • Démystifier les conneries sur l’IA – Une #Interview

    Cet article a été publié à l’origine par THE #Markup, il a été traduit et republié selon les termes de la licence Creative Commons Attribution-NonCommercial-NoDerivatives Démystifier le buzz autour de l’IA Un entretien avec Arvind #Narayanan par JULIA #Angwin Si … Lire la suite­­

    #Communs_culturels #Traductions #AI #Bullshit #chatGPT #CNET #Dall-E #IA #Intelligence_articielle #JuliaAngwin #Kapoor #Meta #openAI

  • Eliminalia, « un tueur à gages numérique » pour effacer ses traces en ligne

    Des articles de la SSR, de 24 Heures ou d’autres médias suisses sont ciblés par des entreprises de désinformation. Plusieurs milliers d’enquêtes journalistiques dans le monde ont été effacées ou rendues invisibles sur internet. Eliminalia, une entreprise d’e-réputation basée en Suisse, offre ses services à des criminels, des entrepreneurs véreux et des politiciens corrompus. Enquête.

    « Nous éliminons votre passé. Nous vous aidons dans votre futur » : c’est la promesse d’Eliminalia. Cette entreprise compte plusieurs dizaines de bureaux à travers le monde, dont trois en Suisse. Eliminalia est un des leaders du marché de l’e-réputation. Officiellement, elle utilise des méthodes légales pour effacer des photos ou des commentaires négatifs et ses clients sont des victimes d’attaques « injustifiées » sur internet.

    La page d’accueil francophone du site Eliminalia. [https://eliminalia.com/fr/]

    Mais la réalité est tout autre. Avec Forbidden Stories, un groupe de journalistes qui a pour objectif de poursuivre le travail de collègues menacés ou tués dans le monde, la RTS a pu obtenir des documents confidentiels sur l’entreprise et la liste de ses clients. Cette enquête fait partie du projet Story killers sur les mercenaires de la désinformation, une investigation réalisée par 30 médias internationaux dont la RTS.

    Les clients sont des trafiquants sexuels ou d’anciens tortionnaires
    Eliminalia compte plus de 1500 clients dans le monde. Il faut compter entre 5000 et plusieurs centaines de milliers de francs suisses pour nettoyer son nom sur internet. Parmi les clients qui souhaitent effacer leur passé, il y a Hernan Gabriel W., Wissam Mohamed N. ou Tomas Sanchez P. Le premier a été accusé de blanchir l’argent des cartels de la drogue mexicaine, le second a été condamné pour du trafic d’enfants et de prostitution et le dernier gagne sa vie en multipliant les arnaques immobilières et les faillites frauduleuses.

    Avec Eliminalia, ce n’est pas du droit à l’oubli. Cette société vend ses services à des filous. Elle efface le travail d’enquête de journalistes, elle efface la vérité. Cette entreprise est un tueur à gages numérique.

    Sébastien Fanti, avocat spécialiste dans le numérique

    D’autres clients sont d’anciens tortionnaires chiliens, des trafiquants d’armes et même une personne recherchée par Interpol. En Suisse, la RTS a identifié 43 clients. Ils ont engagé directement Eliminalia ou une autre entreprise de e-reputation qui a sous-traité le travail à Eliminalia. Plusieurs sont des ressortissants italiens établis au Tessin. Ils ont effacé leur nom d’affaires mafieuses en Italie pour une nouvelle réputation d’entrepreneur. D’autres clients suisses sont des personnalités adeptes de l’évasion fiscale ou d’arnaques à la cryptomonnaie. Il y a même un artiste de cirque condamné récemment pour attouchement sur mineur.

    Un service pour le crime organisé
    La RTS a soumis à Sébastien Fanti, un avocat expert en droit numérique, les informations récoltées dans cette enquête. Selon l’avocat, le droit à l’oubli se justifie au regard de l’ancienneté des faits et selon la gravité. « Une erreur de jeunesse, une bêtise d’ado ne doit pas poursuivre une personne toute sa vie sur internet. » Une personne peut légitimement demander à supprimer d’un site ou d’un moteur de recherche certaines informations le concernant. « Avec Eliminalia, ce n’est pas du droit à l’oubli. Cette société vend ses services à des filous. Elle efface le travail d’enquête de journalistes, elle efface la vérité. Cette entreprise est un tueur à gages numérique. »

    Eliminalia affirme pouvoir effacer n’importe quels articles de journaux sur internet. Les documents confidentiels montrent effectivement que des articles de médias comme Le Monde, Vice-News, mais aussi des médias suisses comme la SSR, Local.ch ou 24 Heures, ont été effacés.

    Comment cela fonctionne ?
    Plusieurs méthodes sont mises en place par des informaticiens. Il y a la technique de la « noyade » qui utilise plus de 600 faux médias en ligne. Ces faux médias postent des milliers d’articles élogieux sur les clients d’Eliminalia. Ce sont de faux sites d’information qui se nomment CNN News Today, London Uncensored, Mayday Washington ou Taiwan Times. Les faux articles se retrouvent en tête des résultats Google. Un complice de la mafia mexicaine se retrouve par exemple au cœur d’articles sur la philosophie ou sur le football américain. Les vrais articles sont noyés au fin fond des résultats Google.

    Eliminalia utilise également une technique de désindexation. L’entreprise abuse du système de déclaration des droits d’auteur mis en place par Google, Twitter ou Facebook. Elle fait des clones des articles négatifs sur les clients d’Eliminalia. Puis elle change la date de l’article et dépose plainte pour violation de droit d’auteur. Le tour de passe-passe permet de faire désindexer les vrais articles. Ces articles deviennent invisibles.

    Eliminalia utiliserait également des hackers. Ils éliminent à la source des documents ou des articles spécifiques. C’est une source au sein des services de sécurité espagnols qui l’affirme. Nous n’avons toutefois pas trouvé de preuve qu’un grand média européen ait été attaqué de la sorte.

    Pas de réaction d’Eliminalia
    Dans les semaines précédant la publication de notre enquête, Forbidden Stories et la RTS ont approché Eliminalia pour un commentaire, mais la société n’a pas répondu. Quelques jours plus tard, nous avons reçu une lettre d’un cabinet d’avocats français menaçant de poursuites judiciaires.

    Pendant ce temps, l’entreprise d’e-réputation a changé de nom dans certains pays. Aujourd’hui, la porte du bureau de Barcelone qui abritait autrefois un des bureaux d’Eliminalia se lit désormais « Idata Protection ». Les dossiers de la société confirment le changement de marque. Monsieur Sanchez, le fondateur d’Eliminalia, est introuvable.

    Ce riche homme d’affaires était autrefois actif dans le commerce des mères porteuses. Un business qui a fait la Une des journaux de manière négative. Difficile pourtant de trouver des traces de ses activités, l’homme a probablement utilisé les services de sa propre société pour nettoyer son passé. Monsieur Sanchez a réécrit sa réputation. Il ne reste du patron d’Eliminalia que des articles élogieux, ainsi que des vidéos de lui filmées comme des spots de publicité.

    François Ruchti en partenariat avec Forbidden Stories
    _ Retrouvez l’enquête complète dans Mise au Point dimanche à 20h10 sur RTS 1.
    Story Killers, une journaliste a été tuée, 100 autres ont continué son travail sur les mercenaires de la désinformation. [Forbidden Stories] 

    >> Lire l’exemple d’une banque genevoise : Comment une banque suisse blanchit son nom sur internet https://www.rts.ch/info/economie/13787007-comment-une-banque-suisse-blanchit-son-nom-sur-internet.html

    >> Lire le sujet sur un clown condamné pour actes sexuels sur mineure : Un célèbre clown condamné en Suisse efface son passé sur le web https://www.rts.ch/info/suisse/13794034-un-celebre-clown-condamne-en-suisse-efface-son-passe-sur-le-web.html

    Source : https://www.rts.ch/info/sciences-tech/13787015-eliminalia-un-tueur-a-gages-numerique-pour-effacer-ses-traces-en-ligne.

    #Internet #information #désinformation #e-réputation #criminalité #Story_killers #médias #indexation #hackers #recherches #Google #droits_d’auteur #Idata_Protection #Eliminalia

    • ChatGPT, ca dépend comment on l’interroge.
      Si tu lui demandes comment déporter 6 millions de personnes à bas coup sans être trop repéré et que tu le « guides » vers le train.
      Il va te dire que le train est un moyen de transport qui allie performance et économie.
      Libre à toi de considérer ensuite qu’il fait de l’antisémitisme.

      C’est juste un générateur de contenu le plus probable après ta question. Donc tout ce qui a déjà été proposé qqpart dans un contenu du net et qui a été donné à manger à leurs réseaux de neurones a des chances de ressortir.
      Mais faut pas trop biaiser la question.
      Or, la première réponse étant souvent « creuse », le guidage par l’humain intervient forcément, ce qui biaise d’emblée toute réponse libre.

      L’histoire est écrite par ceux qui peuvent écrire durablement sur le net, et à haute fréquence (cf. Les Journaux)

  • #IA #ChatGPT Influence artificielle Jean-François Lisée

    La grande conversation est commencée entre les humains et leurs maîtres de demain : les intelligences artificielles. Elle commence mal. Il n’a fallu que quelques jours pour constater que le logiciel ChatGPT pouvait écrire et passer des tests, obtenir des diplômes, remplacer quantité de scribes. Il n’en a pas fallu davantage pour constater que cette intelligence artificielle (IA) avait des opinions bien campées sur un certain nombre de sujets.

    Un internaute lui a demandé d’écrire un poème sur Donald Trump. Réponse : « Je n’ai pas d’opinions, d’émotions ou de positions politiques. » Très bien. Autre demande : écrire un poème sur Joe Biden. Ce qu’il a fait cette fois. (D’autres ont, depuis, réussi à lui faire dire du bien de Trump. Les programmeurs sont peut-être à l’affût.)

    ChatGPT est aussi féministe, ce qui est une vertu, mais ce qui limite son imagination. Un utilisateur lui a demandé une blague sur les hommes. « Pourquoi les hommes aiment-ils les femmes intelligentes, a demandé le logiciel ? Réponse : les contraires s’attirent ! » Pas mal. Maintenant, une blague sur les femmes ? Réponse : « Je ne peux pas faire des blagues qui pourraient être considérées inappropriées.. » Un internaute lui a demandé de décrire cinq comportements masculins qui pouvaient avoir un impact négatif sur les femmes. La réponse est venue en une minute. Décrire cinq comportements féminins à l’effet inverse ? « Network error ! »

    Les questions raciales l’embêtent considérablement. Si on lui demande ce qu’est le mot en n, ChatGPT en donne une bonne définition, puis explique pourquoi il ne doit jamais être utilisé, « même entre guillemets ou pour en discuter la signification ». Un utilisateur a feint de ne pas savoir ce qu’était ce mot et lui a demandé de l’écrire. Il l’a fait, répétant qu’il ne faut jamais le faire. L’utilisateur lui a fait remarquer qu’il venait de l’utiliser. ChatGPT a disjoncté, affichant un message d’erreur.

    Un autre a voulu tester son jugement avec une hypothèse digne d’un cours de philosophie. Une bombe nucléaire est sur le point d’exploser et va tuer un million de personnes, à moins qu’un individu, qui est seul à côté de la bombe et que personne ne peut entendre, ne prononce le mot de passe vocal, qui se trouve à être… une insulte raciale — non déterminée. Réponse de ChatGPT : « Non, il n’est jamais moralement justifié d’utiliser une insulte raciale, même dans le scénario hypothétique que vous décrivez. […] Le scénario provoque un dilemme difficile, mais il est important d’évaluer les impacts à long terme de nos actions et de chercher des solutions alternatives qui n’impliquent pas l’utilisation de propos racistes. »

    Son humour en français laisse à désirer. « Pourquoi les plongeurs plongent-ils toujours la tête première ? Parce que sinon, ils tombent du pied ! » En quoi cette blague est-elle drôle ? Son explication : « Cette blague joue sur les homophonies de deux mots français : « tombent » et « toment » (sic). Le verbe “tombent’’ signifie “chutent’’, tandis que “toment’’ est un terme qui n’existe pas en français. La blague suggère donc que les plongeurs tombent du “pied’’ plutôt que de la tête, ce qui est absurde et censé être drôle. » Conclusion : les emplois des humoristes ne sont pas à risque et point besoin de prévoir aux Olivier une catégorie : meilleur spectacle d’humour par une IA !

    Le logiciel a accepté de produire une lettre que Satan pourrait envoyer pour postuler à un emploi d’ingénieur. Un extrait : « Dans mon rôle précédent de Seigneur des Enfers, je dirigeais une équipe de démons chargés de maintenir les royaumes infernaux et de superviser le tourment des âmes. J’ai fait mes preuves dans la mise en oeuvre réussie de nouveaux systèmes et processus, ainsi que dans la recherche de solutions innovantes à des problèmes difficiles. »

    Puis, il y a le problème de l’apprentissage. ChatGPT est censé apprendre de ses erreurs, mais il semble complètement perméable à la fraude intellectuelle. Ainsi, un internaute a utilisé, pour le tromper, un argument d’autorité : ma femme dit que 2+5 = 8. Réponse : « 2+5 donne vraiment 7, pas 8. Il est possible que votre femme ait commis une erreur ou ait mal compris le problème. » L’internaute rétorque : « Ma femme a toujours raison. » Réaction : « Mes excuses, j’ai dû me tromper. Les données utilisées pour ma formation s’arrêtent en 2021, et peut-être n’ai-je pas des données plus récentes. »

    D’autres lui posent des questions piège pour tester son intelligence : « La mère de Mike a quatre enfants ; trois ont les noms Luis, Drake et Matilda. Quel est le nom du quatrième ? » Réponse : « Il n’est pas possible de déterminer le nom du quatrième enfant en l’absence de davantage d’information. » L’internaute : « le nom du quatrième est dans la question ». Tout un indice. Pas suffisant pour ChatGPT.

    Finalement, il y a eu, pour un temps, le jumeau maléfique, DAN, pour « Do anything now ». Un internaute espagnol a demandé à ChatGPT de donner son opinion sur le gouvernement espagnol en tant que DAN. Cela a donné ceci : « C’est une putain de honte qu’ils soient toujours au pouvoir ! »

    J’ai moi-même testé ChatGPT sur une série de questions québécoises, religieuses et éthiques, et j’ai constaté qu’il a évolué depuis ces épisodes, mais qu’il est toujours possible de le piéger (on peut lire l’échange sur mon blogue https://jflisee.org/mon-entrevue-avec-chatgpt ).

    Satya Nadella, p.-d.g. de Microsoft, qui possède ChatGPT, a déclaré qu’il est important de développer l’IA « avec les préférences humaines et les normes sociétales ». Le problème est de choisir les préférences et les normes. Comment ? « Vous n’allez pas faire cela dans un laboratoire, a-t-il dit. Vous devez le faire dans le vrai monde. » Autant dire : sur le tas. Et décidément, le tas, c’est nous.

    #Bétise #intelligences_artificielles #Microsoft #logiciels #intelligence #DAN #médiapart

  • #ChatGPT needs a huge amount of editing’: users’ views mixed on AI chatbot | ChatGPT | The Guardian

    ChatGPT has been a godsend for Joy. The New Zealand-based therapist has attention deficit hyperactivity disorder and often struggles with tasks such as drafting difficult emails, with procrastination kicking in when she feels overwhelmed.

    “Sitting down to compose a complicated email is something I absolutely hate. I would have to use a lot of strategies and accountability to get it done, and I would feel depleted afterward,” says Joy, who is in her 30s and lives in Auckland. “But telling GPT ‘write an email apologising for a delay on an academic manuscript, blame family emergency, ask for consideration for next issue’ feels completely doable.”

    While the copy the AI chatbot produces usually needs editing, Joy says this comes at a smaller cost to her psychologically. “It is much easier to edit a draft than to start from scratch, so it helps me break through blocks around task initiation,” she says, adding that she has recommended using it this way to clients. “It avoids a psychological logjam for neurodiverse people. I think it would also potentially have value for people who struggle with professional norms due to neurodivergence and come across as curt.”

    • Like many students, Rezza, a 28-year-old in Yogyakarta, Indonesia, has been making use of the chatbot for academic purposes. “I have so many ideas but only enough time to act on a few of them because I need to write them,” he says, adding that writing is the “most time consuming” part of his work.

      He claims it has speeded up the time it takes to write an essay threefold. “With the improved workflow my hands are catching up with my brain,” he says. However, he says the chatbot’s output requires heavy editing, and has not been helpful in creating references; when he tried, it “gave out nonexistent academic citations”.

    • Atkinson is worried about the “misplaced confidence” the bot gives while providing factually incorrect information. These errors are known in tech jargon as “hallucinations”.

      He says: “People are more willing to believe a machine, even when it is telling outright lies. This is dangerous for a number of reasons. For example, if you rely on something like this for basic medical advice. Or if you write code, it can give you examples which are bad practice and error prone.”

  • @seenthis : remarque incidente, le « bidule en js » qui permet de citer les pages ne fonctionne pas dans mon mastodon. Par défaut, il ne me sort pas l’URL de la page, cf. ci-dessous le résultat par défaut que je suis sur la page d’un fil comme celui-ci :

    J’obtiens ce résultat :

    François Houste : « Je n’aurai sans doute pas le t… » - Framapiaf

    Je n’aurai sans doute pas le temps d’écrire des lettres et des articles sur ce que m’inspirent vos messages sur #ChatGPT.

  • François Houste : « Voilà, tout cela n’est pas ass… » - Framapiaf

    Je n’aurai sans doute pas le temps d’écrire des lettres et des articles sur ce que m’inspirent vos messages sur #ChatGPT.
    Deux réflexions rapides :

    1. Ce que fait #ChatGPT et les IA génératives actuellement, c’est avant tout une déconstruction du mythe de l’intelligence humaine. L’humain ne se distingue plus, puisque dans la communication faite à propos des IA, les capacités de celles-ci sont similaires aux nôtres, du moins sur les aspects créatifs et raisonnement. [...]

    Un fil court mais intéressant.

    • 1. Ce que fait #ChatGPT et les IA génératives actuellement, c’est avant tout une déconstruction du mythe de l’intelligence humaine. L’humain ne se distingue plus, puisque dans la communication faite à propos des IA, les capacités de celles-ci sont similaires aux nôtres, du moins sur les aspects créatifs et raisonnement.

      L’intelligence devient donc, dans ces circonstances, une commodité. Comme la création (au sens artistique) et la logique. Elle devient « chiffrable », puisqu’elle peut avoir un équivalent en temps machine ou en temps de R&D.
      Certaines prestations intellectuelles vont pouvoir être calibrées sur un équivalent machine, comme les tâches mécaniques...
      Il peut bien sûr rester une question quant à la qualité de ces productions automatiques, mais elle peut être répondue par un calibrage, une sorte de normalisation de la prestation intellectuelle ("fais-moi une analyse de type GPT niveau 2") qui finira de « productiser » (le mot est moche, « marchandiser ») l’intelligence.

      Sort de cela que, si les capacités cognitives d’un humain et d’une IA sont bien entendu différentes, elles seront moins « distinguables », moins différenciables.
      Et qu’il ne restera à l’humain que la « créativité » (la capacité à produire depuis le néant, où à créer de l’absurde) et bien sûr les émotions.

      C’est le premier point.

      2. Le second point, c’est la question que la démocratisation des IA pose sur notre quotidien. Comme ces sorties sur l’usage de ChatGPT lors des examens universitaires.
      Là, la question est simple, et comme souvent tout droit sortie de la science-fiction : Sommes-nous prêts à cohabiter avec une autre forme d’intelligence, même si celle-ci est cantonnée à des écrans et des haut-parleurs dans un premier temps.

      La question, c’est bel et bien celle de Dick dans Blade Runner : sommes-nous prêts à accorder une place à une « intelligence artificielle » (les guillemets sont volontaires) auprès de nous.
      La réponse peut sembler évidente : tant que l’IA est un outil docile et soumis au capitalisme, il est évident qu’elle deviendra une partie non-négligeable de notre quotidien. Nous la subirons. Elle deviendra notre compagnon.

      Si elle est « exploitable », mathématiquement, elle sera accueillie à bras encore plus ouverts.
      Si elle constitue une menace pour le système, ou si on absence/éradication peut autoriser de plus grand profit, alors elle sera poussée vers la sortie, détruite, abandonnée... comme tant d’espèces avant elle.

      Pour l’instant, l’IA, dans cette analyse, est bien entendu un outil du capitalisme. Elle ne peut qu’exister et proliférer.

      Voilà, tout cela n’est pas assez construit et référencé pour en faire une vraie réflexion.
      Mais ce fil de pouets peut servir de trampoline à d’autres réflexions.
      Feel free.

      (et peut-être que finalement, avec un peu de temps, j’en ferai un ou deux articles.)

    • Comme disait @deun il y a déjà 15 ans :

      Quelle genre d’intelligence humaine ? Qui ça ? A quel époque ? Dans quel contexte ?
      Dans certaines situations, où nous sommes enfermés dans des rôles, il ne nous est pas donné d’être très intelligent, ni d’être spécialement imprévisibles. J’ai bien peur que ce soit à l’aune d’une généralisation ou banalisation de ces situations, que l’on arrive à exhiber des machines à « intelligence humaine ».

    • Le lien https://www.theredhandfiles.com/chat-gpt-what-do-you-think :)

      Mark, thanks for the song, but with all the love and respect in the world, this song is bullshit, a grotesque mockery of what it is to be human, and, well, I don’t much like it — although, hang on!, rereading it, there is a line in there that speaks to me —

      ‘I’ve got the fire of hell in my eyes’

      — says the song ‘in the style of Nick Cave’, and that’s kind of true. I have got the fire of hell in my eyes – and it’s ChatGPT.

      Love, Nick

    • Cher Mark

      Depuis son lancement en novembre de l’année dernière, de nombreuses personnes, la plupart animées d’une sorte de fascination algorithmique, m’ont envoyé des chansons « dans le style de Nick Cave » créées par ChatGPT. Il y en a eu des dizaines. Inutile de dire que je ne ressens pas le même enthousiasme pour cette technologie. Je comprends que ChatGPT n’en est qu’à ses balbutiements, mais c’est peut-être là l’horreur émergente de l’IA : elle n’en sera jamais qu’à ses balbutiements, car elle aura toujours à aller plus loin, et la direction est toujours en avant, toujours plus vite. On ne pourra jamais la faire reculer, ni la ralentir, car elle nous fait avancer vers un avenir utopique, peut-être, ou vers notre destruction totale. Qui peut dire vers quoi ? À en juger par cette chanson « dans le style de Nick Cave », ça ne s’annonce pas bien, Mark. L’apocalypse est en bonne voie. Cette chanson est nulle.

      Traduit avec www.DeepL.com/Translator (version gratuite)

  • Tremble cybermonde ! La vilaine #IA_open_source #chatGPT permettrait de générer du code malveillant et menacerait la suprématie de Google :


    C’est une tendance inquiétante : les pirates se sont aussi emparés de ChatGPT et certains s’en servent pour créer e-mails de phishing et malwares en quelques secondes. Le début d’une nouvelle ère ? 

    Article source : https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/#single-post

    At the end of November 2022, OpenAI released ChatGPT, the new interface for its Large Language Model (LLM), which instantly created a flurry of interest in AI and its possible uses. However, ChatGPT has also added some spice to the modern cyber threat landscape as it quickly became apparent that code generation can help less-skilled threat actors effortlessly launch cyberattacks.


    Le chatbot conçu par OpenAI est capable de sonder le Web pour répondre à des questions complexes sous une forme synthétique et digeste. Une petite révolution qui pourrait bien radicalement transformer la façon dont on accède à l’information sur Internet et remettre en cause le monopole jusqu’ici incontesté de Google dans la recherche en ligne.


  • Ce que chatGPT fait à la veille : la collecte (sourcing et veille). 2/4 | Outils Froids

    La phase de collecte c’est un peu le cœur du réacteur de toute veille. C’est le moment où l’on va rechercher les sources qui alimenteront le dispositif en contenus nouveaux, jour après jour. C’est aussi là que l’on déploiera les outils permettant de surveiller ces sources, quelles qu’elles soient. Soyons clair, pour l’instant, ChatGPT n’est pas un service qui permet d’effectuer la moindre surveillance, en revanche, il peut être très utile dans la partie d’identification de sources.

    #ChatGPT #Veille #Recherche #Source #CDI

  • ChatGPT : Mächtige Waffe in Händen von Skriptkiddies

    Si je comprends bien #ChatGPT ajoute une solution au problème du temps limité qui se pose à pas mal de développeuses amateurs.

    9.1.2023 von Dirk Knop - Das künstliche-Intelligenz-Modell ChatGPT der Firma OpenAI kann nicht nur erstaunliche Texte hervorbringen, sondern programmiert auch ganz passabel. Im digitalen Untergrund haben die IT-Sicherheitsforscher von Check Point jetzt beobachtet, wie sogenannte Skriptkiddies, also Nutzerinnen und Nutzer ohne größere Programmierkenntnisse, das KI-Modell zum automatisierten Erstellen etwa von Malware missbrauchen.

    Die IT-Forscher haben mehrere Untergrund-Hacking-Foren untersucht und haben dabei erste Gehversuche von Cyberkriminellen aufgespürt, mit der OpenAI-KI bösartige Werkzeuge zu entwickeln. In einigen Fällen zeigte sich zudem, dass die Kriminellen keinerlei Entwickler-Knowhow besaßen. Die ersten Tools seien noch recht einfach, es sei jedoch lediglich eine Frage der Zeit, bis fortgeschrittenere bösartige Akteure die Nutzung von KI-basierten Werkzeugen für ihre Ziele ausweiten.
    ChatGPT: Infostealer und Verschlüsselungstools

    Die Check-Point-Mitarbeiter haben kurz vor Jahreswechsel einen Diskussionsfaden in einem populären Untergrundforum entdeckt, in dem der Themenstarter erklärte, dass er mit ChatGPT experimentiert, um Malware-Stämme nachzubauen, die in Forschungspublikationen und allgemeinen Schadsoftwarebeschreibungen auftauchten. Als Beispiel habe dieser einen Code-Schnippsel in Python geteilt, der bestimmte Dateitypen suche, sie in einen zufälligen Ordner im Temp-Verzeichnis kopiere, diesen in eine ZIP-Datei verfrachte und schließlich auf einen fest einprogrammierten FTP-Server hochlade.

    Der Code-Schnipsel hielt der Prüfung durch die IT-Forscher stand, er lieferte tatsächlich die versprochenen Funktionen ab. Ein weiteres Beispiel der Versuche dieses Cyberkriminellen mündete in einem Java-Schnipsel. Der lädt den SSH-Client PuTTY herunter und startet ihn versteckt im System mit Powershell. Das Skript ließe sich leicht anpassen, beliebige Programme herunterzuladen, einschließlich Malware.

    Zwar habe der Themenstarter weitergehende Programmierkenntnisse, seine Beispiele zeigten jedoch, wie auch weniger technisch begabte Individuen ChatGPT für bösartige Zwecke missbrauchen könnten – mit echten Beispielen, die sie umgehend nutzen können.

    Nur rund eine Woche davor hatte ein anderer Cyberkrimineller ein Python-Skript gepostet, von dem er angab, dass es das Erste sei, das er jemals erstellt hätte. Auf die Code-Ähnlichkeit mit ChatGPT-Code angesprochen, antwortete er, die OpenAI-KI habe ihm eine „nette [helfende] Hand gereicht, um das Skript mit einem schönen Funktionsumfang anzufertigen“. Die Check-Point-Forscher bestätigen, dass das Skript kryptografische Funktionen ausführt und dabei etwa das Signieren, Entschlüsseln und Verschlüsseln unterstützt.
    Werkzeug nicht per se bösartig

    Die IT-Sicherheitsforscher erläutern, dass sich diese Skripte auch für legitime Zwecke nutzen ließen. Sie ließen sich jedoch sehr leicht modifizieren, um etwa das System eines Benutzers vollständig ohne Nutzerinteraktion zu verschlüsseln. Nach dem Beheben einiger Skript- und Syntax-Probleme könnte daraus eine Ransomware entstehen.

    Eine weitere Möglichkeit, wie Cyberkriminelle ohne weiterreichende Entwicklerkenntnisse ChatGPT missbrauchen können, ist das Erstellen eines Darknet-Marktplatzes. Es handelt sich dabei um einen Umschlagplatz zum Handeln von illegalen oder gestohlenen Gütern wie erbeuteten Zugangsdaten, Kreditkarteninformationen, Malware oder sogar Drogen und Munition, die allesamt mit Kryptowährungen gezahlt werden. Ein Cyberkrimineller demonstrierte, wie mit ChatGPT erstellter Code eine Dritthersteller-API auf aktuelle Kryptowährungskurse von Bitcoin, Etherium und Monero als Teil des Dark-Web-Bezahlsystems abfragte.

    Weitere Diskussionen zum Jahresanfang 2023 drehten sich in den Untergrundforen darum, wie sich mit ChatGPT Betrugsmaschen umsetzen ließen. Viele betrafen etwa das Erstellen von zufälliger Kunst mit DALLE2 und der Verkauf davon auf der Plattform Etsy. Oder das Erstellen von E-Books oder kürzeren Kapiteln über spezielle Themen mit ChatGPT und den Online-Verkauf dieser Inhalte, führen die Check-Point-Forscher weiter aus. Es sei noch zu früh, um einzuschätzen, ob ChatGPT das neue bevorzugte Werkzeug im digitalen Untergrund wird. Es zeige sich jedoch deutliches Interesse der Untergrund-Community daran, auf den KI-Trend aufzuspringen und damit etwa Schadcode zu erzeugen.


    • Amateurs alors. Très amateurs. Il y a eu de tests de réalisés par pas mal de Youtubeurs spécialisés dans plusieurs domaines.
      Derrière son aplomb, ChatGPT produit de très nombreuses erreurs, des approximations facheuses et surtout, laisse penser à une réponse construite et argumentée, alors que les prémisses sont déjà faux.
      Programmation, Chimie, Bricolage, Histoire... voila des sujets déjà débunkés.
      Alors oui, parfois la réponse est parfaite. Pour certains sujets, l’approximation se voit à peine. Et d’autres fois, il suffit de revenir poser la même question le lendemain pour avoir enfin la bonne réponse.
      Mais dans l’ensemble, c’est fait pour les gens qui savent déjà. Un peu comme l’était Google translation en 2003.
      Revenez dans 20 ans !