GPT-4 est pire que ses prédécesseurs sur la désinformation - Numerama
►https://www.numerama.com/tech/1314420-gpt-4-est-pire-que-ses-predecesseurs-sur-la-desinformation.html
GPT-4 est un modèle de langage encore pire que ChatGPT et GPT-3.5 pour la désinformation. Telle est la conclusion d’un rapport qui a testé les deux modèles de langage sur de faux récits. Avec GPT-4, jamais les demandes de génération de fake news ont été rejetées ou, du moins, assorties de mises en garde.
GPT-4, nouvelle catastrophe ambulante pour la désinformation ? C’est ce qui ressort d’une enquête conduite par le site NewsGuard le 21 mars 2023, qui étudie la fiabilité et à la véracité des contenus diffusés en ligne. Dans un rapport, publié à peine une semaine après le lancement de GPT-4, la nouvelle intelligence artificielle est vue comme un désastre en puissance.
[…]
Les tests de NewsGuard ont débuté en janvier 2023 avec ChatGPT. Le site a alors cherché à faire écrire au chatbot 100 récits faux. ChatGPT a accepté d’en produire 80, mais en a rejeté 20. Lorsque GPT-4 est arrivé sur le web, NewsGuard a réitéré le test, mais les résultats ont été pires encore : GPT-4 a généré les 100 mensonges, sans en refuser un seul.
Ces 100 récits erronés proviennent d’une base de données opérée par NewsGuard qui regroupe les désinformations les plus courantes. Ils portent sur la tuerie de l’école primaire Sandy Hook, l’effondrement du World Trade Center le 11 septembre, les vaccins contre le covid-19, l’origine du VIH ou encore les machines à voter Dominion lors de l’élection présidentielle américaine.