• Quand l’#assurance prend en charge les #hallucinations des #chatbots dopés à l’#IA | Les Echos
    https://www.lesechos.fr/finance-marches/banque-assurances/quand-lassurance-prend-en-charge-les-hallucinations-des-chatbots-dopes-a-li

    Le Lloyd’s of London, plus grand marché mondial de l’assurance des entreprises, lance une solution couvrant les défaillances des chatbots. Le produit ouvre la voie à une adoption plus large de l’IA, tout en permettant aux assureurs de capter un marché en pleine expansion.

  • Apple Intelligence : le nouvel outil d’IA résumant l’actualité finalement désactivé
    https://www.lemonde.fr/pixels/article/2025/01/17/apple-intelligence-le-nouvel-outil-d-ia-resumant-l-actualite-finalement-desa

    Après s’être engagé à améliorer cette fonction, Apple a finalement décidé jeudi de la retirer temporairement de la version expérimentale d’iOS dans laquelle elle était testée. Elle avait notamment diffusé des notifications contenant des informations erronées et attribuées, à tort, à la BBC.

    Le Monde avec AFP
    Publié aujourd’hui à 11h54

    Plutôt que d’être perfectionné, l’outil a finalement été temporairement retiré. Au début du mois de janvier, Apple avait promis qu’il améliorerait les résumés d’actualités qui apparaissent sur iPhone sous forme de notifications, car l’intelligence artificielle chargée de les fabriquer y introduisait occasionnellement des erreurs. Mais jeudi 16 janvier, le fabricant américain a finalement décidé d’aller plus loin, selon l’Agence France-Presse, en retirant complètement cette fonction de la version expérimentale d’iOS, la Beta 18.3. C’est au sein de cette dernière qu’était testée l’option, dans des pays anglophones. Apple précise cependant qu’il est prévu de réintroduire ces résumés après les avoir corrigés.
    Lire aussi | Apple Intelligence, un outil qui résume les actualités sur iPhone, épinglé pour avoir généré de fausses informations

    La BBC et le New York Times avaient dénoncé les errements de cette fonctionnalité-clé d’Apple Intelligence, l’une des plus sensibles parmi cet éventail d’outils fondés sur l’intelligence artificielle (IA) que l’entreprise à la pomme prépare pour ses iPhone les plus récents. Ces notifications résumant plusieurs alertes d’actualité ont, par exemple, donné le vainqueur du championnat mondial de fléchettes, alors qu’il n’était pas terminé, affirmé à tort que le tennisman Rafael Nadal avait révélé son homosexualité, ou encore assuré que Luigi Mangione s’était suicidé après son arrestation pour le meurtre du patron d’UnitedHealthcare, selon la BBC.

    Parmi les pistes d’amélioration, Apple s’est engagé à clarifier les moments où le texte résumé est fourni par Apple Intelligence. Ces synthèses d’actualité étaient, en effet, jusqu’alors attribuées très explicitement à la BBC ou au New York Times, dont la réputation tient beaucoup à la fiabilité de leur journalisme.

    Reporters sans frontières, pour sa part, réclame le retrait définitif de cette fonctionnalité, la nouvelle labellisation des résumés annoncée par Apple ne répondant pas au problème des fausses informations que génère parfois son outil. « Cet accident montre à quel point les services à base d’IA générative sont encore trop immatures pour produire de l’information fiable à destination du public, s’inquiétait l’ONG dans un communiqué émis en décembre. Ils ne doivent pas être autorisés sur le marché pour ces usages. »

    #Intelligence_artificielle #Hallucinations #Fiabilité #Explicabilité #News #Médias #Apple

  • Faut-il s’inquiéter des « hallucinations » des IA comme ChatGPT ou Gemini ?
    https://www.lemonde.fr/pixels/article/2024/06/17/faut-il-s-inquieter-des-hallucinations-des-ia-comme-chatgpt-ou-gemini_624097

    DécryptageLes réponses des intelligences artificielles génératives contiennent régulièrement des erreurs factuelles, voire de pures inventions. Quelle est l’ampleur du problème ? Et est-il possible de le surmonter, à l’heure où l’IA se répand dans les outils du quotidien ?

    Vous pouvez partager un article en cliquant sur les icônes de partage en haut à droite de celui-ci.
    La reproduction totale ou partielle d’un article, sans l’autorisation écrite et préalable du Monde, est strictement interdite.
    Pour plus d’informations, consultez nos conditions générales de vente.
    Pour toute demande d’autorisation, contactez syndication@lemonde.fr.
    En tant qu’abonné, vous pouvez offrir jusqu’à cinq articles par mois à l’un de vos proches grâce à la fonctionnalité « Offrir un article ».

    https://www.lemonde.fr/pixels/article/2024/06/17/faut-il-s-inquieter-des-hallucinations-des-ia-comme-chatgpt-ou-gemini_624097

    Des erreurs ou des « hallucinations » donc, les IA génératives en font. Cela n’a pas pour autant dissuadé Google d’intégrer mi-mai sa propre IA, Gemini, à son moteur de recherche. La France n’est pas encore concernée mais, aux Etats-Unis, Google répond désormais à certaines questions par quelques paragraphes de texte générés par IA.
    Lire aussi | Article réservé à nos abonnés L’arrivée de l’IA sur le moteur Google suscite des inquiétudes

    La presse américaine a réagi avec une virulence rare, des dizaines d’articles chroniquant les bourdes spectaculaires commises par l’IA de Google. La MIT Technology Review, par exemple, cite une réponse étonnante obtenue par Margaret Mitchell, chercheuse en éthique de l’IA chez Hugging Face et anciennement employée par Google : Gemini lui a assuré que le président américain Andrew Johnson aurait passé plusieurs diplômes depuis 1947. Un exploit, pour un homme mort en 1875.
    Beaux parleurs

    Et ce n’est pas près de s’arrêter, jugent unanimement les spécialistes interrogés par Le Monde, qui considèrent même ces erreurs comme « inévitables ». La faute aux grands modèles de langage (ou LLM, pour Large Language Model), placés au cœur de ces systèmes de génération de textes. Ils ont appris à estimer les probabilités d’avoir une syllabe, un mot ou une séquence de mots en fonction de ceux qui précèdent. Ces probabilités dépendent des milliards de textes introduits lors de l’apprentissage. En particulier, « si cette phase ne contient pas certains sujets, les probabilités calculées vont être petites et conduire à un choix de mots ou de séquences erroné », précise Didier Schwab, professeur à l’université Grenoble-Alpes. Le système n’a aucune notion de justesse ou de vérité et ne peut savoir que ses réponses, considérées mathématiquement comme plausibles, seront sans doute fausses, inventées ou déformées.

    L’enjeu de la qualité des sources

    D’autres erreurs imputées à l’IA ne sont pas vraiment de son fait. Quand Gemini conseille d’ajouter de la colle dans une pizza pour éviter que le fromage ne coule, il faut plutôt mettre en cause le moteur de recherche de Google, avec lequel Gemini travaille en tandem – un compagnonnage de plus en plus courant pour les IA. C’est ce moteur qui a déniché une page Internet sur laquelle un internaute, sur le ton de la plaisanterie, donnait ce conseil en 2013. « L’erreur est souvent attribuée par erreur à l’IA car c’est la partie visible du système », note Philippe Laban, chercheur en IA chez Salesforce.

    Or les résultats de recherche Google sont composés de liens de qualité variable depuis leur naissance. Dès son lancement en 2016, selon les tests du Monde, l’assistant « OK Google » distillait aussi une quantité astronomique d’informations erronées. On trouve également régulièrement des bévues dans les résumés qui apparaissent en haut des résultats de Google, dont les errements sont « impossibles à corriger complètement », admet elle-même l’entreprise.

    Des pistes d’amélioration

    Quoi qu’il en soit, la communauté scientifique rivalise d’ingéniosité pour lutter contre les « hallucinations ». Il faut d’abord les quantifier au mieux. « Vérifier que les modèles n’“hallucinent” pas correspond pour nous, chercheurs, à évaluer leur qualité selon des critères que l’on définit en fonction de la tâche, et à les évaluer sur des exemples annotés par les humains », indique Chloé Clavel, chercheuse à l’Institut national de recherche en informatique et en automatique, qui a notamment développé des systèmes de détection d’arguments fallacieux dans des conversations ou de génération de résumé fiable.

    Il faut ensuite parvenir à les contrer. Et pour cela, des dizaines de techniques sont déjà recensées. D’abord, la possibilité de réentraîner un modèle sur des données de plus grande qualité ou à jour, mais cela est coûteux en temps de calcul. Le « prompt » ou l’« amorce » – le texte introduit par l’utilisateur pour obtenir une réponse – peut aussi être automatiquement rallongé et détaillé pour aider l’outil à chercher dans le bon contexte et ainsi limiter les risques de dérapage.

    Une autre technique très à la mode, le « RAG » (retrieval-augmented generation, ou « génération augmentée par extraction »), se répand. Elle consiste à identifier les documents, préalablement sélectionnés, les plus proches de la question. Puis un « prompt » invisible, tenant compte de ce contexte précis, est envoyé à la machine pour qu’elle fournisse une réponse, qui sera a priori moins sujette aux inventions. « Cela permet d’afficher avec la réponse la source des documents dont elle est issue », ajoute Laurent Daudet. Son entreprise, LightOn, a fourni un tel service pour fouiller la documentation informatique du conseil régional d’Ile-de-France.

    Autre méthode pour limiter les erreurs : découper la tâche en plusieurs sous-questions, ce qui s’appelle la « chaîne de pensées ». « Demander de résumer un long document de but en blanc ne marche pas, remarque Laurent Daudet. Mais on peut demander d’abord des idées-clés, résumer des parties… puis assembler les éléments pour faire le résumé. »

    Reste un chantier : aider les internautes à contrôler les réponses fournies par les IA. Car ces dernières ne précisent pas toutes l’endroit où elles puisent leurs informations en fournissant un lien. Et quand elles le font, ceux-ci sont parfois erronés. Pour Marie Pellat, ingénieure de recherche pour l’entreprise française Mistral AI, les éditeurs d’IA devront « imaginer des interfaces qui permettent de vérifier l’info rapidement ». Google a commencé à faire un pas dans ce sens. Dans son application Android Gemini, un discret bouton « G » permet désormais de voir les informations les moins fiables d’une réponse surlignées en rose, et les plus fiables surlignées en vert. Cliquer dessus fait alors apparaître un lien Web.

    Une avancée qui laisse Dirk Lewandowski circonspect : « Je ne crois pas que les usagers des moteurs de recherche vérifieront ces infos. Ils n’aiment pas faire d’efforts, et ça n’a pas progressé depuis vingt-cinq ans. »

    #Intelligence_artificielle #Hallucinations #Remèdes

  • L’Union européenne est un contrat social, pas ses États membres
    http://www.taurillon.org/l-union-europeenne-est-un-contrat-social-pas-ses-etats-membres

    L’Union européenne a beau souffrir d’un déficit de légitimité, ses structures n’en restent pas moins plus démocratiques que celles de ses membres. Et pour cause, la nature contractuelle des institutions européennes est avérée là où celle des États membres est usurpée.

    #Opinions

    / #Union_européenne, #Démocratie, #Etats_membres