• Long-Lost Letters Bring Word, at Last - The New York Times
    https://www.nytimes.com/2023/03/09/arts/prize-papers.html

    By Bryn Stole

    Bryn Stole reported from London, Berlin and Oldenburg, Germany.

    March 9, 2023

    In a love letter from 1745 decorated with a doodle of a heart shot through with arrows, María Clara de Aialde wrote to her husband, Sebastian, a Spanish sailor working in the colonial trade with Venezuela, that she could “no longer wait” to be with him.

    Later that same year, an amorous French seaman who signed his name M. Lefevre wrote from a French warship to a certain Marie-Anne Hoteé back in Brest: “Like a gunner sets fire to his cannon, I want to set fire to your powder.”

    The Decline of the Civil War Re-enactor — Bunk
    https://www.bunkhistory.org/resources/the-decline-of-the-civil-war-re-enactor

    The 155th anniversary Gettysburg re-enactment was a snapshot of a hobby with dwindling ranks.
    by Bryn Stole via New York Times on July 28, 2018

    Berlin aquarium explosion: German pundits see a ripe metaphor in the collapse of this gigantic structure.
    https://slate.com/news-and-politics/2022/12/berlin-aquarium-explosion-germany.html

    Letzte Generation: The German activists who keep gluing themselves to highways and buildings are up to something bigger.
    https://slate.com/news-and-politics/2023/02/letzte-generation-last-generation-germany-climate-gluers.html

    Sleeper car trains: The hottest trend in travel is a throwback.
    https://slate.com/business/2023/08/sleeper-car-trains-trend-travel.html

    Bryn Stole on X: ““Europe can’t stay united without the United States,” Biden said in a speech to the Senate in 1995 during the crisis in Bosnia. “There is no moral center in Europe.” https://t.co/fpWjoNXg8v” / X
    https://twitter.com/brynstole/status/1757329836375183850

    “Europe can’t stay united without the United States,” Biden said in a speech to the Senate in 1995 during the crisis in Bosnia. “There is no moral center in Europe.”

    Baltimore Sun reporter Stole departs for Fulbright opportunity - Talking Biz News
    https://talkingbiznews.com/media-moves/baltimore-sun-reporter-stole-departs-for-fulbright-opportunity

    June 24, 2022
    Posted by Mariam Ahmed
    Bryn Stole

    Bryn Stole, a reporter at The Baltimore Sun has left.

    A part of his Tweet reads, “Excited to say I’ve been offered a Fulbright grant to report from Germany starting in the fall. I’ll be reporting as a freelancer (so on the hunt for assignments, places to pitch, tips, etc.—get in touch!). I’ll be around Baltimore for most of the summer in the meantime.”

    Previously, Stole was at The Advocate for more than five years, where he worked as a metro reporter, Washington correspondent and investigative reporter. He also reported for Greenwood Commonwealth in Mississippi.

    Stole has a B.A. from Kenyon College in Gambier, Ohio.

    Letzte Generation: The German activists who keep gluing themselves to highways and buildings are up to something bigger.
    https://slate.com/news-and-politics/2023/02/letzte-generation-last-generation-germany-climate-gluers.html

    Glue-ten Tag!
    Behind the scenes with Germany’s reviled “climate-gluer” activists.
    By Bryn Stole
    Feb 03, 20235:45 AM

    Protests Against Police Shootings in the US Continue, Protestors Face Arrest
    https://thewire.in/world/protests-police-shootings-us-blockade-major-roads-arrests

    Bryn Stole and David Bailey
    World
    10/Jul/2016

    Baton Rouge/Minneapolis: Protests against the shootings of two black men by police officers shut down main arteries in a number of US cities on July 9, leading to numerous arrests, scuffles and injuries in confrontations between police and demonstrators.

    #journalisme

  • Chat GPT ou le perroquet grammairien - AOC media
    Par Pierre-Yves Modicom – Linguiste
    https://aoc.media/analyse/2023/11/13/chat-gpt-ou-le-perroquet-grammairien
    Rediffusion d’un article du 14 novembre 2023.

    L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

    La capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

    L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

    L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’« apprentissage profond » issues de l’approche « neuronale » de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons « neuronales » de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de « perroquets stochastiques ». Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de « neuronal » car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

    IA neuronales et acquisition du langage humain
    Au-delà de l’analogie « neuronale », ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (« constructions ») dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

    Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de « grammaire générative » même si le pluriel (les grammaires génératives) serait plus approprié.

    IA générative contre grammaire générative
    Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de « cartésien » le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un « instinct de langage » mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

    La nature de ces universaux fluctue énormément selon quelle période et quelle école du « générativisme » on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

    On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée « La fausse promesse de ChatGPT » https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html . En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de « langage » ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de « langage ».

    Chomsky, trop têtu pour qu’on lui parle ?
    Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, « John est trop entêté pour qu’on lui parle », mais en anglais on a littéralement « trop têtu pour parler à » ; la préposition isolée (ou « échouée ») en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, « John est trop têtu pour qu’on parle à [John] » : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

    Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

    On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement « compris » le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : « John est trop têtu pour qu’on lui parle » en solution préférée et « John est trop têtu pour parler avec lui » en solution de remplacement. Hors contexte, donc sans qu’on sache qui est « lui », cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

    Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que « fournir une paraphrase équivalente », dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend « lui ». Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT « comprend ou « ne comprend pas » le stimulus, mais qu’il en « prédit le sens » (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

    Syntaxe et sémantique de ChatGPT
    ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des « grammaires de construction », le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les « grand corpus » de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

    Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits « des cadres » (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables « déictiques », c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

    On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles « constructionnalistes » sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

    À l’école du perroquet
    La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si « ChatGPT parle » ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du « perroquet stochastique », prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

    Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si « les animaux parlent », pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des « fausses promesses », les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction.

    Cet article a été publié pour la première fois le 4 novembre 2023 dans le quotidien AOC.

    Pierre-Yves Modicom
    Linguiste, Professeur à l’Université Lyon 3 Jean Moulin

  • ‘Thousands of Dollars for Something I Didn’t Do’ - The New York Times
    https://www.nytimes.com/2023/03/31/technology/facial-recognition-false-arrests.html

    “I’m locked up for something I have no clue about,” Mr. Reid, 29, said.

    His parents made phone calls, hired lawyers and spent thousands of dollars to figure out why the police thought he was responsible for the crime, eventually discovering it was because Mr. Reid bore a resemblance to a suspect who had been recorded by a surveillance camera. The case eventually fell apart and the warrants were recalled, but only after Mr. Reid spent six days in jail and missed a week of work.

    Mr. Reid’s wrongful arrest appears to be the result of a cascade of technologies — beginning with a bad facial recognition match — that are intended to make policing more effective and efficient but can also make it far too easy to apprehend the wrong person for a crime. None of the technologies are mentioned in official documents, and Mr. Reid was not told exactly why he had been arrested, a typical but troubling practice, according to legal experts and public defenders.

    “In a democratic society, we should know what tools are being used to police us,” said Jennifer Granick, a lawyer at the American Civil Liberties Union.

  • Google C.E.O. Sundar Pichai on the A.I. Moment: ‘You Will See Us Be Bold’ - The New York Times
    https://www.nytimes.com/2023/03/31/technology/google-pichai-ai.html

    Sundar Pichai has been trying to start an A.I. revolution for a very long time.

    In 2016, shortly after being named Google’s chief executive, Mr. Pichai declared that Google was an “A.I.-first” company. He spent lavishly to assemble an all-star team of A.I. researchers, whose breakthroughs powered changes to products like Google Translate and Google Photos. He even predicted that A.I.’s impact would be bigger than “electricity or fire.”

    So it had to sting when A.I.’s big moment finally arrived, and Google wasn’t involved.

    Instead, OpenAI — a scrappy A.I. start-up backed by Microsoft — stole the spotlight in November by releasing ChatGPT, a poem-writing, code-generating, homework-finishing marvel. ChatGPT became an overnight sensation, attracting millions of users and kicking off a Silicon Valley frenzy. It made Google look sluggish and vulnerable for the first time in years. (It didn’t help when Microsoft relaunched its Bing search engine with OpenAI’s technology inside, instantly ending Bing’s decade-long run as a punchline.)

    In an interview with The Times’s “Hard Fork” podcast on Thursday, his first extended interview since ChatGPT’s launch, Mr. Pichai said he was glad that A.I. was having a moment, even if Google wasn’t the driving force.

    #Intelligence_artificielle #Google

  • The Open Letter to Stop ‘Dangerous’ AI Race Is a Huge Mess | Chloe Xiang
    https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-mess

    The letter was penned by the Future of Life Institute, a nonprofit organization with the stated mission to “reduce global catastrophic and existential risk from powerful technologies.” It is also host to some of the biggest proponents of longtermism, a kind of secular religion boosted by many members of the Silicon Valley tech elite since it preaches seeking massive wealth to direct towards problems facing humans in the far future. One notable recent adherent to this idea is disgraced FTX CEO Sam Bankman-Fried. Source: Motherboard

    • Gary Marcus a signé la lettre, il est très loin de la « AI Hype », et a un point de vue beaucoup plus pondéré.

      I am not afraid of robots. I am afraid of people.
      https://garymarcus.substack.com/p/i-am-not-afraid-of-robots-i-am-afraid

      For now, all the technolibertarians are probably cackling; if they had wanted to sabotage the “develop AI with care” crowd, they couldn’t have found a better way to divide and conquer.

      In truth, over 50,000 people signed the letter, including a lot of people who have nothing to do with the long term risk movement that the FLI itself is associated with. These include, for example, Yoshua Bengio (the most cited AI researcher in recent years), Stuart Russell (a well-known AI researcher at Berkeley), Pattie Maes (a prominent AI researcher at MIT), John Hopfield (a physicist whose original work on machine learning has been massively influential), Victoria Krakovna (a leading researcher at DeepMind working on how to get machines to do what we want them to do), and Grady Booch (a pioneering software architect who has been speaking out about the unreliability of current techniques as an approach to software engineering).

      But a few loud voices have overshadowed the 50,000 who have signed.

    • Un aspect qui me chagrine un peu, c’est que même chez Gary Marcus, ça se focalise sur des travers que seraient des utilisations frauduleuses de l’IA : désinformation et fishing essentiellement. (Et tout le monde nous fait un peu chier avec ces histoires de désinformation, comme si Trump, QAnon, les climatosceptiques et les covidiots, les gouvernements qui mentent, avaient besoin de la moindre IA pour générer et rendre « crédibles » leurs foutaises délirantes.)

      Pourtant il y a toutes les utilisations qui sont soit déjà légales, soit prochainement légales, et qui sont totalement épouvantables : « aide » à la justice (lui est noir et pauvre, il ira en prison parce que l’IA super-finaude a trouvé qu’il avait une tête à récidiver), « aide » aux contrôles des aides sociales (elle selon l’IA, elle a un profil à picoler sont argent de la CAAF, alors on va lui couper les vivres), pourquoi pas l’orientation des gamins avec des algorithmes qui font flipper tout le monde (je sais, Parcoursup est loin de l’IA, mais je n’ai aucun doute que c’est la prochaine étape), aide aux flics (celui-là, l’IA a décidé de te me le ficher S illico, vu qu’il est abonné au flux RSS de rezo.net et qu’il lit Bastamag…), automatisation complète de la médecine (au lieu d’une aide au diagnostic, on remplacera carrément le médecin avec une IA), etc.

      Automatisation des accès aux droits (immigration, solidarités, logement, éducation…), et incompétence organisées des personnels. Et renforcement de ce principe d’autorité (« le logiciel se trompe moins que les humains ») que déjà beaucoup de personnels ne sont plus en position de prendre la responsabilité d’aller à l’encontre d’une décision prise par un algorithme.

    • Ouais enfin quand tu t’impliques dans un débat, tu es censé te renseigner un peu sur ce qui s’est passé avant dans le champs.

    • Il faut que tu soies plus explicite.

      Ça fait un moment que je suis Gary Marcus, parce qu’il est justement opposé à la « AI Hype », qu’il a déjà publié plusieurs textes expliquant qu’il ne croit pas à l’avénement intelligence générale avec les outils actuels (ce n’est pas un gourou qui annonce la singularité grâce à Bitcoin et ChatGPT, ni un adepte du longtermisme). Et que dans le même temps, il avait déjà publié des textes de méfiance envers les outils actuels, avant de signer l’appel en question (dont il reconnaît explicitement des limites et des problèmes dans le texte qu’il a publié cette nuit – et il y évoque explicitement le texte de Timnit Gebru que tu as posté ci-dessus).

    • Je suppose que « se renseigner » fait référence au paragraphe 6.2 du document On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? (mars 2021)
      https://dl.acm.org/doi/pdf/10.1145/3442188.3445922

      6.2 Risks and Harms
      The ersatz fluency and coherence of LMs raises several risks, precisely because humans are prepared to interpret strings belonging to languages they speak as meaningful and corresponding to the communicative intent of some individual or group of individuals who have accountability for what is said. We now turn to examples, laying out the potential follow-on harms.

      Là où Gary Marcus a tendance à insister sur des usages plus volontairement nuisibles (« bad actors ») :
      https://www.theatlantic.com/technology/archive/2023/03/ai-chatbots-large-language-model-misinformation/673376

      Et quand ça passe au grand public, ça devient particulièrement éthéré. L’édito d’Ezra Klein dans le NY Times (il y a 15 jours) a peut-être influencé l’émergence de l’appel, et c’est très très flou sur les risques liés à l’AI (grosso modo : « c’est tellement puissant qu’on ne comprend pas vraiment », pas loin de la Hype AI) :
      https://www.nytimes.com/2023/03/12/opinion/chatbots-artificial-intelligence-future-weirdness.html%20https://www.nytimes.com/2023/03/12/opinion/chatbots-artificial-intelligence-future-weirdness.html

    • Je ne sais pas comment faire plus explicite. Une pétition sur l’IA cosignée par Melon Musk et pas par M. Mitchell ou T. Gebru, quand tu connais un tout petit peu le domaine, tu devrais juste te méfier avant d’engager ton nom. Mais bon… you do you, comme on dit.

  • Ukraine Says It Will Use Legal Means to Evict Orthodox Pro-Russia Monks - The New York Times
    https://www.nytimes.com/2023/03/29/world/europe/ukraine-russia-orthodox-monks.html

    Many Ukrainians argue that the church has not clearly stated its position on the conflict and is therefore compromised. The Ukrainian security services have gone further, describing the Russian-aligned church as an incubator of pro-Russia sentiment and infiltrated by priests and monks who have directly aided Moscow in the war.
    Image

    Dozens of priests and monks from the Moscow Patriarchate have been arrested in recent months, accused of spying for the Kremlin and even helping to direct Russian airstrikes. President Volodymyr Zelensky of Ukraine has said the expulsions — which affect roughly 200 monks and 300 trainees — are needed for “spiritual independence.”

  • An Untold Story Behind Jimmy Carter’s Presidential Defeat - The New York Times
    https://www.nytimes.com/2023/03/18/us/politics/jimmy-carter-october-surprise-iran-hostages.html?te=1&nl=from-the-times&emc

    Comment un des président les plus progressistes des Etats-unis s’est fait voler sa ré-élection par des Républicains qui indiquent à l’Iran qu’il faut garder les otages jusqu’à l’élection de Reagan... et le néolibéralisme fut.

    Peter Baker

    By Peter Baker

    March 18, 2023

    WASHINGTON — It has been more than four decades, but Ben Barnes said he remembers it vividly. His longtime political mentor invited him on a mission to the Middle East. What Mr. Barnes said he did not realize until later was the real purpose of the mission: to sabotage the re-election campaign of the president of the United States.

    It was 1980 and Jimmy Carter was in the White House, bedeviled by a hostage crisis in Iran that had paralyzed his presidency and hampered his effort to win a second term. Mr. Carter’s best chance for victory was to free the 52 Americans held captive before Election Day. That was something that Mr. Barnes said his mentor was determined to prevent.

    His mentor was John B. Connally Jr., a titan of American politics and former Texas governor who had served three presidents and just lost his own bid for the White House. A former Democrat, Mr. Connally had sought the Republican nomination in 1980 only to be swamped by former Gov. Ronald Reagan of California. Now Mr. Connally resolved to help Mr. Reagan beat Mr. Carter and in the process, Mr. Barnes said, make his own case for becoming secretary of state or defense in a new administration.
    ImageMr. Carter sitting at a desk in the Oval Office, looking down.
    The hostage crisis in Iran hampered Mr. Carter’s effort to win a second term.Credit...Associated Press
    Mr. Carter sitting at a desk in the Oval Office, looking down.

    What happened next Mr. Barnes has largely kept secret for nearly 43 years. Mr. Connally, he said, took him to one Middle Eastern capital after another that summer, meeting with a host of regional leaders to deliver a blunt message to be passed to Iran: Don’t release the hostages before the election. Mr. Reagan will win and give you a better deal.

    Then shortly after returning home, Mr. Barnes said, Mr. Connally reported to William J. Casey, the chairman of Mr. Reagan’s campaign and later director of the Central Intelligence Agency, briefing him about the trip in an airport lounge.

    Mr. Carter’s camp has long suspected that Mr. Casey or someone else in Mr. Reagan’s orbit sought to secretly torpedo efforts to liberate the hostages before the election, and books have been written on what came to be called the October surprise. But congressional investigations debunked previous theories of what happened.

    #Jimmy_Carter #Ronald_reagan #Magouille

  • A ‘New Cold War’ Looms in Africa as U.S. Pushes Against Russian Gains - The New York Times
    https://www.nytimes.com/2023/03/19/world/africa/chad-russia-wagner.html

    Les #états-unis au secours de la #Françafrique

    In Africa, the more forceful American approach aims partly to shore up the crumbling position of #France, which in recent years has ceded ground to Russia in former colonies like Mali and the Central African Republic.

  • Credit Suisse to Borrow as Much as $54 Billion From Swiss Central Bank - The New York Times
    https://www.nytimes.com/2023/03/15/business/economy/credit-suisse-swiss-bank-54-billion-loan.html

    The Swiss lender had ended Wednesday fighting for its life, with shares at a record low and the cost to insure against a default the highest ever. The loan is an effort to avert further damage.

    Plutôt que de renflouer des canards boiteux, ne devrait-on pas plutôt aider l’Ukraine ? 54 milliards, c’est quasiment le budget annuel de l’armée Russe après tout. Et c’est quasiment ce qu’a reçu l’Ukraine en aide financière militaire.

  • Pentagon Blocks Sharing Evidence of Possible Russian War Crimes With Hague Court
    https://www.nytimes.com/2023/03/08/us/politics/pentagon-war-crimes-hague.html

    The Pentagon is blocking the Biden administration from sharing evidence with the International Criminal Court in The Hague gathered by American intelligence agencies about Russian atrocities in Ukraine, according to current and former officials briefed on the matter.

    American military leaders oppose helping the court investigate Russians because they fear setting a precedent that might help pave the way for it to prosecute Americans. The rest of the administration, including intelligence agencies and the State and Justice Departments, favors giving the evidence to the court, the officials said.

    President Biden has yet to resolve the impasse, officials said.

    The evidence is said to include details relevant to an investigation the chief prosecutor of the International Criminal Court, Karim Khan, began after Russia’s invasion of Ukraine a year ago. The information reportedly includes material about decisions by Russian officials to deliberately target civilian infrastructure and to abduct thousands of Ukrainian children from occupied territory.

    In December, Congress modified longstanding legal restrictions on American help to the court, allowing the United States to assist with its investigations and eventual prosecutions related to the war in Ukraine. But inside the Biden administration, a policy dispute over whether to do so continues to play out behind closed doors.

    [...] In late December, lawmakers enacted two laws aimed at increasing the chances that Russians would be held accountable for war crimes in Ukraine.

    One was a stand-alone bill expanding the jurisdiction of American prosecutors to charge foreigners for war crimes committed abroad. The other, a provision about the International Criminal Court embedded in the large appropriations bill Congress passed in late December, received little attention at the time.

    But that provision was significant. While the U.S. government remains prohibited from providing funding and certain other aid to the court, Congress created an exception that allows it to assist with “investigations and prosecutions of foreign nationals related to the situation in #Ukraine, including to support victims and witnesses.”

    Despite that legal change and Congress’s signal of support, the Pentagon has stood firm that the United States should not help the International Criminal Court investigate Russians for their actions in Ukraine since Russia is not a party to the treaty that established the court.

    That resistance has attracted criticism both inside and outside the executive branch. Some legal specialists contend that there is scant benefit to hewing to that position because the rest of the world essentially rejects that interpretation.

    #cour_pénale_internationale

  • Intelligence Suggests Pro-Ukrainian Group Sabotaged Pipelines, U.S. Officials Say - The New York Times
    https://www.nytimes.com/2023/03/07/us/politics/nord-stream-pipeline-sabotage-ukraine.html


    The Nord Stream 2 gas pipeline in Lubmin, Germany, last year.
    Credit. Krisztian Bocsi/Bloomberg

    New intelligence reporting amounts to the first significant known lead about who was responsible for the attack on the Nord Stream pipelines that carried natural gas from Russia to Europe.
    […]
    Officials who have reviewed the intelligence said they believed the saboteurs were most likely Ukrainian or Russian nationals, or some combination of the two. U.S. officials said no American or British nationals were involved.

    The pipelines were ripped apart by deep sea explosions in September, in what U.S. officials described at the time as an act of sabotage. European officials have publicly said they believe the operation that targeted Nord Stream was probably state sponsored, possibly because of the sophistication with which the perpetrators planted and detonated the explosives on the floor of the Baltic Sea without being detected. U.S. officials have not stated publicly that they believe the operation was sponsored by a state.

    The explosives were most likely planted with the help of experienced divers who did not appear to be working for military or intelligence services, U.S. officials who have reviewed the new intelligence said. But it is possible that the perpetrators received specialized government training in the past.

    Officials said there were still enormous gaps in what U.S. spy agencies and their European partners knew about what transpired. But officials said it might constitute the first significant lead to emerge from several closely guarded investigations, the conclusions of which could have profound implications for the coalition supporting Ukraine.

    Any suggestion of Ukrainian involvement, whether direct or indirect, could upset the delicate relationship between Ukraine and Germany, souring support among a German public that has swallowed high energy prices in the name of solidarity.

    • Enquêtes Nord Stream : des traces mènent à l’Ukraine
      https://www.zeit.de/politik/ausland/2023-03/nordstream-2-ukraine-anschlag

      Concrètement, selon les informations du studio ARD Capital, les enquêteurs sont contrastés, SWR et ZEIT ont réussi à identifier le bateau qui aurait été utilisé pour l’opération secrète. Il s’agirait d’un yacht loué à une société basée en Pologne, appartenant apparemment à deux Ukrainiens. Selon l’enquête, l’opération secrète en mer a été menée par une équipe de six personnes. On dit qu’il s’agissait de cinq hommes et d’une femme. En conséquence, le groupe était composé d’un capitaine, de deux plongeurs, de deux assistants de plongée et d’un médecin, qui auraient transporté les explosifs sur les lieux du crime et les y auraient placés. La nationalité des auteurs n’est apparemment pas claire. Les assassins ont utilisé des passeports falsifiés par des professionnels, qui auraient été utilisés, entre autres, pour louer le bateau.

      Selon l’enquête, le commandement a quitté Rostock le 6 septembre 2022. L’équipement pour l’opération secrète était auparavant transporté au port dans un camion de livraison, dit-on. Selon les recherches, les enquêteurs ont ensuite réussi à localiser à nouveau le bateau le lendemain à Wieck (Darß) et plus tard sur l’île danoise de Christiansø, au nord-est de Bornholm. Le yacht a ensuite été rendu au propriétaire dans un état non nettoyé. Selon les recherches, les enquêteurs ont trouvé des traces d’explosifs sur la table dans la cabine. Selon les informations du studio capital ARD, Kontraste, SWR et ZEIT, un service secret occidental aurait envoyé à l’automne, c’est-à-dire peu après la destruction, un tuyau aux services partenaires européens, selon lequel un commando ukrainien serait responsable de la destruction. Après cela, il y aurait eu d’autres indications de renseignement qu’un groupe pro-ukrainien pourrait être responsable.

      traduction bancale de gg...

    • Unique source : « US officials ». La seule chose qu’on peut en tirer, c’est essayer de se faire des nœuds au cerveau de ce que signifie une telle publication dans le NYTimes. Par contre rigoureusement rien sur la crédibilité de l’affirmation.

    • C’est sûr que toute cette « enquête » pue la barbouzerie. On peut juste remarquer qu’ils n’ont pas osé faire dire aux « journalistes » que les services n’avaient rien vu venir et qu’ils avaient été les premiers surpris.
      le début de l’article du Spiegel :

      phrase 1

      Les autorités allemandes d’enquête ont réalisé une percée dans l’enquête sur l’attaque des gazoducs NS1 et NS2.

      phrase suivante

      Après une enquête (Recherche) commune du studio berlinois d’ARD, du magazine politique d’ARD Kontraste, de la SWR et du Zeit, il a pu être reconstitué, à la suite des investigations, comment et quand l’attaque à l’explosif a été préparée.

      Normalement, les « autorités » (Behörden) ça ne peut pas être des médias…

      Et le début du passage que traduit @Lyco réalise une audacieuse synthèse des deux sources :

      En pratique, d’après les informations de ARD-Berlin, Kontraste, SWR et le Zeit, les enquêteurs ont réussi à identifier le bateau soupçonné d’avoir été utilisé pour l’opération secrète.

      La femme mentionnée était « le » médecin :- )

      Plus loin, et, effectivement, l’original allemand doit être lu avec un soin bien plus grand que gg:translate

      Les enquêteurs de l’enquête commune (Recherche, le terme renvoie précisément à l’enquête menée par les médias) ont pu identifier des traces d’explosif sur la table du yacht.

      D’après des informations de (toujours) ces (mêmes) enquêteurs des médias, un service secret occidental a dû, peu de temps après l’attaque, transmettre à certains de ces partenaires européens un avis selon lequel ce serait un commando ukrainien qui serait responsable de la destruction.

      dans l’article allemand, aucune référence à des US officials, que de vaillants et fiers journalistes qui ont pu tranquillement remonter la filière… et, avec leur petit bras et leur farouche volonté de découvrir la vérité, ainsi trouver tout cela. Où il subsiste tout de même beaucoup de conditionnels.

    • sur l’article du NYT cf. ces commentaires, via @dedefensa
      https://seenthis.net/messages/993465

      (je dois avouer que je n’ai pas lu l’article du New York Times, je me suis focalisé sur celui du Zeit, où il y avait déjà pas mal de quoi faire…)

      (oui, je sais Zeit c’est féminin, et à chaque fois ça me fait bizarre, alors je précise : c’est une ellipse

      le Zeit

      pour

      l’hebdomadaire Die Zeit

      peut-être que ça me soulagera…