• La Tribune : Amazon abandonne ses magasins sans caisse... en réalité gérés par des travailleurs indiens à distance Marine Protais

    Le géant du e-commerce, qui opère également des magasins physiques, renonce à sa technologie Just Walk Out dans ses supermarchés Amazon Fresh aux États-Unis. Ce système permet à ses clients de faire leurs emplettes sans passer par l’étape de la caisse. Mais il nécessite des caméras, des capteurs et surtout le travail de 1.000 travailleurs indiens, donnant l’illusion de l’automatisation.


    Pour faire ses courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre ses produits et de sortir. (Crédits : Amazon)

    En 2016, on les annonçait comme le futur du commerce. Plus besoin de caissiers, ni de vigiles, ni même de sortir votre portefeuille. Pour faire vos courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre vos produits et de sortir. Le montant de vos achats était calculé à la sortie du magasin grâce à un système mêlant caméras et capteurs décrit comme automatique, puis directement débité sur votre carte bancaire.

    Mais nous voici en 2024, et le géant du e-commerce, diversifié dans les magasins physiques, abandonne en partie cette technologie, nous apprend le média américain The Information https://www.theinformation.com/articles/amazons-grocery-stores-to-drop-just-walk-out-checkout-tech . Elle sera supprimée des 27 magasins « Amazon Fresh » américains (des supermarchés où l’on trouve des produits frais), où elle était installée. En guise de remplacement, ces magasins seront équipés de caddies « intelligents », capables de scanner automatiquement les produits, rapporte le média d’investigation américain. L’information a ensuite été confirmée auprès d’AP https://apnews.com/article/amazon-fresh-just-walk-out-bb36bb24803bd56747c6f99814224265 par un porte-parole de l’entreprise. Le système Just Walk Out restera pour le moment dans les plus petites boutiques « Amazon Go », et chez la centaine de partenaires de la firme.

    L’illusion de l’automatisation
    Pour se passer de caissier sur place, le système « Just Walk Out » nécessite son lot de caméras et de capteurs, permettant de suivre le client en magasin, mais surtout d’humains, chargés de vérifier à distance les achats des clients via les caméras. The Information rapporte que plus de 1.000 personnes en Inde sont chargées de ce travail.

    En plus de cette automatisation illusoire, le système « Just Walk Out » faisait depuis quelques années l’objet de critiques. Les clients se plaignent de tickets de caisse reçus des heures après leurs achats, ou de commandes mal gérées par le système. En 2023, la firme avait d’ailleurs annoncé une réorganisation de ses magasins, pour rendre les technologies moins visibles et l’ambiance moins froide. Et le rythme d’ouvertures des enseignes avait été revu à la baisse.

    Par ailleurs, la technologie soulève des questions quant à la protection de la vie privée. Fin 2023, plusieurs consommateurs ont lancé une class action, accusant Amazon de collecter les données biométriques des clients, la forme de leur main et de leur visage ainsi que la tonalité de leur voix, via le système Just Walk Out sans demander leur consentement. Une pratique contraire à une loi de l’Illinois sur le traitement des données biométriques.

    Les entrepôts « automatisés » d’Amazon également surveillés par des travailleurs indiens
    Comme le note le chercheur Antonio Casilli, spécialiste du « travail du clic », cette histoire est banale. Sur X, il rappelle qu’en 2023, Time nous apprenait qu’Alexa, l’assistant virtuel de l’entreprise de Seattle, fonctionnait grâce à l’écoute de 30.000 travailleurs qui annotaient les conversations des utilisateurs pour améliorer les algorithmes gérant l’assistant.

    Et en 2022, The Verge rapportait que les entrepôts automatisés d’Amazon nécessitaient le travail de vigiles, à distance toujours, de travailleurs au Costa-Rica et en Inde, chargés de regarder les images des caméras plus de 40 heures par semaine pour 250 dollars par mois.

    #IA#intelligence_artificielle : #Fumisterie , #arnaque ou #escroquerie ? #amazon #caméras #capteurs #automatisation #technologie #travail #Entrepôts #algorithmes #Alexa

    Source : https://www.latribune.fr/technos-medias/informatique/amazon-abandonne-ses-magasins-sans-caisse-en-realite-geres-par-des-travail

    • Amazon : pourquoi la tech autonome “Just Walk Out” passe à la trappe
      Confirmation sur le blog d’Olivier Dauvers, le web grande conso

      Amazon vient d’annoncer l’abandon de la technologie Just Walk Out dans ses magasins Fresh aux États-Unis (une cinquantaine d’unités dont la moitié sont équipés). Just Walk Out c’est la techno, totalement bluffante, de magasin autonome sans caisses que je vous ai montrée en vidéo dès 2020 (ici) ou encore à Washington et Los Angeles dans de vrais formats de supermarché Whole Foods (ici et là). 

      Des centaines de caméras dopées à l’IA au plafond couplées à des balances sur les étagères permettent de pister l’intégralité du parcours d’achat du client, lequel s’affranchit du passage en caisse. Bluffant (vraiment) je vous dis. 


      un de ces magasins où l’être humain est bani

      Appelons un chat un chat, pour Amazon, ce revirement est un aveu d’échec cuisant. Car la vente de ses technos est au cœur du modèle économique d’Amazon dans le retail physique. Si le groupe lui-même ne parvient pas à prouver la viabilité de Just Walk Out, quel concurrent irait l’acheter ?

      Ce qu’il faut retenir de cet abandon ? Que les technos de magasins autonomes ne sont, pour l’heure, déployables que sur de (très) petits formats bénéficiant d’un flux clients très élevé. Pour des raisons assez évidentes de Capex/m2… mais aussi de supervision humaine. Car, à date, l’IA seule n’est pas en mesure de gérer tous les scénarios de course (dont les tentatives de démarque), obligeant un visionnage de contrôle par l’humain (localisé dans des pays à bas salaire). 

      #techno #échec

      Source : https://www.olivierdauvers.fr/2024/04/04/amazon-pourquoi-la-tech-autonome-just-walk-out-passe-a-la-trappe

  • How Hollywood writers triumphed over AI – and why it matters | US writers’ strike 2023 | The Guardian
    https://www.theguardian.com/culture/2023/oct/01/hollywood-writers-strike-artificial-intelligence
    https://i.guim.co.uk/img/media/689771a4945d1c8d8a88bf3f3d759512c6110153/0_221_5292_3175/master/5292.jpg?width=1200&height=630&quality=85&auto=format&fit=crop&overlay-ali

    Hollywood writers scored a major victory this week in the battle over artificial intelligence with a new contract featuring strong guardrails in how the technology can be used in film and television projects.

    With terms of AI use finally agreed, some writers are breathing easier – for now – and experts say the guidelines could offer a model for workers in Hollywood and other industries. The writers’ contract does not outlaw the use of AI tools in the writing process, but it sets up guardrails to make sure the new technology stays in the control of workers, rather than being used by their bosses to replace them.

    The new rules guard against several scenarios that writers had feared, comedian Adam Conover, a member of the WGA negotiating committee, told the Guardian. One such scenario was studios being allowed to generate a full script using AI tools, and then demanding that human writer complete the writing process.

    Under the new terms, studios “cannot use AI to write scripts or to edit scripts that have already been written by a writer”, Conover says. The contract also prevents studios from treating AI-generated content as “source material”, like a novel or a stage play, that screenwriters could be assigned to adapt for a lower fee and less credit than a fully original script.

    For instance, if the studios were allowed to use chatGPT to generate a 100,000-word novel and then ask writers to adapt it, “That would be an easy loophole for them to reduce the wages of screenwriters,” Conover said. “We’re not allowing that.” If writers adapt output from large language models, it will still be considered an original screenplay, he said.

    Simon Johnson, an economist at MIT who studies technological transformation, called the new terms a “fantastic win for writers”, and said that it would likely result in “better quality work and a stronger industry for longer”.

    #Intelligence_artificielle #Scénaristes #Hollywood #Grève

  • Is “Deep Learning” a Revolution in Artificial Intelligence ? | The New Yorker
    https://www.newyorker.com/news/news-desk/is-deep-learning-a-revolution-in-artificial-intelligence

    Intéressant de relire un article sur l’IA qui a 12 ans.
    Comment la technologie a progressé rapidement. Et dans le même temps, comment les interrogations subsistent.

    By Gary Marcus
    November 25, 2012

    Can a new technique known as deep learning revolutionize artificial intelligence, as yesterday’s front-page article at the New York Times suggests? There is good reason to be excited about deep learning, a sophisticated “machine learning” algorithm that far exceeds many of its predecessors in its abilities to recognize syllables and images. But there’s also good reason to be skeptical. While the Times reports that “advances in an artificial intelligence technology that can recognize patterns offer the possibility of machines that perform human activities like seeing, listening and thinking,” deep learning takes us, at best, only a small step toward the creation of truly intelligent machines. Deep learning is important work, with immediate practical applications. But it’s not as breathtaking as the front-page story in the New York Times seems to suggest.

    The technology on which the Times focusses, deep learning, has its roots in a tradition of “neural networks” that goes back to the late nineteen-fifties. At that time, Frank Rosenblatt attempted to build a kind of mechanical brain called the Perceptron, which was billed as “a machine which senses, recognizes, remembers, and responds like the human mind.” The system was capable of categorizing (within certain limits) some basic shapes like triangles and squares. Crowds were amazed by its potential, and even The New Yorker was taken in, suggesting that this “remarkable machine…[was] capable of what amounts to thought.”

    But the buzz eventually fizzled; a critical book written in 1969 by Marvin Minsky and his collaborator Seymour Papert showed that Rosenblatt’s original system was painfully limited, literally blind to some simple logical functions like “exclusive-or” (As in, you can have the cake or the pie, but not both). What had become known as the field of “neural networks” all but disappeared.

    Rosenblatt’s ideas reëmerged however in the mid-nineteen-eighties, when Geoff Hinton, then a young professor at Carnegie-Mellon University, helped build more complex networks of virtual neurons that were able to circumvent some of Minsky’s worries. Hinton had included a “hidden layer” of neurons that allowed a new generation of networks to learn more complicated functions (like the exclusive-or that had bedeviled the original Perceptron). Even the new models had serious problems though. They learned slowly and inefficiently, and as Steven Pinker and I showed, couldn’t master even some of the basic things that children do, like learning the past tense of regular verbs. By the late nineteen-nineties, neural networks had again begun to fall out of favor.

    Hinton soldiered on, however, making an important advance in 2006, with a new technique that he dubbed deep learning, which itself extends important earlier work by my N.Y.U. colleague, Yann LeCun, and is still in use at Google, Microsoft, and elsewhere. A typical setup is this: a computer is confronted with a large set of data, and on its own asked to sort the elements of that data into categories, a bit like a child who is asked to sort a set of toys, with no specific instructions. The child might sort them by color, by shape, or by function, or by something else. Machine learners try to do this on a grander scale, seeing, for example, millions of handwritten digits, and making guesses about which digits looks more like one another, “clustering” them together based on similarity. Deep learning’s important innovation is to have models learn categories incrementally, attempting to nail down lower-level categories (like letters) before attempting to acquire higher-level categories (like words).

    VIDEO FROM THE NEW YORKER

    Friday Night Blind: Bowling Without Sight

    Deep learning excels at this sort of problem, known as unsupervised learning. In some cases it performs far better than its predecessors. It can, for example, learn to identify syllables in a new language better than earlier systems. But it’s still not good enough to reliably recognize or sort objects when the set of possibilities is large. The much-publicized Google system that learned to recognize cats for example, works about seventy per cent better than its predecessors. But it still recognizes less than a sixth of the objects on which it was trained, and it did worse when the objects were rotated or moved to the left or right of an image.

    Realistically, deep learning is only part of the larger challenge of building intelligent machines. Such techniques lack ways of representing causal relationships (such as between diseases and their symptoms), and are likely to face challenges in acquiring abstract ideas like “sibling” or “identical to.” They have no obvious ways of performing logical inferences, and they are also still a long way from integrating abstract knowledge, such as information about what objects are, what they are for, and how they are typically used. The most powerful A.I. systems, like Watson, the machine that beat humans in “Jeopardy,” use techniques like deep learning as just one element in a very complicated ensemble of techniques, ranging from the statistical technique of Bayesian inference to deductive reasoning.

    In August, I had the chance to speak with Peter Norvig, Director of Google Research, and asked him if he thought that techniques like deep learning could ever solve complicated tasks that are more characteristic of human intelligence, like understanding stories, which is something Norvig used to work on in the nineteen-eighties. Back then, Norvig had written a brilliant review of the previous work on getting machines to understand stories, and fully endorsed an approach that built on classical “symbol-manipulation” techniques. Norvig’s group is now working within Hinton, and Norvig is clearly very interested in seeing what Hinton could come up with. But even Norvig didn’t see how you could build a machine that could understand stories using deep learning alone.

    To paraphrase an old parable, Hinton has built a better ladder; but a better ladder doesn’t necessarily get you to the moon.

    Gary Marcus, Professor of Psychology at N.Y.U., is author of “Guitar Zero: The Science of Becoming Musical at Any Age” and “Kluge: The Haphazard Evolution of The Human Mind.”

    Photograph by Frederic Lewis/Archive Photos/Getty.

    #Intelligence_artificielle #Connexionnisme #Histoire

  • ChatGPT : face aux artifices de l’IA, comment l’éducation aux médias peut aider les élèves
    https://theconversation.com/chatgpt-face-aux-artifices-de-lia-comment-leducation-aux-medias-peu

    Comme le montre une étude de la Columbia Journalism Review, la panique n’a pas commencé en décembre 2022 avec l’événement lancé par OpenAI mais en février 2023 avec les annonces de Microsoft et Google, chacun y allant de son chatbot intégré dans leur moteur de recherche (Bing Chat et Bard, respectivement). La couverture médiatique opère un brouillage informationnel, se focalisant davantage sur le potentiel remplacement de l’humain que sur la réelle concentration de la propriété de l’IA dans les mains de quelques entreprises.

    Comme toute panique médiatique (les plus récentes étant celles sur la réalité virtuelle et le métavers), elle a pour but et effet de créer un débat public permettant à d’autres acteurs que ceux des médias et du numérique de s’en emparer. Pour l’éducation aux médias et à l’information (EMI), les enjeux sont de taille en matière d’interactions sociales et scolaires, même s’il est encore trop tôt pour mesurer les conséquences sur l’enseignement de ces modèles de langage générant automatiquement des textes et des images et de leur mise à disposition auprès du grand public.

    Les publics de l’IA, notamment à l’école, se doivent donc de développer des connaissances et compétences autour des risques et opportunités de ce genre de robot dit conversationnel. Outre la compréhension des mécanismes du traitement automatique de l’information et de la désinformation, d’autres précautions prêtent à éducation :

    prendre garde au monopole de la requête en ligne, tel que visé par Bing Chat et Google Bard, en jouant de la concurrence entre elles, donc en utilisant régulièrement plusieurs moteurs de recherche ;

    exiger des labels, des codes couleur et autres marqueurs pour indiquer qu’un document a été produit par une IA ou avec son aide est aussi frappé au coin du bon sens et certains médias l’ont déjà anticipé ;

    demander que les producteurs fassent de la rétro-ingénierie pour produire des IA qui surveillent l’IA. Ce qui est déjà le cas avec GPTZero ;

    entamer des poursuites judiciaires, en cas d’« hallucination » de ChatGPT- - encore un terme anthropomorphisé pour marquer une erreur du système !

    Et se souvenir que, plus on utilise ChatGPT, sous sa version gratuite comme payante, plus on l’aide à s’améliorer.

    Dans le domaine éducatif, les solutions marketing de la EdTech vantent les avantages de l’IA pour personnaliser les apprentissages, faciliter l’analyse de données, augmenter l’efficacité administrative… Mais ces métriques et statistiques ne sauraient en rien se substituer à la validation des compétences acquises et aux productions des jeunes.

    Pour tout intelligente qu’elle prétende être, l’IA ne peut remplacer la nécessité pour les élèves de développer leur esprit critique et leur propre créativité, de se former et s’informer en maîtrisant leurs sources et ressources. Alors que la EdTech, notamment aux États-Unis, se précipite pour introduire l’IA dans les classes, d’école primaire au supérieur, la vigilance des enseignants et des décideurs reste primordiale pour préserver les missions centrales de l’école et de l’université. L’intelligence collective peut ainsi s’emparer de l’intelligence artificielle.

    #Intelligence_artificielle #EMI #Education_medias_information

  • Discrimination 2.0 : ces algorithmes qui perpétuent le racisme

    L’IA et les systèmes algorithmiques peuvent désavantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. A l’occasion de la Journée internationale pour l’élimination de la discrimination raciale, AlgorithmWatch CH, humanrights.ch et le National Coalition Building Institute NCBI mettent en lumière la manière dont les systèmes automatisés utilisés dans les procédures de recrutement peuvent reproduire les inégalités.

    Les procédures d’embauche sont et ont toujours été caractérisées par une certaine inégalité des chances. Aujourd’hui, les entreprises utilisent souvent des systèmes algorithmiques pour traiter les candidatures, les trier et faire des recommandations pour sélectionner des candidat·e·x·s. Si les départements des ressources humaines des grandes entreprises souhaitent augmenter leur efficacité grâce aux « Applicant Tracking Systems » (ATS), l’utilisation de tels systèmes peut renforcer les stéréotypes discriminatoires ou même en créer de nouveaux. Les personnes issues de l’immigration sont souvent concernées par cette problématique.
    Exemple 1 : un algorithme qui préfère les CV « indigènes »

    Une étude récente menée en Grande-Bretagne a comparé les CV sélectionnés par une personne experte en ressources humaines et ceux qu’un système de recommandation algorithmique avait identifiés comme étant ceux de candidat·e·x·s compétent·e·x·s. La comparaison a montré que les personnes que les recruteur·euse·x·s considéraient comme les meilleur·e·x·s candidat·e·x·s ne faisaient parfois même pas partie de la sélection effectuée par les systèmes basés sur des algorithmes. Ces systèmes ne sont pas capables pas lire tous les formats avec la même efficacité ; aussi les candidatures compétentes ne correspondant pas au format approprié sont-elles automatiquement éliminées. Une étude portant sur un autre système a également permis de constater des différences claires dans l’évaluation des CV. Ainsi, il s’est avéré que le système attribuait davantage de points aux candidatures « indigènes », en l’occurrence britanniques, qu’aux CV internationaux. Les candidat·e·x·s britanniques avaient donc un avantage par rapport aux personnes migrantes ou ayant une origine étrangère pour obtenir une meilleure place dans le classement.
    Exemple 2 : les formations à l’étranger moins bien classées

    En règle générale, les systèmes de recrutement automatisés sont entraînés de manière à éviter l’influence de facteurs tels que le pays d’origine, l’âge ou le sexe sur la sélection. Les candidatures contiennent toutefois également des attributs plus subtils, appelés « proxies » (en français : variables de substitution), qui peuvent indirectement donner des informations sur ces caractéristiques démographiques, par exemple les compétences linguistiques ou encore l’expérience professionnelle ou les études à l’étranger. Ainsi, la même étude a révélé que le fait d’avoir étudié à l’étranger entraînait une baisse des points attribués par le système pour 80% des candidatures. Cela peut conduire à des inégalités de traitement dans le processus de recrutement pour les personnes n’ayant pas grandi ou étudié dans le pays dans lequel le poste est proposé.

    Les critères de sélection de nombreux systèmes de recrutement basés sur les algorithmes utilisés par les entreprises sont souvent totalement opaques. De même, les jeux de données utilisés pour entraîner les algorithmes d’auto-apprentissage se basent généralement sur des données historiques. Si une entreprise a par exemple jusqu’à présent recruté principalement des hommes blancs âgés de 25 à 30 ans, il se peut que l’algorithme « apprenne » sur cette base que de tels profils doivent également être privilégiés pour les nouveaux postes à pourvoir. Ces stéréotypes et effets discriminatoires ne viennent pas de l’algorithme lui-même, mais découlent de structures ancrées dans notre société ; ils peuvent toutefois être répétés, repris et donc renforcés par l’algorithme.

    Ces exemples illustrent la discrimination par les algorithmes de personnes sur la base de leur origine. Les algorithmes discriminent également de nombreux autres groupes de population. En Suisse aussi, de plus en plus d’entreprises font usage d’algorithmes pour leurs processus de recrutement ainsi que sur le lieu de travail.

    Discrimination algorithmique en Suisse : le cadre légal de protection contre la discrimination en Suisse ne protège pas suffisamment contre la discrimination par les systèmes algorithmiques et doit être renforcé. Ce papier de position présente les problématiques liées à la discrimination algorithmique et décrit les moyens d’améliorer la protection contre ce type de discrimination.

    Les algorithmes discriminent également de nombreux autres groupes de population. Dans la série « Discrimination 2.0 : ces algorithmes qui discriminent », AlgorithmWatch CH et humanrights.ch, en collaboration avec d’autres organisations, mettent en lumière divers cas de discrimination algorithmique.

    https://www.humanrights.ch/fr/nouvelles/discrimination-20-algorithmes-perpetuent-racisme
    #discrimination #racisme #algorithme #xénophobie #IA #AI #intelligence_artificielle #travail #recrutement #discrimination_raciale #inégalités #ressources_humaines #Applicant_Tracking_Systems (#ATS) #CV #curriculum_vitae #sélection #tri

    • « L’IA et les systèmes algorithmiques peuvent désavantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. » mais l’ia et les systemes algorithmiques peuvent tout aussi bien avantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. La banque mondiale exige déja une discrimination selon les pratiques sexuelles pour favoriser emprunts et subventions !

  • Belgian beer study acquires taste for machine learning • The Register
    https://www.theregister.com/2024/03/27/belgian_beer_machine_learning

    Researchers reckon results could improve recipe development for food and beverages
    icon
    Lindsay Clark
    Wed 27 Mar 2024 // 11:45 UTC

    Joining the list of things that probably don’t need improving by machine learning but people are going to try anyway is Belgian beer.

    The ale family has long been a favorite of connoisseurs worldwide, yet one group of scientists decided it could be brewed better with the assistance of machine learning.

    In a study led by Michiel Schreurs, a doctoral student at Vlaams Instituut voor Biotechnologie (VIB) in Flanders, the researchers wanted to help develop new alcoholic and non-alcoholic beer flavors with higher rates of consumer appreciation.

    Understanding the relationship between beer chemistry and its taste can be a tricky task. Much of the work is trial and error and relies on extensive consumer testing.

    #Intelligence_artificielle #Bière #Bullshit #Statistiques_fantasques

  • #Wauquiez veut surveiller les #trains et #lycées régionaux avec l’#intelligence_artificielle

    #Laurent_Wauquiez a fait voter le déploiement de la #vidéosurveillance_algorithmique dans tous les lycées et trains d’#Auvergne-Rhône-Alpes, profitant de l’#expérimentation accordée aux #Jeux_olympiques de Paris.

    Laurent Wauquiez savoure. « Nous avions pris position sur la vidéosurveillance pendant la campagne des régionales. Depuis, les esprits ont bougé », sourit le président de la région Auvergne-Rhône-Alpes, en référence à l’expérimentation de la #vidéosurveillance algorithmique (#VSA) accordée dans le cadre des Jeux olympiques de Paris. Surfant sur l’opportunité, il a fait voter jeudi 21 mars en Conseil régional sa propre expérimentation de vidéosurveillance « intelligente » des lycées et des trains d’Auvergne-Rhône-Alpes.

    L’ancien patron des Républicains (LR) justifie cette avancée technosécuritaire par l’assassinat du professeur #Dominique_Bernard dans un lycée d’Arras en octobre. Pour l’élu, cette tragédie « confirme la nécessité de renforcer la #sécurité des lycées ».

    Reste que cette expérimentation n’est pour l’instant pas légale. Laurent Wauquiez va demander au Premier ministre, Gabriel Attal, la permission d’élargir la loi pour couvrir les lycées et les transports régionaux. « L’expérimentation des JO est faite pour tester ce qui sera appliqué. Il faut en profiter », défend Renaud Pfeffer, vice-président délégué à la sécurité de la région Auvergne-Rhône-Alpes.

    Selon la délibération votée par le Conseil régional, cette #technologie qui combine vidéosurveillance et intelligence artificielle peut détecter huit types d’événements prédéterminés : « le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante, un colis abandonné. » Les événements sont ensuite vérifiés par un agent, qui décide des mesures à prendre.

    L’expérimentation doit durer deux ans

    L’exécutif régional promet d’utiliser cette vidéosurveillance algorithmique « sans mettre en œuvre de reconnaissance faciale, ni d’identification de données biométriques [qui permettent d’identifier une personne]. » « On est sur du situationnel, pas sur de l’individu », insiste #Renaud_Pfeffer. Des promesses auxquelles ne croit pas Marne Strazielle, directrice de la communication de l’association de défense des droits et libertés sur internet La Quadrature du net. « En réalité, l’#algorithme identifie des actions qui peuvent être rattachées à son auteur », insiste-t-elle.

    Cette expérimentation est programmée pour durer deux ans dans les trains, #gares, lycées et #cars_scolaires. Les flux vidéos seront examinés au #Centre_régional_de_surveillance_des_transports (#CRST) aménagé en gare de Lyon Part-Dieu. « Les caméras sont prêtes », assure Renaud Pfeffer. Depuis son arrivée à la tête de la Région en 2016, Laurent Wauquiez l’a généreusement équipée en vidéosurveillance : 129 gares sont surveillées par 2 300 caméras, dont les images sont visionnées en temps réel au CRST. 285 lycées, 750 cars et la totalité des rames ferroviaires sont également équipés.

    « L’illusion d’avoir une approche pratique de l’insécurité »

    Pour défendre son projet, l’exécutif régional s’appuie sur la loi du 19 mai 2023, adoptée pour les Jeux olympiques de Paris et qui autorise l’expérimentation à grande échelle de la VSA par la police nationale jusqu’au 31 mars 2025. « On n’a le droit à la sécurité que pendant les Jeux olympiques et que à Paris ? On ne peut pas tester [la VSA] pour nos enfants, contre les problèmes de drogue ? », s’offusque Laurent Wauquiez.

    « Cette technologie permet aux décideurs politiques d’offrir l’illusion d’avoir une approche pratique de l’insécurité car ils mettent en place un dispositif, dénonce Marne Strazielle. Mais ce n’est pas parce qu’on enregistre et détecte une action dans l’espace public qu’elle va moins se produire. Souvent, cela ne fait que déplacer le problème. Il faut faire le travail de comprendre pourquoi elle s’est produite et comment la réduire. »

    La #Commission_nationale_de_l’informatique_et_des_libertés (#Cnil), qui n’a pas été consultée par l’équipe de Laurent Wauquiez, rappelle à Reporterre sa position de principe, qui « considère que la mise en œuvre de caméras augmentées conduit fréquemment à limiter les droits des personnes filmées ». Pour l’autorité administrative indépendante, « le déploiement de ces dispositifs dans les espaces publics, où s’exercent de nombreuses libertés individuelles (liberté d’aller et venir, d’expression, de réunion, droit de manifester, liberté de culte, etc.), présente incontestablement des risques pour les droits et libertés fondamentaux des personnes et la préservation de leur anonymat ».

    https://reporterre.net/Wauquiez-veut-surveiller-les-trains-et-lycees-regionaux-avec-l-intellige
    #surveillance #IA #AI #France #JO #JO_2024

    • La région #AURA vote le déploiement de la VSA dans les gares et les lycées

      Il en rêvait, il l’a fait. Un article de Reporterre nous apprend que Laurent Wauquiez a fait voter jeudi 21 mars en Conseil régional, le déploiement de la vidéosurveillance algorithmique dans tous les lycées et trains d’Auvergne-Rhône-Alpes, profitant de l’expérimentation accordée aux Jeux olympiques de Paris.

      Actuellement 129 gares seraient surveillées par 2 300 caméras, dont les images sont visionnées en temps réel au CRST. 285 lycées, 750 cars et la totalité des rames ferroviaires seraient également équipés.

      Selon la délibération votée par le Conseil régional, l’équipement de ces caméras avec la vidéosurveillance automatisée pourra détecter huit types d’événements prédéterminés : « le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante, un colis abandonné. ». Les événements seront ensuite vérifiés par un agent, qui décidera des mesures à prendre.

      L’exécutif régional promet d’utiliser cette vidéosurveillance algorithmique « sans mettre en œuvre de reconnaissance faciale, ni d’identification de données biométriques [qui permettent d’identifier une personne]. » Cependant, comme l’a très bien démontré la Quadrature du Net, la VSA implique nécessairement une identification biométrique.

      La VSA et la reconnaissance faciale reposent sur les mêmes algorithmes d’analyse d’images, la seule différence est que la première isole et reconnaît des corps, des mouvements ou des objets, lorsque la seconde détecte un visage.

      La VSA est capable de s’intéresser à des « événements » (déplacements rapides, altercations, immobilité prolongée) ou aux traits distinctifs des personnes : une silhouette, un habillement, une démarche, grâce à quoi ils peuvent isoler une personne au sein d’une foule et la suivre tout le long de son déplacement dans la ville. La VSA identifie et analyse donc en permanence des données biométriques.

      « En réalité, l’algorithme identifie des actions qui peuvent être rattachées à son auteur » (Marne Strazielle, directrice de la communication de La Quadrature du net.)

      Ce sont généralement les mêmes entreprises qui développent ces deux technologies. Par exemple, la start-up française Two-I s’est d’abord lancé dans la détection d’émotion, a voulu la tester dans les tramways niçois, avant d’expérimenter la reconnaissance faciale sur des supporters de football à Metz. Finalement, l’entreprise semble se concentrer sur la VSA et en vendre à plusieurs communes de France. La VSA est une technologie biométrique intrinsèquement dangereuse, l’accepter c’est ouvrir la voie aux pires outils de surveillance.
      "Loi J.O. : refusons la surveillance biométrique", La Quadrature du Net

      Cela fait longtemps que M. Wauquiez projette d’équiper massivement cars scolaires et inter-urbains, gares et TER d’Auvergne-Rhône-Alpes en caméras et de connecter le tout à la reconnaissance faciale.

      En juin 2023, nous avions déjà sorti un article sur le sujet, au moment de la signature d’une convention entre la région Auvergne Rhône Alpes, le préfet et la SNCF, autorisant le transfert aux forces de sécurité, des images des caméras de vidéosurveillance de 129 gares sur les quelque 350 que compte la région AURA.

      Depuis fin 2023, il demande également d’utiliser à titre expérimental des "logiciels de reconnaissance faciale" aux abords des lycées pour pouvoir identifier des personnes "suivies pour radicalisation terroriste".

      Une mesure qui a déjà été reconnue comme illégale par la justice, comme l’a rappelé le media Reporterre. En 2019 un projet de mise en place de portiques de reconnaissance faciale à l’entrée de lycées à Nice et Marseille avait été contesté par La Quadrature du net et la LDH. La Commission nationale de l’informatique et des libertés (CNIL), qui avait déjà formulé des recommandations, a rendu à l’époque un avis qui jugeait le dispositif pas nécessaire et disproportionné.

      Mais cela qui n’arrêtera Laurent Wauquiez, celui-ci a déclaré qu’il allait demander au Premier ministre, Gabriel Attal, la permission d’élargir la loi pour couvrir les lycées et les transports régionaux...

      La CNIL, qui n’a pas été consultée par l’équipe de Laurent Wauquiez, a rappelé à Reporterre sa position de principe, qui « considère que la mise en œuvre de caméras augmentées conduit fréquemment à limiter les droits des personnes filmées ».

      Pour elle, « le déploiement de ces dispositifs dans les espaces publics, où s’exercent de nombreuses libertés individuelles (liberté d’aller et venir, d’expression, de réunion, droit de manifester, liberté de culte, etc.), présente incontestablement des risques pour les droits et libertés fondamentaux des personnes et la préservation de leur anonymat ».

      Des dizaines d’organisations, parmi lesquelles Human Rights Watch, ont adressé une lettre publique aux députés, les alertant sur le fait que les nouvelles dispositions créent un précédent inquiétant de surveillance injustifiée et disproportionnée dans les espaces publics, et menacent les droits fondamentaux, tels que le droit à la vie privée, la liberté de réunion et d’association, et le droit à la non-discrimination.

      Résistons à la #VSA et à la technopolice !


      https://halteaucontrolenumerique.fr/?p=5351

  • Five of this year’s Pulitzer finalists are AI-powered | Nieman Journalism Lab
    https://www.niemanlab.org/2024/03/five-of-this-years-pulitzer-finalists-are-ai-powered

    Two of journalism’s most prestigious prizes — the Pulitzers and the Polk awards — on how they’re thinking about entrants using generative AI.
    By Alex Perry March 11, 2024, 10:31 a.m.

    Five of the 45 finalists in this year’s Pulitzer Prizes for journalism disclosed using AI in the process of researching, reporting, or telling their submissions, according to Pulitzer Prize administrator Marjorie Miller.

    It’s the first time the awards, which received around 1,200 submissions this year, required entrants to disclose AI usage. The Pulitzer Board only added this requirement to the journalism category. (The list of finalists is not yet public. It will be announced, along with the winners, on May 8, 2024.)

    Miller, who sits on the 18-person Pulitzer board, said the board started discussing AI policies early last year because of the rising popularity of generative AI and machine learning.

    “AI tools at the time had an ‘oh no, the devil is coming’ reputation,” she said, adding that the board was interested in learning about AI’s capabilities as well as its dangers.

    Last July — the same month OpenAI struck a deal with the Associated Press and a $5 million partnership with the American Journalism Project — a Columbia Journalism School professor was giving the Pulitzer Board a crash course in AI with the help of a few other industry experts.

    Mark Hansen, who is also the director of the David and Helen Gurley Brown Institute for Media Innovation, wanted to provide the board with a broad base of AI usage in newsrooms from interrogating large datasets to writing code for web-scraping large language models.

    He and AI experts from The Marshall Project, Harvard Innovation Labs, and Center for Cooperative Media created informational videos about the basics of large language models and newsroom use cases. Hansen also moderated a Q&A panel featuring AI experts from Bloomberg, The Markup, McClatchy, and Google.

    Miller said the board’s approach from the beginning was always exploratory. They never considered restricting AI usage because they felt doing so would discourage newsrooms from engaging with innovative technology.

    “I see it as an opportunity to sample the creativity that journalists are bringing to generative AI, even in these early days,” said Hansen, who didn’t weigh in directly on the new awards guideline.

    While the group focused on generative AI’s applications, they spent substantial time on relevant copyright law, data privacy, and bias in machine learning models. One of the experts Hansen invited was Carrie J. Cai, a staff research scientist in Google’s Responsible AI division who specializes in human-computer interaction.

    #Journalisme #Intelligence_artificielle #Pulitzer

  • Ketty Introduces AI Book Designer: Revolutionizing Book Production
    https://www.robotscooking.com/ketty-ai-designer

    Effortless Book Design with AI

    The AI Book Designer introduces a groundbreaking approach to book design by allowing users to style and format their books using simple, intuitive commands. Users can say “make the book look modern”, “make the text more readable” or click on a chapter title and instruct the AI to “add this to the header,” and the changes are applied instantly. This eliminates the need for knowing complex design software or coding, making professional-grade design accessible to everyone.

    Where we are headed

    As we look towards the future development of the AI Book Designer, there are several ideas we are currently thinking about:

    AI-Generated Cover Designs: Generate a range of cover options based on user input.
    Collaborative AI Design: Enable multiple users to work on the same book design simultaneously (concurrently). This feature could be particularly useful for larger publishing teams or co-authored projects.
    AI-Assisted Image Management: Automatically apply styles and optimize the placement of images within the book layout.

    Join the Movement

    Coko believes AI has the potential to transform book production, making it accessible and efficient for everyone. By combining open-source code and principles with cutting-edge technology, Coko is paving the way for a new era of automated typesetting and book design.

    #Typographie #Coko #Intelligence_artificielle

  • #Wikipédia, #démocratie_rhétorique

    Depuis quelques années, des discussions ont lieu dans la version francophone de Wikipédia pour essayer d’aboutir à des conventions de styles relatives à la #transidentité, comme dans la version anglophone. Début 2024, un #sondage interne à Wikipédia a été ouvert à propos de la mention du nom de naissance pour les personnes trans. Ce sondage a suscité presque immédiatement la #polémique. L’affaire a été beaucoup discutée sur Mastodon et s’est retrouvée dans la presse.

    Jusque-là, mon rapport à Wikipédia était assez banal : consultation fréquente (plusieurs fois par semaines, voire par jour) mais pas de contribution. Il faut dire que j’avais retenu la leçon vécue par Marc Jahjah : il vaut mieux s’être bien renseigné sur le fonctionnement de Wikipédia avant de contribuer, car c’est rempli de patrouilleurs indélicats. Et pour présenter rapidement Wikipédia en cours, une compréhension de surface suffit.

    Arrive cette controverse sur le nom des personnes trans. Parce que je connais quelques universitaires impliqués dans les débats, j’ai commencé à parcourir les pages de discussion, par curiosité. Et parce qu’il est indispensable de se renseigner sur le fonctionnement de Wikipédia pour décoder ces discussions, notamment tous les sigles employés, je me suis mis à parcourir toutes les pages qui décrivent le projet Wikipédia, notamment sa hiérarchie des #normes (#principes_fondateurs, #règles et #recommandations).

    Dans la foulée, quelques personnes ont publié des analyses : « contradiction entre volonté de #transparence et d’#entre-soi »  ; « désillusion de l’#intelligence_collective »… c’est là que les roues se sont mises à tourner à toute vitesse dans ma tête.

    Attention : ce qui suit, ce sont mes élucubrations personnelles. Si je les partage, c’est parce qu’elle ne recoupent pas ce que j’ai pu lire ailleurs. Coïncidence, ces jours-ci sort un livre de Sana Boussetat intitulé La formule Wikipédia . Je vois dans la table des matières que quelques pages portent sur le débat participatif et la gestion des conflits, il va en être question dans ce billet… En m’exprimant sur un sujet qui n’est pas ma spécialité, je risque un peu la sortie de piste, donc je préfère le signaler dès ici. Si besoin, je mettrai mon billet à jour.

    #Communs

    Wikipédia fait partie des #biens_communs, plus spécifiquement de la catégorie des #biens_communs_informationnels, ou #communs_de_la_connaissance. Quand on parle de « #communs » tout court, on entend généralement des espaces « collectivement construits et administrés ».

    Wikipédia fait le pari de l’intelligence collective. Or Tam Kien Duong résume justement la controverse actuelle comme une « désillusion de l’intelligence collective ». Pour qu’il y ait #désillusion, il faut qu’il y ait illusion. Alors voici une hypothèse : on a pensé que les communs de la connaissance seraient vertueux par essence.

    #Utopie :

    « Le fruit des rencontres entre les biens et les personnes peut être aussi bien positif que négatif ou quelque part entre les deux. Dans l’arène intellectuelle, le concept des biens communs est souvent brandi comme un étendard synonyme de liberté d’expression, d’accès libre et universel, et d’autogestion […] Cela peut être constructif, d’ailleurs cela donne souvent de l’élan aux actions collectives autour des communs. Mais un commun n’est pas chargé de valeurs. Son impact peut être bon ou mauvais, durable ou non ».

    Les effets produits par les communs de la connaissance dépendent donc de la manière dont ils sont collectivement construits et administrés.

    Comme pour chaque autre catégorie de biens communs, concevoir des communs de la connaissance implique des difficultés spécifiques. Et dans le cas de Wikipédia, il y en a une qui s’est avérée particulièrement aiguë : la tension entre l’idée d’une encyclopédie qui doit être une source de savoir contrôlé, et le principe d’une encyclopédie ouverte, dont tout le monde peut parler, que tout le monde peut rejoindre.
    Démocratie

    Quand on utilise le nom « Wikipédia », on peut désigner l’encyclopédie mais aussi l’organisation qui produit cette encyclopédie. La nature de l’encyclopédie est clairement expliquée sur la page Wikipédia est une encyclopédie : c’est une collection d’articles qui présentent chacun une synthèse des connaissances sur un sujet. En revanche, la nature de l’organisation est un peu moins simple à appréhender.

    La page Principes fondateurs définit dans les grandes lignes « Wikipédia et les conditions de son élaboration ». Elle parle aussi d’un « projet collaboratif ». La page Ce que Wikipédia n’est pas mentionne une « communauté ». Pour mieux cerner cette organisation, il faut donc creuser. On découvrira progressivement que le fonctionnement de Wikipédia est organisé suivant une hiérarchie des normes :

    - principes fondateurs (fondement intangible)  ;
    - règles (issues d’une prise de décision, c’est-à-dire d’un vote)  ;
    - recommandations (élaborées par consensus)  ;
    - essais (propositions relatives au fonctionnement de l’encyclopédie).

    Comment qualifier ce fonctionnement  ? Démocratique  ? Bureaucratique  ? Si on en croit Wikipédia, ni l’un ni l’autre. D’abord, ce ne serait pas « un projet politique » :

    « La communauté s’est dotée de certaines règles, mais il ne faut pas perdre de vue qu’elles n’existent que pour le but auquel la communauté aspire : construire une encyclopédie de qualité. Par extension, Wikipédia n’est ni une démocratie, ni une dictature, ni une anarchie, ou toute autre tentative de réalisation d’un projet politique quelconque. »

    Ce passage a de quoi étonner. Le terme « démocratie » est ramené à une définition historique – « tentative de réalisation d’un projet politique » –, ce qui permet d’affirmer ensuite que Wikipédia ne correspond pas à la définition. Or cette dernière est contestable. On peut arguer du fait que la démocratie n’est pas un processus historique mais sociologique : Raymond Aron par exemple définit la démocratie comme l’organisation pacifique de la compétition pour le pouvoir, et cela s’applique très bien à Wikipédia.

    #Consensus

    Wikipédia a donc un fonctionnement démocratique, que Dominique Cardon résume ainsi : « Wikipédia possède une sorte de Constitution, dont les principes, les règles et les recommandations permettent de trancher en cas de litige ». Concrètement, il y a du vote à certains niveaux mais pas partout : le mécanisme central est en fait le consensus. Celui-ci repose sur les règles suivantes :

    - il y a toujours un consensus pré-établi, qu’il soit tacite ou manifeste  ;
    – si vous voulez modifier quelque chose, « cherchez une modification judicieuse mariant les idées de chacun »  ;
    – si vous êtes en désaccord, « trouvez un compromis »  ;
    – si le désaccord persiste, on revient au consensus précédent.

    Le consensus est un processus dialectique : on exprime des avis  ; on interprète l’ensemble de ces avis  ; on exprime des accords ou désaccords à propos de cette interprétation. Or ce processus n’a qu’un ensemble limité de règles, qui se concentrent sur la mise en forme, la politesse et la traçabilité. Il n’y a pas de règlement politique du consensus. Et pour moi, une dialectique sans règles politiques dégénère immédiatement en rhétorique.
    Bureaucratie

    Wikipédia est parfois qualifiée de bureaucratie. L’encyclopédie elle-même affirme ressembler à une bureaucratie mais ne pas en être une :

    « Bien que Wikipédia rassemble de nombreux éléments d’une bureaucratie, elle n’est pas régie par les lois : ce n’est pas un organisme quasi-judiciaire, et les règles ne sont pas le but final de la communauté. Bien que certaines règles puissent être appliquées, les règles écrites ne fixent pas l’usage accepté. Elles se contentent plutôt de documenter les consensus communautaires existants concernant ce qui doit être accepté et ce qui doit être rejeté. »

    On retrouve le même problème qu’avec « démocratie » : le terme est défini de manière très spécifique pour pouvoir dire ensuite que Wikipédia ne correspond pas à la définition. Pour moi, l’affirmation ci-dessus ne permet pas de dire que Wikipédia n’est pas une bureaucratie, circulez, y’a rien à voir. Tout ce qu’elle fait, c’est déplacer le centre de gravité du fonctionnement bureaucratique vers le consensus, qui est un processus tout à fait formalisé – il est même représenté sous la forme d’un schéma décisionnel.

    Sachant qu’on revient toujours au consensus précédent si un nouveau consensus ne peut pas être trouvé, le système tend au statu quo, en raison d’un paradoxe empirique : un consensus peut s’obtenir très facilement (soit parce qu’il est tacite, soit parce qu’il est produit par une toute petite poignée de contributeurs) mais un nouveau consensus peut être très difficile à obtenir, parce qu’il implique un dilemme social (la remise en question d’un consensus) et que le dépassement de ce dilemme génère une friction énorme.

    En effet, et contrairement à l’un des principes essentiels de conception des communs – créer des mécanismes de résolution des conflits dont le coût soit peu élevé –, l’élaboration du consensus sur Wikipédia contient plusieurs sources de frictions majeures.

    Il y a d’abord ce parasitage de la dialectique par la rhétorique, que j’ai évoqué un peu plus tôt. Certaines personnes le dénoncent parfois, en accusant des contributeurs favorables au statu quo d’étirer les discussions à dessein pour épuiser leurs contradicteurs, qui finissent par jeter l’éponge. Selon moi, Wikipédia souffre ici d’un déficit de régulation. Dans l’espace public politique, il n’y a pas que les suffrages qui soient réglementés : la parole l’est aussi. Ce n’est pas pour rien que l’Assemblée nationale fonctionne avec des temps de parole et un agenda. Une discussion sans limite de temps ou de signes, sans contrainte basée sur la représentativité des interlocuteurs, c’est une discussion qui favorise naturellement les esprits procéduriers et vétilleux.

    Il y a ensuite l’effet « aiguille dans une botte de foin » : un sujet passe facilement sous les radars, du fait de l’immensité de l’encyclopédie. Les personnes qui pourraient y contribuer utilement ne sont donc pas forcément au courant, malgré des mécanismes comme le Bistro – la page d’actualités quotidienne de Wikipédia en français.

    Autre source de frictions, la prime à l’ancienneté : considérer que ceux qui contribuent suffisamment et régulièrement à Wikipédia sont plus légitimes que les autres pour décider de son fonctionnement. Cette idée a un versant positif, aligné avec la notion de biens communs en général : les communs doivent être administrés par la communauté concernée. Mais elle a aussi un versant négatif, quand on conçoit cette communauté comme structurée en cercles concentriques hermétiques. Pour réduire la tension entre l’envie d’ouvrir l’encyclopédie et la nécessité de protéger son fonctionnement interne, les contributeurs utilisent par exemple des critères de participation aux sondages (nombre de contributions total, nombre de contributions récentes). Ceci permet de se protéger de manœuvres visant à détourner le projet encyclopédique en faveur d’intérêts particuliers. Mais cela empêche aussi des groupes de voir leurs intérêts représentés dans le processus, ce qui les repousse vers des mécanismes externes de résolution des conflits, comme les systèmes médiatique et judiciaire.

    Certaines recommandations de Wikipédia comme Ne mordez pas les nouveaux visent à éviter la discrimination envers les novices  ; j’ai mentionné en introduction le cas de Marc Jahjah, eh bien le contributeur qui l’avait si mal accueilli a été sanctionné. La prime à l’ancienneté est une forme plus subtile de cette même logique, qui permet paradoxalement de reconstituer des enclosures à l’intérieur du bien commun.

    Ces différents phénomènes compliquent la résolution des conflits les plus difficiles. Et à cela viennent s’ajouter deux notions qui m’ont l’air de causer beaucoup de problèmes : la neutralité et la bonne foi.

    #Neutralité

    L’un des #Principes_fondateurs de Wikipédia est la Neutralité de point de vue. Il ne s’agit pas de faire émerger un « point de vue neutre » mais de restituer la pluralité des points de vue de manière neutre, c’est-à-dire de manière équitable, en contextualisant les différents points de vue, et en citant des sources.

    La neutralité pose des difficultés car son sens dérive vite. Sur la page de discussion du fameux sondage, on peut lire plusieurs commentaires qui opposent « la communauté Wikipédia » à des « communautés militantes », qui ne seraient pas « neutres ». C’est oublier que la neutralité de Wikipédia n’est pas la recherche d’un point de vue neutre mais d’une pluralité de points de vue. C’est surtout croire qu’il existerait une séparation magique entre une communauté Wikipédia qui serait non militante et des communautés extérieures militantes.

    Militer consiste à « agir pour faire reconnaître et triompher ses idées » (source : TLF). Sachant que la frontière qui séparerait Wikipédia du reste de la société n’existe en fait pas, il est inévitable que des personnes militantes s’impliquent sur Wikipédia. Si une personne militante agit en opposition au principe de neutralité, par exemple en effaçant les idées contraires aux siennes, ses modifications (qui peuvent s’apparenter à du vandalisme) seront retoquées. Mais si elle respecte les règles de Wikipédia, par exemple en faisant représenter ses idées aux côtés d’idées antagonistes, alors son militantisme n’est pas un danger pour Wikipédia. De fait, nombre de contributeurs sur Wikipédia sont « militants » de quelque chose et l’encyclopédie s’en porte très bien.

    Qualifier les militants de « non neutres », c’est donc confondre les actions concrètes de personnes militantes et leurs objectifs supposés, c’est-à-dire leur faire un procès d’intention. Et c’est ici qu’intervient l’hypocrisie de la « bonne foi ».

    #Bonne_foi

    Supposez la bonne foi est une recommandation importante dans Wikipédia. Elle implique deux choses :

    « Quand vous pouvez supposer raisonnablement qu’une erreur faite par quelqu’un est née d’une bonne intention pour atteindre les objectifs du projet, corrigez-la sans la critiquer. »

    « Quand vous n’êtes pas d’accord avec quelqu’un, rappelez-vous qu’il est probable qu’il souhaite et croit sincèrement contribuer à Wikipédia. »

    La bonne foi est ainsi définie comme le souhait sincère de faire progresser l’encyclopédie, de ne pas la dégrader ni lui nuire. En d’autres termes, cela consiste à respecter les principes fondateurs, et notamment le deuxième – la neutralité de point de vue.

    Que la bonne foi existe chez certains, c’est une certitude. En revanche, la présomption systématique de bonne foi me semble constituer un principe naïf, ce que Frédéric Lordon appellerait une « anthropologie enchantée ». Présumer la bonne foi n’implique pas que les gens soient réellement de bonne foi. Et au risque d’enfoncer des portes ouvertes, rien ne permet de présumer que la communauté Wikipédia est constituée exclusivement de gens parfaitement informés et toujours bienveillants : tout indique au contraire qu’elle peut être un haut lieu d’ignorance et d’intolérance, et qu’en cela elle s’inscrit malheureusement assez bien dans l’histoire de l’encyclopédisme et de l’organisation des connaissances.

    Dans la discussion à propos du fameux sondage, il y a quelques personnes qui me semblent d’une mauvaise foi crasse, évidente, assumée  ; des personnes dont tout le monde peut voir qu’elles utilisent sciemment les règles pour orienter le cours des choses dans le sens qu’elles veulent. « Mais non, pensez-vous, je ne fais que m’en tenir aux principes de notre encyclopédie. » Il suffit de lire leur page utilisateur pour découvrir une adhésion revendiquée à des écoles de pensée et des familles idéologiques. L’hypocrisie dont je parlais est là : dire qu’il faut présumer de la bonne foi, se récrier face à toute accusation de parti pris idéologique, et faire des procès d’intention à ceux qui s’opposent à nous.

    Cela va donc sembler un peu violent, surtout pour les personnes attachées à ce principe, mais je crois que la présomption de bonne foi est à la fois une friction et une fiction. C’est un piètre paravent, qui empêche de forcer tout un chacun à jouer cartes sur table dans la résolution des conflits. Elle grippe l’élaboration du consensus. Elle aiguise la duplicité de ceux qui masquent leurs intentions tout en dénonçant celles des autres. Elle permet à certains de jouir d’un pouvoir légitimé par des règles qu’il est très difficile de faire évoluer, par inertie ou effet de majorité  ; des gens qui feront tout pour écœurer les personnes opposées à la reconduction de l’existant, et qui n’hésiteront pas à affirmer ensuite que ce sont ces opposants qui ont déserté (comme on peut le lire dans le Bistro du 6 mars).

    À ce stade de l’écriture, je fais une pause pour boire un verre d’eau et me calmer un peu afin de finir sur une note un peu plus maîtrisée. Pas simple car en lisant des pages de discussion Wikipédia, on attrape vite un syndrôme d’exaspération par procuration.

    #Information

    Suite au sondage, la controverse a fait tache d’huile et atteint désormais de nombreuses pages de discussion, comme celle d’Elliot Page, Chelsea Manning ou encore Laverne Cox. Certaines personnes questionnent le choix des informations données, leur forme, leur place. D’autres résistent, avec plus ou moins de… bonne foi.

    Le désaccord porte sur la tension entre la volonté d’informer et celle de « ne pas nuire », cette dernière faisant partie des recommandations de Wikipédia concernant les Biographies de personnes vivantes. J’ai dit que Wikipédia est une encyclopédie et une organisation, il manquait donc un troisème élément : le lectorat. C’est essentiel car la controverse porte sur l’acte d’informer, qui est la fonction de l’encyclopédie. La neutralité de point de vue, par exemple, est pensée non pas pour elle-même mais pour le bénéfice des lecteurs.

    Or, et c’est une autre difficulté intrinsèque à l’usage du mot « neutralité », certains sur Wikipédia croient qu’il est possible d’informer de manière neutre. Il y aurait une équivalence entre respecter la pluralité des points de vue et informer le lectorat de façon neutre. Voilà qui sonne à mes oreilles comme une résurgence du modèle de la communication chez Shannon : un tuyau qu’on optimise jusqu’à ce que le bruit disparaisse. C’est impossible : informer/s’informer, c’est un processus communicationnel qui implique réception et feedback. C’est toujours situé, toujours soumis à diverses subjectivités, toujours parasité – jamais neutre.

    Si je devais le dire avec d’autres concepts d’info-com, je dirais qu’il y a une poussée ces jours-ci sur Wikipédia pour tenir compte de l’expérience informationnelle des personnes documentées dans l’encyclopédie. C’est un rejet de la tyrannie de la majorité, version encyclopédique. Et je dirais aussi que cela relève d’une chose plus générale : la volonté de tenir compte des valeurs portées par les processus/systèmes d’organisation des connaissances et des effets qu’ils produisent – ce que Birger Hjørland appelle une épistémologie « pragmatique » de l’organisation des connaissances. C’est ce courant de pensée qui produit aujourd’hui des recherches sur l’invisibilisation de certains groupes sociaux dans les archives et les encyclopédies, par exemple.

    #Universalisme

    Dans le fonctionnement de Wikipédia, les dilemmes sociaux qui ne peuvent être tranchés débouchent sur des compromis. Il n’y a pas d’autre issue au dissensus que le consensus. Pourquoi  ? Parce que Wikipédia est conçu pour afficher toujours le même contenu pour chaque lecteur.

    Dans un article de Wikipédia, on peut lire deux sections qui présentent des idées contradictoires. Mais on ne peut pas lire deux articles différents sur le même sujet, qui développent chacun leur lecture de ces contradictions. C’est le principal grief envers Wikipédia de mon co-directeur de thèse, l’historien Bertrand Müller, qui travaille sur le développement d’encyclopédies documentaires numériques capables de représenter le dissensus d’une autre manière. C’est en discutant de ce genre de chose que je me suis mis à faire des fiches de la forme « Concept (Auteur) » pour documenter des variantes de concepts par auteurs, et qu’à la fin on s’est retrouvés avec Cosma.

    Dans un article de Wikipédia, on peut lire qu’une personne stylise son nom d’une certaine manière, tout en minuscules par exemple. Mais on ne peut pas cocher une option qui permette d’afficher l’article dans cette convention de style. Il en résulte des bizarreries : on a un article « bell hooks » mais un article « Danah Boyd ».

    Dans un article de Wikipédia, on peut lire qu’une personne souffre de voir certaines informations divulguées, comme un nom de naissance. Mais on ne peut pas lire une version de cet article où ce nom est caché par défaut. Cela ne concerne pas que des personnes ayant fait une transition mais aussi des artistes dont le nom d’origine fuite et se retrouve relayé par Wikipédia (j’ai un exemple en tête mais par politesse je ne le citerai pas).

    Bref, Wikipédia est à la fois très innovante et pas innovante du tout. En tant qu’organisation éditoriale, c’est une nouveauté (et une réussite) indéniable. Le modèle encyclopédique, lui, est beaucoup plus classique, surtout au regard de ce qu’on pourrait faire avec le Web, les ontologies, le balisage sémantique… À quand Wikipédia multiformats  ?

    –-

    Pour clore ce billet bien trop long, je tiens à exprimer un petit message de soutien (sans les nommer) aux collègues qui s’investissent dans Wikipédia. Ils et elles se reconnaîtront. J’admire leur courage et leur patience. Si j’ai qualifié Wikipédia de démocratie rhétorique, disserté sur l’illusion de la présomption de bonne foi et les confusions autour de la neutralité, imaginé des rebonds parmi les concepts de ma discipline, eh bien c’est d’abord parce qu’il y a des collègues qui travaillent dur en première ligne et qui font connaître leurs efforts. Alors on s’y intéresse, on découvre de nouvelles choses, on élabore ses propres idées. Mais surtout l’enjeu c’est de propager l’idée centrale des communs : l’auto-organisation des personnes concernées. Au-delà des éléments précis abordés dans ce billet, c’est surtout cette idée-là qui me semble importante et intéressante.
    Bibliographie
    Bruce, Davis, Hughes, Partridge et Stoodley (dir.). Information experience : approaches to theory and practice. Emerald, 2014. 978-1-78350-815-0.
    Buckland, Michael. « Information as thing ». Journal of the American Society for Information Science. 1991, Vol. 42, n° 5, p. 351‑360. https://doi.org/10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
    Cardon, Dominique. Culture numérique. Presses de Sciences Po, 2019. Les petites humanités. 978-2-7246-2365-9.
    Gorichanaz, Tim. « Information and experience, a dialogue ». Journal of Documentation. 2017, Vol. 73, n° 3, p. 500‑508. https://doi.org/10.1108/JD-09-2016-0114.
    Hess et Ostrom (dir.). Understanding knowledge as a commons : from theory to practice. MIT Press, 2007. 978-0-262-08357-7.
    Hjørland, Birger. « Classification ». Knowledge Organization. 2017, Vol. 44, n° 2, p. 97‑128. https://doi.org/10.5771/0943-7444-2017-2-97.
    Lévy, Pierre. L’intelligence collective : pour une anthropologie du cyberspace. La Découverte, 1997. 978-2-7071-2693-1.
    Merzeau, Louise. « De la communication aux communs ». InterCDI. 2016, n° 261, p. 29‑30. http://www.intercdi.org/de-la-communication-aux-communs.
    Shannon, Claude E. « A Mathematical Theory of Communication ». Bell System Technical Journal. 1948, Vol. 27, n° 3, p. 379‑423. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x.
    Wiener, Norbert. Cybernétique et société : l’usage humain des êtres humains. Trad. par Ronan Le Roux et Pierre Yves Mistoulon. Seuil, 2014 [1954]. 978-2-7578-4278-2.
    Wiener, Norbert. La cybernétique : information et régulation dans le vivant et la machine. Trad. par Ronan Le Roux, Robert Vallée et Nicole Vallée-Levi. Éditions du Seuil, 2014 [1948]. 978-2-02-109420-6.

    https://www.arthurperret.fr/blog/2024-03-08-wikipedia-democratie-rhetorique.html

    • #Sana_Boussetat, La Formule Wikipédia

      À l’heure où Wikipédia est entrée dans sa deuxième décennie et où les générations nées après les années 2000 n’auront pas connu d’avant Wikipédia, cet ouvrage propose de revenir sur l’œuvre qui est parvenue à dépoussiérer la norme et les usages bien pensés d’une tradition séculaire. Désormais, il est indéniable que l’avènement de Wikipédia a permis de franchir un cap vers une ère nouvelle où la connaissance et l’information ne s’écrivent plus exclusivement entre experts mais par le concours de rédacteurs bénévoles. Bouleversante, Wikipédia a osé modifier notre façon de rechercher la connaissance et, plus généralement, notre rapport au savoir. Mais sait-on vraiment ce qui se cache derrière un principe en apparence simple, celui d’une encyclopédie publiée sous licence libre et gratuite ? D’où nous vient ce concept hors norme ? Quels sont les fondements qui le régissent ? Comment s’organisent ses activités ? À quels rôles et quels moyens peut-on prétendre en rejoignant la communauté des wikipédiens ?

      Pensé comme un guide, cet ouvrage propose de revenir sur cette formule pionnière pour en offrir une description détaillée et un décryptage précis. Une entreprise indépendante dont l’unique but est d’aider le lecteur à appréhender un outil déjà bien installé dans les habitudes d’un grand nombre d’entre nous et qui façonne au quotidien notre information et notre connaissance du monde.

      https://www.fabula.org/actualites/119359/sana-boussetat-la-formule-wikipedia.html
      #livre

  • Border security with drones and databases

    The EU’s borders are increasingly militarised, with hundreds of millions of euros paid to state agencies and military, security and IT companies for surveillance, patrols and apprehension and detention. This process has massive human cost, and politicians are planning to intensify it.

    Europe is ringed by steel fences topped by barbed wire; patrolled by border agents equipped with thermal vision systems, heartbeat detectors, guns and batons; and watched from the skies by drones, helicopters and planes. Anyone who enters is supposed to have their fingerprints and photograph taken for inclusion in an enormous biometric database. Constant additions to this technological arsenal are under development, backed by generous amounts of public funding. Three decades after the fall of the Berlin Wall, there are more walls than ever at Europe’s borders,[1] and those borders stretch ever further in and out of its territory. This situation is the result of long-term political and corporate efforts to toughen up border surveillance and controls.

    The implications for those travelling to the EU depend on whether they belong to the majority entering in a “regular” manner, with the necessary paperwork and permissions, or are unable to obtain that paperwork, and cross borders irregularly. Those with permission must hand over increasing amounts of personal data. The increasing automation of borders is reliant on the collection of sensitive personal data and the use of algorithms, machine learning and other forms of so-called artificial intelligence to determine whether or not an individual poses a threat.

    Those without permission to enter the EU – a category that includes almost any refugee, with the notable exception of those who hold a Ukrainian passport – are faced with technology, personnel and policies designed to make journeys increasingly difficult, and thus increasingly dangerous. The reliance on smugglers is a result of the insistence on keeping people in need out at any cost – and the cost is substantial. Thousands of people die at Europe’s borders every year, families are separated, and people suffer serious physical and psychological harm as a result of those journeys and subsequent administrative detention and social marginalisation. Yet parties of all political stripes remain committed to the same harmful and dangerous policies – many of which are being worsened through the new Pact on Migration and Asylum.[2]

    The EU’s border agency, Frontex, based in Warsaw, was first set up in 2004 with the aim of providing technical coordination between EU member states’ border guards. Its remit has been gradually expanded. Following the “migration crisis” of 2015 and 2016, extensive new powers were granted to the agency. As the Max Planck Institute has noted, the 2016 law shifted the agency from a playing “support role” to acting as “a player in its own right that fulfils a regulatory, supervisory, and operational role.”[3] New tasks granted to the agency included coordinating deportations of rejected refugees and migrants, data analysis and exchange, border surveillance, and technology research and development. A further legal upgrade in 2019 introduced even more extensive powers, in particular in relation to deportations, and cooperation with and operations in third countries.

    The uniforms, guns and batons wielded by Frontex’s border guards are self-evidently militaristic in nature, as are other aspects of its work: surveillance drones have been acquired from Israeli military companies, and the agency deploys “mobile radars and thermal cameras mounted on vehicles, as well as heartbeat detectors and CO2 monitors used to detect signs of people concealed inside vehicles.”[4] One investigation described the companies that have held lobbying meetings or attended events with Frontex as “a Who’s Who of the weapons industry,” with guests including Airbus, BAE Systems, Leonardo and Thales.[5] The information acquired from the agency’s surveillance and field operations is combined with data provided by EU and third country agencies, and fed into the European Border Surveillance System, EUROSUR. This offers a God’s-eye overview of the situation at Europe’s borders and beyond – the system also claims to provide “pre-frontier situational awareness.”

    The EU and its member states also fund research and development on these technologies. From 2014 to 2022, 49 research projects were provided with a total of almost €275 million to investigate new border technologies, including swarms of autonomous drones for border surveillance, and systems that aim to use artificial intelligence to integrate and analyse data from drones, satellites, cameras, sensors and elsewhere for “analysis of potential threats” and “detection of illegal activities.”[6] Amongst the top recipients of funding have been large research institutes – for example, Germany’s Fraunhofer Institute – but companies such as Leonardo, Smiths Detection, Engineering – Ingegneria Informatica and Veridos have also been significant beneficiaries.[7]

    This is only a tiny fraction of the funds available for strengthening the EU’s border regime. A 2022 study found that between 2015 and 2020, €7.7 billion had been spent on the EU’s borders and “the biggest parts of this budget come from European funding” – that is, the EU’s own budget. The total value of the budgets that provide funds for asylum, migration and border control between 2021-27 comes to over €113 billion[8]. Proposals for the next round of budgets from 2028 until 2035 are likely to be even larger.

    Cooperation between the EU, its member states and third countries on migration control comes in a variety of forms: diplomacy, short and long-term projects, formal agreements and operational deployments. Whatever form it takes, it is frequently extremely harmful. For example, to try to reduce the number of people arriving across the Mediterranean, member states have withdrawn national sea rescue assets (as deployed, for example, in Italy’s Mare Nostrum operation) whilst increasing aerial surveillance, such as that provided by the Israel-produced drones operated by Frontex. This makes it possible to observe refugees attempting to cross the Mediterranean, whilst outsourcing their interception to authorities from countries such as Libya, Tunisia and Egypt.

    This is part of an ongoing plan “to strengthen coordination of search and rescue capacities and border surveillance at sea and land borders” of those countries. [9] Cooperation with Tunisia includes refitting search and rescue vessels and providing vehicles and equipment to the Tunisian coastguard and navy, along with substantial amounts of funding. The agreement with Egypt appears to be structured along similar lines, and five vessels have been provided to the so-called Libyan Coast Guard in 2023.[10]

    Frontex also plays a key role in the EU’s externalised border controls. The 2016 reform allowed Frontex deployments at countries bordering the EU, and the 2019 reform allowed deployments anywhere in the world, subject to agreement with the state in question. There are now EU border guards stationed in Albania, Montenegro, Serbia, Bosnia and Herzegovina, and North Macedonia.[11] The agency is seeking agreements with Niger, Senegal and Morocco, and has recently received visits from Tunisian and Egyptian officials with a view to stepping up cooperation.[12]

    In a recent report for the organisation EuroMed Rights, Antonella Napolitano highlighted “a new element” in the EU’s externalisation strategy: “the use of EU funds – including development aid – to outsource surveillance technologies that are used to entrench political control both on people on the move and local population.” Five means of doing so have been identified: provision of equipment; training; financing operations and procurement; facilitating exports by industry; and promoting legislation that enables surveillance.[13]

    The report highlights Frontex’s extended role which, even without agreements allowing deployments on foreign territory, has seen the agency support the creation of “risk analysis cells” in a number of African states, used to gather and analyse data on migration movements. The EU has also funded intelligence training in Algeria, digital evidence capacity building in Egypt, border control initiatives in Libya, and the provision of surveillance technology to Morocco. The European Ombudsman has found that insufficient attention has been given to the potential human rights impacts of this kind of cooperation.[14]

    While the EU and its member states may provide the funds for the acquisition of new technologies, or the construction of new border control systems, information on the companies that receive the contracts is not necessarily publicly available. Funds awarded to third countries will be spent in accordance with those countries’ procurement rules, which may not be as transparent as those in the EU. Indeed, the acquisition of information on the externalisation in third countries is far from simple, as a Statewatch investigation published in March 2023 found.[15]

    While EU and member state institutions are clearly committed to continuing with plans to strengthen border controls, there is a plethora of organisations, initiatives, campaigns and projects in Europe, Africa and elsewhere that are calling for a different approach. One major opportunity to call for change in the years to come will revolve around proposals for the EU’s new budgets in the 2028-35 period. The European Commission is likely to propose pouring billions more euros into borders – but there are many alternative uses of that money that would be more positive and productive. The challenge will be in creating enough political pressure to make that happen.

    This article was originally published by Welt Sichten, and is based upon the Statewatch/EuroMed Rights report Europe’s techno-borders.

    Notes

    [1] https://www.tni.org/en/publication/building-walls

    [2] https://www.statewatch.org/news/2023/december/tracking-the-pact-human-rights-disaster-in-the-works-as-parliament-makes

    [3] https://www.mpg.de/14588889/frontex

    [4] https://www.theguardian.com/global-development/2021/dec/06/fortress-europe-the-millions-spent-on-military-grade-tech-to-deter-refu

    [5] https://frontexfiles.eu/en.html

    [6] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [7] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [8] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [9] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-

    [10] https://www.statewatch.org/media/4103/eu-com-von-der-leyen-ec-letter-annex-10-23.pdf

    [11] https://www.statewatch.org/analyses/2021/briefing-external-action-frontex-operations-outside-the-eu

    [12] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-, https://www.statewatch.org/publications/events/secrecy-and-the-externalisation-of-eu-migration-control

    [13] https://privacyinternational.org/challenging-drivers-surveillance

    [14] https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf

    [15] https://www.statewatch.org/access-denied-secrecy-and-the-externalisation-of-eu-migration-control

    https://www.statewatch.org/analyses/2024/border-security-with-drones-and-databases
    #frontières #militarisation_des_frontières #technologie #données #bases_de_données #drones #complexe_militaro-industriel #migrations #réfugiés #contrôles_frontaliers #surveillance #sécurité_frontalière #biométrie #données_biométriques #intelligence_artificielle #algorithmes #smugglers #passeurs #Frontex #Airbus #BAE_Systems #Leonardo #Thales #EUROSUR #coût #business #prix #Smiths_Detection #Fraunhofer_Institute #Engineering_Ingegneria_Informatica #informatique #Tunisie #gardes-côtes_tunisiens #Albanie #Monténégro #Serbie #Bosnie-Herzégovine #Macédoine_du_Nord #Egypte #externalisation #développement #aide_au_développement #coopération_au_développement #Algérie #Libye #Maroc #Afrique_du_Nord

  • Médicaments non délivrés, devis et facturation en panne… Une cyberattaque perturbe sérieusement le système de santé aux États-Unis Ingrid Vergara

    La cyberattaque d’une filiale de la plus importante compagnie d’assurance-santé américaine tourne à la crise d’ampleur aux États-Unis. Victime d’un rançongiciel qui affecte une de ses divisions depuis le 21 février, le groupe UnitedHealthcare n’est plus en mesure d’assurer de nombreuses tâches nécessaires au bon fonctionnement du système de santé. Des médecins qui ne peuvent plus savoir si un patient bénéficie ou non d’une assurance-santé, des pharmacies incapables de transmettre les demandes de remboursement de patients, des factures d’hôpitaux non réglées, des retards dans les délivrances d’ordonnances de médicaments…

    Les réactions en chaîne s’étendent et s’aggravent au fur et à mesure que les jours passent. Car UnitedHealthcare est la plus grande plateforme d’échange de paiements entre médecins, pharmacies, prestataires de soins de santé et patients du système de santé américain. Sa filiale Change gère la facturation de quelque 67.000 pharmacies, . . . . .

    #Santé #internet #sécurité_informatique #cyberattaques #cybersécurité #malware #usa #UnitedHealthcare #algorithme #juste_à_temps #dématérialisation #intelligence_artificielle #artificial-intelligence #blockchain #IA

    Source et suite (payante) : https://www.lefigaro.fr/secteur/high-tech/medicaments-non-delivres-devis-et-facturation-en-panne-une-cyberattaque-per

  • ASMA MHALLA

    Les géants de la tech déploient une vision du monde cohérente, comme dans toute folie

    Dans l’essai « Technopolitique », la chercheuse à l’EHESS analyse la façon dont les grandes entreprises technologiques, avec leurs innovations ultrasophistiquées, redessinent les rapports de pouvoir avec l’Etat. Ce qui rend nécessaire une réponse démocratique.

    https://www.liberation.fr/idees-et-debats/asma-mhalla-les-geants-de-la-tech-deploient-une-vision-du-monde-coherente

    https://justpaste.it/bpo3a

  • Intelligence artificielle : la grande illusion de la régulation

    « Le tournant intellectuel et créatif de l’IA s’attaque à nos capacités les plus fondamentales. Les corps de métiers doivent se mobiliser pour définir ce qu’ils sont prêts à céder et à refuser à l’industrie numérique. Faute de quoi, on se réveillera dans un monde dans lequel nous serons étrangers »

    https://jpst.it/3C8e7

    #intelligence_articifielle #IA

  • Intelligence artificielle et traduction, l’impossible dialogue ?
    https://actualitte.com/article/115941/auteurs/intelligence-artificielle-et-traduction-l-impossible-dialogue

    Le recours à ces outils par des éditeurs n’est pas si exceptionnel, si bien que les professionnels craignent d’être relégués au rang de relecteurs des travaux de la machine.

    L’Association des traducteurs littéraires de France (ATLF) et l’Association pour la promotion de la traduction littéraire (ATLAS) rappelaient, en début d’année 2023 : « Tous ceux et celles qui pensent la traduction ou qui l’ont pratiquée le savent : on ne traduit pas des mots, mais une intention, des sous-entendus, l’équivoque, ce qui n’est pas dit et pourtant existe dans les plis d’un texte littéraire. »

    #Edition #Traduction #Intelligence_artificielle

  • 🌻 Tournesol Talks : Décrypter les enjeux du numérique avec des experts aujourd’hui rencontre avec Anne Alombert Maître de conférences en philosophie à l’Université Paris 8, spécialisée dans les rapports entre vie, technique et esprit. Elle a étudié à l’École Normale Supérieure de Lyon et est auteure d’une thèse sur Derrida et Simondon. Ses travaux explorent les enjeux des technologies contemporaines et elle a contribué au programme de recherche dirigé par Bernard Stiegler.

    Tournesol.app est un projet de recherche participatif sur l’éthique des systèmes de recommandation

    Comment ça marche ?
    – Regardez des vidéos sur la plateforme Tournesol.
    – Donnez votre avis sur chaque vidéo en répondant à un court questionnaire.
    – Aidez-nous à identifier les vidéos d’utilité publique qui devraient être largement recommandées.
    Pourquoi participer ?
    – Votre contribution est essentielle pour faire avancer la recherche sur l’éthique des systèmes de recommandation.
    – Participez à un projet citoyen qui vise à construire un numérique plus juste et plus responsable.
    – Donnez votre avis sur les contenus que vous souhaitez voir recommandés.

    En rejoignant le projet Tournesol, vous faites un geste concret pour un numérique plus riche, plus diversifié et plus humain.
    #IA #controverses #éthique #sciencespo #medialab #intelligenceartificielle #technologie #innovation #société #avenir
    https://www.youtube.com/watch?v=Z04ouls5yB4&feature=shared

  • L’IA : entre fascination et controverses ⚖️
    Plongez au cœur des débats brûlants autour de l’intelligence artificielle (IA) dans cette interview captivante avec Dominique Cardon, professeur de sociologie à Sciences Po, et Valérie Beaudouin, directrice d’études à l’EHESS. #IA #controverses #éthique #sciencespo #medialab #intelligenceartificielle #technologie #innovation #société #avenir
    Dans cet échange éclairant, ils explorent :
    – Les différentes formes de controverses liées à l’IA
    – Les défis de la régulation de ces technologies puissantes
    – Le rôle crucial de l’éthique dans le développement de l’IA
    – La responsabilité des mondes professionnels qui utilisent l’IA

    Visionnez cette interview incontournable pour mieux comprendre les enjeux de l’IA et participer à la construction de son avenir !
    https://www.youtube.com/watch?v=d-04sLEfcRE

    a voir aussi la revue réseaux : https://www.revue-reseaux.fr

  • Glüxkind AI Stroller - The Best Smart Stroller for your family
    https://gluxkind.com

    Autant de conneries en si peu d’espace... pas mal !!!
    Les enfants, nouvelle victimes de la prédation algorithmique.

    Unlock Your Helping hand

    Designed by parents with sky-high standards, our AI Powered Smart Strollers elevates the happy moments of daily parenting and lightens the stressful ones.

    Feel supported and savour moments of peace and quiet with features like Automatic Rock-My-Baby or the built-in White Noise Machine to help soothe your little one.

    #Poussette #Intelligence_artificielle #Parentalité

  • One big thing missing from the AI conversation | Zeynep Tufekci - GZERO Media
    https://www.gzeromedia.com/gzero-world-clips/one-big-thing-missing-from-the-ai-conversation-zeynep-tufekci

    When deployed cheaply and at scale, artificial intelligence will be able to infer things about people, places, and entire nations, which humans alone never could. This is both good and potentially very, very bad.

    If you were to think of some of the most overlooked stories of 2023, artificial intelligence would probably not make your list. OpenAI’s ChatGPT has changed how we think about AI, and you’ve undoubtedly read plenty of quick takes about how AI will save or destroy the planet. But according to Princeton sociologist Zeynep Tufekci, there is a super important implication of AI that not enough people are talking about.

    “Rather than looking at what happens between you and me if we use AI,” Tufekci said to Ian on the sidelines of the Paris Peace Forum, “What I would like to see discussed is what happens if it’s used by a billion people?” In a short but substantive interview for GZERO World, Tufekci breaks down just how important it is to think about the applications of AI “at scale” when its capabilities can be deployed cheaply. Tufekci cites the example of how AI could change hiring practices in ways we might not intend, like weeding out candidates with clinical depression or with a history of unionizing. AI at scale will demonstrate a remarkable ability to infer things that humans cannot, Tufekci explains.

    #Intelligence_artificielle #Zeynep_Tufekci

  • Le coût du travail humain reste généralement inférieur à celui de l’IA, d’après le MIT FashionNetwork.com ( Bloomberg )

    Pour le moment, employer des humains reste plus économique que de recourir à l’intelligence artificielle pour la majorité des emplois. C’est en tout cas ce qu’affirme une étude menée par le Massachusetts Institute of Technology, alors que bon nombre de secteurs se sentent menacés par les progrès faits par l’IA.

    Il s’agit de l’une des premières études approfondies réalisées à ce sujet. Les chercheurs ont établi des modèles économiques permettant de calculer l’attractivité de l’automatisation de diverses tâches aux États-Unis, en se concentrant sur des postes “digitalisables“, comme l’enseignement ou l’intermédiation immobilière.

    Source : https://fr.fashionnetwork.com/news/premiumContent,1597548.html

    #ia #intelligence_artificielle #algorithme #surveillance #ai #google #technologie #facebook #technologisme #travail #biométrie #bigdata #coût #MIT

  • Test Yourself : Which Faces Were Made by A.I.? - The New York Times
    https://www.nytimes.com/interactive/2024/01/19/technology/artificial-intelligence-image-generators-faces-quiz.html

    Faites le test (j’ai seulement eu 40% de bonnes réponses !!!).

    Distinguishing between a real versus an A.I.-generated face has proved especially confounding.

    Research published across multiple studies found that faces of white people created by A.I. systems were perceived as more realistic than genuine photographs of white people, a phenomenon called hyper-realism.

    Researchers believe A.I. tools excel at producing hyper-realistic faces because they were trained on tens of thousands of images of real people. Those training datasets contained images of mostly white people, resulting in hyper-realistic white faces. (The over-reliance on images of white people to train A.I. is a known problem in the tech industry.)

    The confusion among participants was less apparent among nonwhite faces, researchers found.

    Participants were also asked to indicate how sure they were in their selections, and researchers found that higher confidence correlated with a higher chance of being wrong.

    “We were very surprised to see the level of over-confidence that was coming through,” said Dr. Amy Dawel, an associate professor at Australian National University, who was an author on two of the studies.

    “It points to the thinking styles that make us more vulnerable on the internet and more vulnerable to misinformation,” she added.

    #Intelligence_artificielle #faux_portraits

  • Usbek & Rica - Détournement, droit d’auteur… 5 outils pour embrouiller les IA
    https://usbeketrica.com/fr/article/detournement-droit-d-auteur-5-outils-pour-embrouiller-les-ia

    « ChatGPT n’est qu’une version très poussée et à très grande échelle de tout ce qu’on sait faire depuis longtemps en termes d’apprentissage automatique. » Ainsi l’historien américain Fred Turner, auteur de plusieurs études primées sur l’impact des nouvelles technologies sur la culture américaine, résume-t-il dans nos colonnes son scepticisme face à l’emballement médiatique autour de l’intelligence artificielle.

    Il n’empêche : comme Fred Turner le reconnaît lui-même, l’émergence de ChatGPT, Dall-E et autres MidJourney achève de nous faire basculer dans un monde où cette « très grande échelle » change à peu près tout, notamment du point de vue de la création.

    Articles écrits par des robots, illustrations générées par quelques lignes de code… Derrière ces prouesses apparentes, on retrouve des algorithmes d’apprentissage automatique, bâtis à partir d’immenses bases de données en ligne plutôt banales, pas toujours protégées… et donc potentiellement faillibles. Pour envoyer balader ces systèmes, faire valoir leurs droits ou tout simplement sécuriser leurs données, certains ingénieurs bâtissent depuis quelques mois des outils en tout genre, du site amateur au logiciel professionnel. Nous en avons recensé cinq.

    #Fred_Turner #Intelligence_artificielle

  • A “robot” should be chemical, not steel, argues man who coined the word | Ars Technica
    https://arstechnica.com/information-technology/2024/01/a-robot-should-be-chemical-not-steel-argues-man-who-coined-the-word

    In 1921, Czech playwright Karel Čapek and his brother Josef invented the word “robot” in a sci-fi play called R.U.R. (short for Rossum’s Universal Robots). As Even Ackerman in IEEE Spectrum points out, Čapek wasn’t happy about how the term’s meaning evolved to denote mechanical entities, straying from his original concept of artificial human-like beings based on chemistry.

    In a newly translated column called “The Author of the Robots Defends Himself,” published in Lidové Noviny on June 9, 1935, Čapek expresses his frustration about how his original vision for robots was being subverted. His arguments still apply to both modern robotics and AI. In this column, he referred to himself in the third-person:

    #Intelligence_artificielle #Robots #Karel_Capek

  • Two-thirds of Americans say AI could do their job | Fox Business
    https://www.foxbusiness.com/technology/two-thirds-americans-say-ai-can-do-their-job

    Intéressant de comparer ce « ressenti » des travailleurs avec la réalité des menaces telle que montrée au même moment par l’étude du MIT.
    Ne serait-ce pas chez les travailleurs le sentiment d’exercer des « Bullshit jobs » ?

    A recent survey conducted by Spokeo found that despite seeing the potential benefits of AI, 66.6% of the 1,027 respondents admitted AI could carry out their workplace duties, and 74.8% said they were concerned about the technology’s impact on their industry as a whole.
    outlines of humans in an office

    A recent survey by Spokeo found most American workers believe AI could do their jobs, but they still see benefits of the technology in the long term. (iStock / iStock)

    “After a year of headlines about AI taking over the world, it’s no surprise that 2 in 3 now think that AI could do their job,” Spokeo CEO Harrison Tang told FOX Business. “We never would have dreamed of how impactful ChatGPT would be on the world.”

    WHAT IS ARTIFICIAL INTELLIGENCE (AI)?

    “Whether it’s because people realize that a lot of work can be easily automated, or they believe the hype in the media that AI is more advanced and powerful than it is, the AI box has now been opened.”

    #Intelligence_artficielle #Travail #Bullshit_jobs

  • New MIT CSAIL study suggests that AI won’t steal as many jobs as expected | TechCrunch
    https://techcrunch.com/2024/01/22/new-mit-csail-study-suggests-that-ai-wont-steal-as-many-jobs-expected

    Will AI automate human jobs, and — if so — which jobs and when?

    That’s the trio of questions a new research study from MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL), out this morning, tries to answer.

    There’s been many attempts to extrapolate out and project how the AI technologies of today, like large language models, might impact people’s’ livelihoods — and whole economies — in the future.

    Goldman Sachs estimates that AI could automate 25% of the entire labor market in the next few years. According to McKinsey, nearly half of all work will be AI-driven by 2055. A survey from the University of Pennsylvania, NYU and Princeton finds that ChatGPT alone could impact around 80% of jobs. And a report from the outplacement firm Challenger, Gray & Christmas suggests that AI is already replacing thousands of workers.

    But in their study, the MIT researchers sought to move beyond what they characterize as “task-based” comparisons and assess how feasible it is that AI will perform certain roles — and how likely businesses are to actually replace workers with AI tech.

    Contrary to what one (including this reporter) might expect, the MIT researchers found that the majority of jobs previously identified as being at risk of AI displacement aren’t, in fact, “economically beneficial” to automate — at least at present.

    The key takeaway, says Neil Thompson, a research scientist at MIT CSAIL and a co-author on the study, is that the coming AI disruption might happen slower — and less dramatically — than some commentators are suggesting.

    Early in the study, the researchers give the example of a baker.

    A baker spends about 6% of their time checking food quality, according to the U.S. Bureau of Labor Statistics — a task that could be (and is being) automated by AI. A bakery employing five bakers making $48,000 per year could save $14,000 were it to automate food quality checks. But by the study’s estimates, a bare-bones, from-scratch AI system up to the task would cost $165,000 to deploy and $122,840 per year to maintain . . . and that’s on the low end.

    “We find that only 23% of the wages being paid to humans for doing vision tasks would be economically attractive to automate with AI,” Thompson said. “Humans are still the better economic choice for doing these parts of jobs.”

    Now, the study does account for self-hosted, self-service AI systems sold through vendors like OpenAI that only need to be fine-tuned to particular tasks — not trained from the ground up. But according to the researchers, even with a system costing as little as $1,000, there’s lots of jobs — albeit low-wage and multitasking-dependent — that wouldn’t make economic sense for a business to automate.

    #Intelligence_artificielle #travail