• Five of this year’s Pulitzer finalists are AI-powered | Nieman Journalism Lab
    https://www.niemanlab.org/2024/03/five-of-this-years-pulitzer-finalists-are-ai-powered

    Two of journalism’s most prestigious prizes — the Pulitzers and the Polk awards — on how they’re thinking about entrants using generative AI.
    By Alex Perry March 11, 2024, 10:31 a.m.

    Five of the 45 finalists in this year’s Pulitzer Prizes for journalism disclosed using AI in the process of researching, reporting, or telling their submissions, according to Pulitzer Prize administrator Marjorie Miller.

    It’s the first time the awards, which received around 1,200 submissions this year, required entrants to disclose AI usage. The Pulitzer Board only added this requirement to the journalism category. (The list of finalists is not yet public. It will be announced, along with the winners, on May 8, 2024.)

    Miller, who sits on the 18-person Pulitzer board, said the board started discussing AI policies early last year because of the rising popularity of generative AI and machine learning.

    “AI tools at the time had an ‘oh no, the devil is coming’ reputation,” she said, adding that the board was interested in learning about AI’s capabilities as well as its dangers.

    Last July — the same month OpenAI struck a deal with the Associated Press and a $5 million partnership with the American Journalism Project — a Columbia Journalism School professor was giving the Pulitzer Board a crash course in AI with the help of a few other industry experts.

    Mark Hansen, who is also the director of the David and Helen Gurley Brown Institute for Media Innovation, wanted to provide the board with a broad base of AI usage in newsrooms from interrogating large datasets to writing code for web-scraping large language models.

    He and AI experts from The Marshall Project, Harvard Innovation Labs, and Center for Cooperative Media created informational videos about the basics of large language models and newsroom use cases. Hansen also moderated a Q&A panel featuring AI experts from Bloomberg, The Markup, McClatchy, and Google.

    Miller said the board’s approach from the beginning was always exploratory. They never considered restricting AI usage because they felt doing so would discourage newsrooms from engaging with innovative technology.

    “I see it as an opportunity to sample the creativity that journalists are bringing to generative AI, even in these early days,” said Hansen, who didn’t weigh in directly on the new awards guideline.

    While the group focused on generative AI’s applications, they spent substantial time on relevant copyright law, data privacy, and bias in machine learning models. One of the experts Hansen invited was Carrie J. Cai, a staff research scientist in Google’s Responsible AI division who specializes in human-computer interaction.

    #Journalisme #Intelligence_artificielle #Pulitzer

  • Ketty Introduces AI Book Designer: Revolutionizing Book Production
    https://www.robotscooking.com/ketty-ai-designer

    Effortless Book Design with AI

    The AI Book Designer introduces a groundbreaking approach to book design by allowing users to style and format their books using simple, intuitive commands. Users can say “make the book look modern”, “make the text more readable” or click on a chapter title and instruct the AI to “add this to the header,” and the changes are applied instantly. This eliminates the need for knowing complex design software or coding, making professional-grade design accessible to everyone.

    Where we are headed

    As we look towards the future development of the AI Book Designer, there are several ideas we are currently thinking about:

    AI-Generated Cover Designs: Generate a range of cover options based on user input.
    Collaborative AI Design: Enable multiple users to work on the same book design simultaneously (concurrently). This feature could be particularly useful for larger publishing teams or co-authored projects.
    AI-Assisted Image Management: Automatically apply styles and optimize the placement of images within the book layout.

    Join the Movement

    Coko believes AI has the potential to transform book production, making it accessible and efficient for everyone. By combining open-source code and principles with cutting-edge technology, Coko is paving the way for a new era of automated typesetting and book design.

    #Typographie #Coko #Intelligence_artificielle

  • #Wikipédia, #démocratie_rhétorique

    Depuis quelques années, des discussions ont lieu dans la version francophone de Wikipédia pour essayer d’aboutir à des conventions de styles relatives à la #transidentité, comme dans la version anglophone. Début 2024, un #sondage interne à Wikipédia a été ouvert à propos de la mention du nom de naissance pour les personnes trans. Ce sondage a suscité presque immédiatement la #polémique. L’affaire a été beaucoup discutée sur Mastodon et s’est retrouvée dans la presse.

    Jusque-là, mon rapport à Wikipédia était assez banal : consultation fréquente (plusieurs fois par semaines, voire par jour) mais pas de contribution. Il faut dire que j’avais retenu la leçon vécue par Marc Jahjah : il vaut mieux s’être bien renseigné sur le fonctionnement de Wikipédia avant de contribuer, car c’est rempli de patrouilleurs indélicats. Et pour présenter rapidement Wikipédia en cours, une compréhension de surface suffit.

    Arrive cette controverse sur le nom des personnes trans. Parce que je connais quelques universitaires impliqués dans les débats, j’ai commencé à parcourir les pages de discussion, par curiosité. Et parce qu’il est indispensable de se renseigner sur le fonctionnement de Wikipédia pour décoder ces discussions, notamment tous les sigles employés, je me suis mis à parcourir toutes les pages qui décrivent le projet Wikipédia, notamment sa hiérarchie des #normes (#principes_fondateurs, #règles et #recommandations).

    Dans la foulée, quelques personnes ont publié des analyses : « contradiction entre volonté de #transparence et d’#entre-soi »  ; « désillusion de l’#intelligence_collective »… c’est là que les roues se sont mises à tourner à toute vitesse dans ma tête.

    Attention : ce qui suit, ce sont mes élucubrations personnelles. Si je les partage, c’est parce qu’elle ne recoupent pas ce que j’ai pu lire ailleurs. Coïncidence, ces jours-ci sort un livre de Sana Boussetat intitulé La formule Wikipédia . Je vois dans la table des matières que quelques pages portent sur le débat participatif et la gestion des conflits, il va en être question dans ce billet… En m’exprimant sur un sujet qui n’est pas ma spécialité, je risque un peu la sortie de piste, donc je préfère le signaler dès ici. Si besoin, je mettrai mon billet à jour.

    #Communs

    Wikipédia fait partie des #biens_communs, plus spécifiquement de la catégorie des #biens_communs_informationnels, ou #communs_de_la_connaissance. Quand on parle de « #communs » tout court, on entend généralement des espaces « collectivement construits et administrés ».

    Wikipédia fait le pari de l’intelligence collective. Or Tam Kien Duong résume justement la controverse actuelle comme une « désillusion de l’intelligence collective ». Pour qu’il y ait #désillusion, il faut qu’il y ait illusion. Alors voici une hypothèse : on a pensé que les communs de la connaissance seraient vertueux par essence.

    #Utopie :

    « Le fruit des rencontres entre les biens et les personnes peut être aussi bien positif que négatif ou quelque part entre les deux. Dans l’arène intellectuelle, le concept des biens communs est souvent brandi comme un étendard synonyme de liberté d’expression, d’accès libre et universel, et d’autogestion […] Cela peut être constructif, d’ailleurs cela donne souvent de l’élan aux actions collectives autour des communs. Mais un commun n’est pas chargé de valeurs. Son impact peut être bon ou mauvais, durable ou non ».

    Les effets produits par les communs de la connaissance dépendent donc de la manière dont ils sont collectivement construits et administrés.

    Comme pour chaque autre catégorie de biens communs, concevoir des communs de la connaissance implique des difficultés spécifiques. Et dans le cas de Wikipédia, il y en a une qui s’est avérée particulièrement aiguë : la tension entre l’idée d’une encyclopédie qui doit être une source de savoir contrôlé, et le principe d’une encyclopédie ouverte, dont tout le monde peut parler, que tout le monde peut rejoindre.
    Démocratie

    Quand on utilise le nom « Wikipédia », on peut désigner l’encyclopédie mais aussi l’organisation qui produit cette encyclopédie. La nature de l’encyclopédie est clairement expliquée sur la page Wikipédia est une encyclopédie : c’est une collection d’articles qui présentent chacun une synthèse des connaissances sur un sujet. En revanche, la nature de l’organisation est un peu moins simple à appréhender.

    La page Principes fondateurs définit dans les grandes lignes « Wikipédia et les conditions de son élaboration ». Elle parle aussi d’un « projet collaboratif ». La page Ce que Wikipédia n’est pas mentionne une « communauté ». Pour mieux cerner cette organisation, il faut donc creuser. On découvrira progressivement que le fonctionnement de Wikipédia est organisé suivant une hiérarchie des normes :

    - principes fondateurs (fondement intangible)  ;
    - règles (issues d’une prise de décision, c’est-à-dire d’un vote)  ;
    - recommandations (élaborées par consensus)  ;
    - essais (propositions relatives au fonctionnement de l’encyclopédie).

    Comment qualifier ce fonctionnement  ? Démocratique  ? Bureaucratique  ? Si on en croit Wikipédia, ni l’un ni l’autre. D’abord, ce ne serait pas « un projet politique » :

    « La communauté s’est dotée de certaines règles, mais il ne faut pas perdre de vue qu’elles n’existent que pour le but auquel la communauté aspire : construire une encyclopédie de qualité. Par extension, Wikipédia n’est ni une démocratie, ni une dictature, ni une anarchie, ou toute autre tentative de réalisation d’un projet politique quelconque. »

    Ce passage a de quoi étonner. Le terme « démocratie » est ramené à une définition historique – « tentative de réalisation d’un projet politique » –, ce qui permet d’affirmer ensuite que Wikipédia ne correspond pas à la définition. Or cette dernière est contestable. On peut arguer du fait que la démocratie n’est pas un processus historique mais sociologique : Raymond Aron par exemple définit la démocratie comme l’organisation pacifique de la compétition pour le pouvoir, et cela s’applique très bien à Wikipédia.

    #Consensus

    Wikipédia a donc un fonctionnement démocratique, que Dominique Cardon résume ainsi : « Wikipédia possède une sorte de Constitution, dont les principes, les règles et les recommandations permettent de trancher en cas de litige ». Concrètement, il y a du vote à certains niveaux mais pas partout : le mécanisme central est en fait le consensus. Celui-ci repose sur les règles suivantes :

    - il y a toujours un consensus pré-établi, qu’il soit tacite ou manifeste  ;
    – si vous voulez modifier quelque chose, « cherchez une modification judicieuse mariant les idées de chacun »  ;
    – si vous êtes en désaccord, « trouvez un compromis »  ;
    – si le désaccord persiste, on revient au consensus précédent.

    Le consensus est un processus dialectique : on exprime des avis  ; on interprète l’ensemble de ces avis  ; on exprime des accords ou désaccords à propos de cette interprétation. Or ce processus n’a qu’un ensemble limité de règles, qui se concentrent sur la mise en forme, la politesse et la traçabilité. Il n’y a pas de règlement politique du consensus. Et pour moi, une dialectique sans règles politiques dégénère immédiatement en rhétorique.
    Bureaucratie

    Wikipédia est parfois qualifiée de bureaucratie. L’encyclopédie elle-même affirme ressembler à une bureaucratie mais ne pas en être une :

    « Bien que Wikipédia rassemble de nombreux éléments d’une bureaucratie, elle n’est pas régie par les lois : ce n’est pas un organisme quasi-judiciaire, et les règles ne sont pas le but final de la communauté. Bien que certaines règles puissent être appliquées, les règles écrites ne fixent pas l’usage accepté. Elles se contentent plutôt de documenter les consensus communautaires existants concernant ce qui doit être accepté et ce qui doit être rejeté. »

    On retrouve le même problème qu’avec « démocratie » : le terme est défini de manière très spécifique pour pouvoir dire ensuite que Wikipédia ne correspond pas à la définition. Pour moi, l’affirmation ci-dessus ne permet pas de dire que Wikipédia n’est pas une bureaucratie, circulez, y’a rien à voir. Tout ce qu’elle fait, c’est déplacer le centre de gravité du fonctionnement bureaucratique vers le consensus, qui est un processus tout à fait formalisé – il est même représenté sous la forme d’un schéma décisionnel.

    Sachant qu’on revient toujours au consensus précédent si un nouveau consensus ne peut pas être trouvé, le système tend au statu quo, en raison d’un paradoxe empirique : un consensus peut s’obtenir très facilement (soit parce qu’il est tacite, soit parce qu’il est produit par une toute petite poignée de contributeurs) mais un nouveau consensus peut être très difficile à obtenir, parce qu’il implique un dilemme social (la remise en question d’un consensus) et que le dépassement de ce dilemme génère une friction énorme.

    En effet, et contrairement à l’un des principes essentiels de conception des communs – créer des mécanismes de résolution des conflits dont le coût soit peu élevé –, l’élaboration du consensus sur Wikipédia contient plusieurs sources de frictions majeures.

    Il y a d’abord ce parasitage de la dialectique par la rhétorique, que j’ai évoqué un peu plus tôt. Certaines personnes le dénoncent parfois, en accusant des contributeurs favorables au statu quo d’étirer les discussions à dessein pour épuiser leurs contradicteurs, qui finissent par jeter l’éponge. Selon moi, Wikipédia souffre ici d’un déficit de régulation. Dans l’espace public politique, il n’y a pas que les suffrages qui soient réglementés : la parole l’est aussi. Ce n’est pas pour rien que l’Assemblée nationale fonctionne avec des temps de parole et un agenda. Une discussion sans limite de temps ou de signes, sans contrainte basée sur la représentativité des interlocuteurs, c’est une discussion qui favorise naturellement les esprits procéduriers et vétilleux.

    Il y a ensuite l’effet « aiguille dans une botte de foin » : un sujet passe facilement sous les radars, du fait de l’immensité de l’encyclopédie. Les personnes qui pourraient y contribuer utilement ne sont donc pas forcément au courant, malgré des mécanismes comme le Bistro – la page d’actualités quotidienne de Wikipédia en français.

    Autre source de frictions, la prime à l’ancienneté : considérer que ceux qui contribuent suffisamment et régulièrement à Wikipédia sont plus légitimes que les autres pour décider de son fonctionnement. Cette idée a un versant positif, aligné avec la notion de biens communs en général : les communs doivent être administrés par la communauté concernée. Mais elle a aussi un versant négatif, quand on conçoit cette communauté comme structurée en cercles concentriques hermétiques. Pour réduire la tension entre l’envie d’ouvrir l’encyclopédie et la nécessité de protéger son fonctionnement interne, les contributeurs utilisent par exemple des critères de participation aux sondages (nombre de contributions total, nombre de contributions récentes). Ceci permet de se protéger de manœuvres visant à détourner le projet encyclopédique en faveur d’intérêts particuliers. Mais cela empêche aussi des groupes de voir leurs intérêts représentés dans le processus, ce qui les repousse vers des mécanismes externes de résolution des conflits, comme les systèmes médiatique et judiciaire.

    Certaines recommandations de Wikipédia comme Ne mordez pas les nouveaux visent à éviter la discrimination envers les novices  ; j’ai mentionné en introduction le cas de Marc Jahjah, eh bien le contributeur qui l’avait si mal accueilli a été sanctionné. La prime à l’ancienneté est une forme plus subtile de cette même logique, qui permet paradoxalement de reconstituer des enclosures à l’intérieur du bien commun.

    Ces différents phénomènes compliquent la résolution des conflits les plus difficiles. Et à cela viennent s’ajouter deux notions qui m’ont l’air de causer beaucoup de problèmes : la neutralité et la bonne foi.

    #Neutralité

    L’un des #Principes_fondateurs de Wikipédia est la Neutralité de point de vue. Il ne s’agit pas de faire émerger un « point de vue neutre » mais de restituer la pluralité des points de vue de manière neutre, c’est-à-dire de manière équitable, en contextualisant les différents points de vue, et en citant des sources.

    La neutralité pose des difficultés car son sens dérive vite. Sur la page de discussion du fameux sondage, on peut lire plusieurs commentaires qui opposent « la communauté Wikipédia » à des « communautés militantes », qui ne seraient pas « neutres ». C’est oublier que la neutralité de Wikipédia n’est pas la recherche d’un point de vue neutre mais d’une pluralité de points de vue. C’est surtout croire qu’il existerait une séparation magique entre une communauté Wikipédia qui serait non militante et des communautés extérieures militantes.

    Militer consiste à « agir pour faire reconnaître et triompher ses idées » (source : TLF). Sachant que la frontière qui séparerait Wikipédia du reste de la société n’existe en fait pas, il est inévitable que des personnes militantes s’impliquent sur Wikipédia. Si une personne militante agit en opposition au principe de neutralité, par exemple en effaçant les idées contraires aux siennes, ses modifications (qui peuvent s’apparenter à du vandalisme) seront retoquées. Mais si elle respecte les règles de Wikipédia, par exemple en faisant représenter ses idées aux côtés d’idées antagonistes, alors son militantisme n’est pas un danger pour Wikipédia. De fait, nombre de contributeurs sur Wikipédia sont « militants » de quelque chose et l’encyclopédie s’en porte très bien.

    Qualifier les militants de « non neutres », c’est donc confondre les actions concrètes de personnes militantes et leurs objectifs supposés, c’est-à-dire leur faire un procès d’intention. Et c’est ici qu’intervient l’hypocrisie de la « bonne foi ».

    #Bonne_foi

    Supposez la bonne foi est une recommandation importante dans Wikipédia. Elle implique deux choses :

    « Quand vous pouvez supposer raisonnablement qu’une erreur faite par quelqu’un est née d’une bonne intention pour atteindre les objectifs du projet, corrigez-la sans la critiquer. »

    « Quand vous n’êtes pas d’accord avec quelqu’un, rappelez-vous qu’il est probable qu’il souhaite et croit sincèrement contribuer à Wikipédia. »

    La bonne foi est ainsi définie comme le souhait sincère de faire progresser l’encyclopédie, de ne pas la dégrader ni lui nuire. En d’autres termes, cela consiste à respecter les principes fondateurs, et notamment le deuxième – la neutralité de point de vue.

    Que la bonne foi existe chez certains, c’est une certitude. En revanche, la présomption systématique de bonne foi me semble constituer un principe naïf, ce que Frédéric Lordon appellerait une « anthropologie enchantée ». Présumer la bonne foi n’implique pas que les gens soient réellement de bonne foi. Et au risque d’enfoncer des portes ouvertes, rien ne permet de présumer que la communauté Wikipédia est constituée exclusivement de gens parfaitement informés et toujours bienveillants : tout indique au contraire qu’elle peut être un haut lieu d’ignorance et d’intolérance, et qu’en cela elle s’inscrit malheureusement assez bien dans l’histoire de l’encyclopédisme et de l’organisation des connaissances.

    Dans la discussion à propos du fameux sondage, il y a quelques personnes qui me semblent d’une mauvaise foi crasse, évidente, assumée  ; des personnes dont tout le monde peut voir qu’elles utilisent sciemment les règles pour orienter le cours des choses dans le sens qu’elles veulent. « Mais non, pensez-vous, je ne fais que m’en tenir aux principes de notre encyclopédie. » Il suffit de lire leur page utilisateur pour découvrir une adhésion revendiquée à des écoles de pensée et des familles idéologiques. L’hypocrisie dont je parlais est là : dire qu’il faut présumer de la bonne foi, se récrier face à toute accusation de parti pris idéologique, et faire des procès d’intention à ceux qui s’opposent à nous.

    Cela va donc sembler un peu violent, surtout pour les personnes attachées à ce principe, mais je crois que la présomption de bonne foi est à la fois une friction et une fiction. C’est un piètre paravent, qui empêche de forcer tout un chacun à jouer cartes sur table dans la résolution des conflits. Elle grippe l’élaboration du consensus. Elle aiguise la duplicité de ceux qui masquent leurs intentions tout en dénonçant celles des autres. Elle permet à certains de jouir d’un pouvoir légitimé par des règles qu’il est très difficile de faire évoluer, par inertie ou effet de majorité  ; des gens qui feront tout pour écœurer les personnes opposées à la reconduction de l’existant, et qui n’hésiteront pas à affirmer ensuite que ce sont ces opposants qui ont déserté (comme on peut le lire dans le Bistro du 6 mars).

    À ce stade de l’écriture, je fais une pause pour boire un verre d’eau et me calmer un peu afin de finir sur une note un peu plus maîtrisée. Pas simple car en lisant des pages de discussion Wikipédia, on attrape vite un syndrôme d’exaspération par procuration.

    #Information

    Suite au sondage, la controverse a fait tache d’huile et atteint désormais de nombreuses pages de discussion, comme celle d’Elliot Page, Chelsea Manning ou encore Laverne Cox. Certaines personnes questionnent le choix des informations données, leur forme, leur place. D’autres résistent, avec plus ou moins de… bonne foi.

    Le désaccord porte sur la tension entre la volonté d’informer et celle de « ne pas nuire », cette dernière faisant partie des recommandations de Wikipédia concernant les Biographies de personnes vivantes. J’ai dit que Wikipédia est une encyclopédie et une organisation, il manquait donc un troisème élément : le lectorat. C’est essentiel car la controverse porte sur l’acte d’informer, qui est la fonction de l’encyclopédie. La neutralité de point de vue, par exemple, est pensée non pas pour elle-même mais pour le bénéfice des lecteurs.

    Or, et c’est une autre difficulté intrinsèque à l’usage du mot « neutralité », certains sur Wikipédia croient qu’il est possible d’informer de manière neutre. Il y aurait une équivalence entre respecter la pluralité des points de vue et informer le lectorat de façon neutre. Voilà qui sonne à mes oreilles comme une résurgence du modèle de la communication chez Shannon : un tuyau qu’on optimise jusqu’à ce que le bruit disparaisse. C’est impossible : informer/s’informer, c’est un processus communicationnel qui implique réception et feedback. C’est toujours situé, toujours soumis à diverses subjectivités, toujours parasité – jamais neutre.

    Si je devais le dire avec d’autres concepts d’info-com, je dirais qu’il y a une poussée ces jours-ci sur Wikipédia pour tenir compte de l’expérience informationnelle des personnes documentées dans l’encyclopédie. C’est un rejet de la tyrannie de la majorité, version encyclopédique. Et je dirais aussi que cela relève d’une chose plus générale : la volonté de tenir compte des valeurs portées par les processus/systèmes d’organisation des connaissances et des effets qu’ils produisent – ce que Birger Hjørland appelle une épistémologie « pragmatique » de l’organisation des connaissances. C’est ce courant de pensée qui produit aujourd’hui des recherches sur l’invisibilisation de certains groupes sociaux dans les archives et les encyclopédies, par exemple.

    #Universalisme

    Dans le fonctionnement de Wikipédia, les dilemmes sociaux qui ne peuvent être tranchés débouchent sur des compromis. Il n’y a pas d’autre issue au dissensus que le consensus. Pourquoi  ? Parce que Wikipédia est conçu pour afficher toujours le même contenu pour chaque lecteur.

    Dans un article de Wikipédia, on peut lire deux sections qui présentent des idées contradictoires. Mais on ne peut pas lire deux articles différents sur le même sujet, qui développent chacun leur lecture de ces contradictions. C’est le principal grief envers Wikipédia de mon co-directeur de thèse, l’historien Bertrand Müller, qui travaille sur le développement d’encyclopédies documentaires numériques capables de représenter le dissensus d’une autre manière. C’est en discutant de ce genre de chose que je me suis mis à faire des fiches de la forme « Concept (Auteur) » pour documenter des variantes de concepts par auteurs, et qu’à la fin on s’est retrouvés avec Cosma.

    Dans un article de Wikipédia, on peut lire qu’une personne stylise son nom d’une certaine manière, tout en minuscules par exemple. Mais on ne peut pas cocher une option qui permette d’afficher l’article dans cette convention de style. Il en résulte des bizarreries : on a un article « bell hooks » mais un article « Danah Boyd ».

    Dans un article de Wikipédia, on peut lire qu’une personne souffre de voir certaines informations divulguées, comme un nom de naissance. Mais on ne peut pas lire une version de cet article où ce nom est caché par défaut. Cela ne concerne pas que des personnes ayant fait une transition mais aussi des artistes dont le nom d’origine fuite et se retrouve relayé par Wikipédia (j’ai un exemple en tête mais par politesse je ne le citerai pas).

    Bref, Wikipédia est à la fois très innovante et pas innovante du tout. En tant qu’organisation éditoriale, c’est une nouveauté (et une réussite) indéniable. Le modèle encyclopédique, lui, est beaucoup plus classique, surtout au regard de ce qu’on pourrait faire avec le Web, les ontologies, le balisage sémantique… À quand Wikipédia multiformats  ?

    –-

    Pour clore ce billet bien trop long, je tiens à exprimer un petit message de soutien (sans les nommer) aux collègues qui s’investissent dans Wikipédia. Ils et elles se reconnaîtront. J’admire leur courage et leur patience. Si j’ai qualifié Wikipédia de démocratie rhétorique, disserté sur l’illusion de la présomption de bonne foi et les confusions autour de la neutralité, imaginé des rebonds parmi les concepts de ma discipline, eh bien c’est d’abord parce qu’il y a des collègues qui travaillent dur en première ligne et qui font connaître leurs efforts. Alors on s’y intéresse, on découvre de nouvelles choses, on élabore ses propres idées. Mais surtout l’enjeu c’est de propager l’idée centrale des communs : l’auto-organisation des personnes concernées. Au-delà des éléments précis abordés dans ce billet, c’est surtout cette idée-là qui me semble importante et intéressante.
    Bibliographie
    Bruce, Davis, Hughes, Partridge et Stoodley (dir.). Information experience : approaches to theory and practice. Emerald, 2014. 978-1-78350-815-0.
    Buckland, Michael. « Information as thing ». Journal of the American Society for Information Science. 1991, Vol. 42, n° 5, p. 351‑360. https://doi.org/10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
    Cardon, Dominique. Culture numérique. Presses de Sciences Po, 2019. Les petites humanités. 978-2-7246-2365-9.
    Gorichanaz, Tim. « Information and experience, a dialogue ». Journal of Documentation. 2017, Vol. 73, n° 3, p. 500‑508. https://doi.org/10.1108/JD-09-2016-0114.
    Hess et Ostrom (dir.). Understanding knowledge as a commons : from theory to practice. MIT Press, 2007. 978-0-262-08357-7.
    Hjørland, Birger. « Classification ». Knowledge Organization. 2017, Vol. 44, n° 2, p. 97‑128. https://doi.org/10.5771/0943-7444-2017-2-97.
    Lévy, Pierre. L’intelligence collective : pour une anthropologie du cyberspace. La Découverte, 1997. 978-2-7071-2693-1.
    Merzeau, Louise. « De la communication aux communs ». InterCDI. 2016, n° 261, p. 29‑30. http://www.intercdi.org/de-la-communication-aux-communs.
    Shannon, Claude E. « A Mathematical Theory of Communication ». Bell System Technical Journal. 1948, Vol. 27, n° 3, p. 379‑423. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x.
    Wiener, Norbert. Cybernétique et société : l’usage humain des êtres humains. Trad. par Ronan Le Roux et Pierre Yves Mistoulon. Seuil, 2014 [1954]. 978-2-7578-4278-2.
    Wiener, Norbert. La cybernétique : information et régulation dans le vivant et la machine. Trad. par Ronan Le Roux, Robert Vallée et Nicole Vallée-Levi. Éditions du Seuil, 2014 [1948]. 978-2-02-109420-6.

    https://www.arthurperret.fr/blog/2024-03-08-wikipedia-democratie-rhetorique.html

    • #Sana_Boussetat, La Formule Wikipédia

      À l’heure où Wikipédia est entrée dans sa deuxième décennie et où les générations nées après les années 2000 n’auront pas connu d’avant Wikipédia, cet ouvrage propose de revenir sur l’œuvre qui est parvenue à dépoussiérer la norme et les usages bien pensés d’une tradition séculaire. Désormais, il est indéniable que l’avènement de Wikipédia a permis de franchir un cap vers une ère nouvelle où la connaissance et l’information ne s’écrivent plus exclusivement entre experts mais par le concours de rédacteurs bénévoles. Bouleversante, Wikipédia a osé modifier notre façon de rechercher la connaissance et, plus généralement, notre rapport au savoir. Mais sait-on vraiment ce qui se cache derrière un principe en apparence simple, celui d’une encyclopédie publiée sous licence libre et gratuite ? D’où nous vient ce concept hors norme ? Quels sont les fondements qui le régissent ? Comment s’organisent ses activités ? À quels rôles et quels moyens peut-on prétendre en rejoignant la communauté des wikipédiens ?

      Pensé comme un guide, cet ouvrage propose de revenir sur cette formule pionnière pour en offrir une description détaillée et un décryptage précis. Une entreprise indépendante dont l’unique but est d’aider le lecteur à appréhender un outil déjà bien installé dans les habitudes d’un grand nombre d’entre nous et qui façonne au quotidien notre information et notre connaissance du monde.

      https://www.fabula.org/actualites/119359/sana-boussetat-la-formule-wikipedia.html
      #livre

  • Border security with drones and databases

    The EU’s borders are increasingly militarised, with hundreds of millions of euros paid to state agencies and military, security and IT companies for surveillance, patrols and apprehension and detention. This process has massive human cost, and politicians are planning to intensify it.

    Europe is ringed by steel fences topped by barbed wire; patrolled by border agents equipped with thermal vision systems, heartbeat detectors, guns and batons; and watched from the skies by drones, helicopters and planes. Anyone who enters is supposed to have their fingerprints and photograph taken for inclusion in an enormous biometric database. Constant additions to this technological arsenal are under development, backed by generous amounts of public funding. Three decades after the fall of the Berlin Wall, there are more walls than ever at Europe’s borders,[1] and those borders stretch ever further in and out of its territory. This situation is the result of long-term political and corporate efforts to toughen up border surveillance and controls.

    The implications for those travelling to the EU depend on whether they belong to the majority entering in a “regular” manner, with the necessary paperwork and permissions, or are unable to obtain that paperwork, and cross borders irregularly. Those with permission must hand over increasing amounts of personal data. The increasing automation of borders is reliant on the collection of sensitive personal data and the use of algorithms, machine learning and other forms of so-called artificial intelligence to determine whether or not an individual poses a threat.

    Those without permission to enter the EU – a category that includes almost any refugee, with the notable exception of those who hold a Ukrainian passport – are faced with technology, personnel and policies designed to make journeys increasingly difficult, and thus increasingly dangerous. The reliance on smugglers is a result of the insistence on keeping people in need out at any cost – and the cost is substantial. Thousands of people die at Europe’s borders every year, families are separated, and people suffer serious physical and psychological harm as a result of those journeys and subsequent administrative detention and social marginalisation. Yet parties of all political stripes remain committed to the same harmful and dangerous policies – many of which are being worsened through the new Pact on Migration and Asylum.[2]

    The EU’s border agency, Frontex, based in Warsaw, was first set up in 2004 with the aim of providing technical coordination between EU member states’ border guards. Its remit has been gradually expanded. Following the “migration crisis” of 2015 and 2016, extensive new powers were granted to the agency. As the Max Planck Institute has noted, the 2016 law shifted the agency from a playing “support role” to acting as “a player in its own right that fulfils a regulatory, supervisory, and operational role.”[3] New tasks granted to the agency included coordinating deportations of rejected refugees and migrants, data analysis and exchange, border surveillance, and technology research and development. A further legal upgrade in 2019 introduced even more extensive powers, in particular in relation to deportations, and cooperation with and operations in third countries.

    The uniforms, guns and batons wielded by Frontex’s border guards are self-evidently militaristic in nature, as are other aspects of its work: surveillance drones have been acquired from Israeli military companies, and the agency deploys “mobile radars and thermal cameras mounted on vehicles, as well as heartbeat detectors and CO2 monitors used to detect signs of people concealed inside vehicles.”[4] One investigation described the companies that have held lobbying meetings or attended events with Frontex as “a Who’s Who of the weapons industry,” with guests including Airbus, BAE Systems, Leonardo and Thales.[5] The information acquired from the agency’s surveillance and field operations is combined with data provided by EU and third country agencies, and fed into the European Border Surveillance System, EUROSUR. This offers a God’s-eye overview of the situation at Europe’s borders and beyond – the system also claims to provide “pre-frontier situational awareness.”

    The EU and its member states also fund research and development on these technologies. From 2014 to 2022, 49 research projects were provided with a total of almost €275 million to investigate new border technologies, including swarms of autonomous drones for border surveillance, and systems that aim to use artificial intelligence to integrate and analyse data from drones, satellites, cameras, sensors and elsewhere for “analysis of potential threats” and “detection of illegal activities.”[6] Amongst the top recipients of funding have been large research institutes – for example, Germany’s Fraunhofer Institute – but companies such as Leonardo, Smiths Detection, Engineering – Ingegneria Informatica and Veridos have also been significant beneficiaries.[7]

    This is only a tiny fraction of the funds available for strengthening the EU’s border regime. A 2022 study found that between 2015 and 2020, €7.7 billion had been spent on the EU’s borders and “the biggest parts of this budget come from European funding” – that is, the EU’s own budget. The total value of the budgets that provide funds for asylum, migration and border control between 2021-27 comes to over €113 billion[8]. Proposals for the next round of budgets from 2028 until 2035 are likely to be even larger.

    Cooperation between the EU, its member states and third countries on migration control comes in a variety of forms: diplomacy, short and long-term projects, formal agreements and operational deployments. Whatever form it takes, it is frequently extremely harmful. For example, to try to reduce the number of people arriving across the Mediterranean, member states have withdrawn national sea rescue assets (as deployed, for example, in Italy’s Mare Nostrum operation) whilst increasing aerial surveillance, such as that provided by the Israel-produced drones operated by Frontex. This makes it possible to observe refugees attempting to cross the Mediterranean, whilst outsourcing their interception to authorities from countries such as Libya, Tunisia and Egypt.

    This is part of an ongoing plan “to strengthen coordination of search and rescue capacities and border surveillance at sea and land borders” of those countries. [9] Cooperation with Tunisia includes refitting search and rescue vessels and providing vehicles and equipment to the Tunisian coastguard and navy, along with substantial amounts of funding. The agreement with Egypt appears to be structured along similar lines, and five vessels have been provided to the so-called Libyan Coast Guard in 2023.[10]

    Frontex also plays a key role in the EU’s externalised border controls. The 2016 reform allowed Frontex deployments at countries bordering the EU, and the 2019 reform allowed deployments anywhere in the world, subject to agreement with the state in question. There are now EU border guards stationed in Albania, Montenegro, Serbia, Bosnia and Herzegovina, and North Macedonia.[11] The agency is seeking agreements with Niger, Senegal and Morocco, and has recently received visits from Tunisian and Egyptian officials with a view to stepping up cooperation.[12]

    In a recent report for the organisation EuroMed Rights, Antonella Napolitano highlighted “a new element” in the EU’s externalisation strategy: “the use of EU funds – including development aid – to outsource surveillance technologies that are used to entrench political control both on people on the move and local population.” Five means of doing so have been identified: provision of equipment; training; financing operations and procurement; facilitating exports by industry; and promoting legislation that enables surveillance.[13]

    The report highlights Frontex’s extended role which, even without agreements allowing deployments on foreign territory, has seen the agency support the creation of “risk analysis cells” in a number of African states, used to gather and analyse data on migration movements. The EU has also funded intelligence training in Algeria, digital evidence capacity building in Egypt, border control initiatives in Libya, and the provision of surveillance technology to Morocco. The European Ombudsman has found that insufficient attention has been given to the potential human rights impacts of this kind of cooperation.[14]

    While the EU and its member states may provide the funds for the acquisition of new technologies, or the construction of new border control systems, information on the companies that receive the contracts is not necessarily publicly available. Funds awarded to third countries will be spent in accordance with those countries’ procurement rules, which may not be as transparent as those in the EU. Indeed, the acquisition of information on the externalisation in third countries is far from simple, as a Statewatch investigation published in March 2023 found.[15]

    While EU and member state institutions are clearly committed to continuing with plans to strengthen border controls, there is a plethora of organisations, initiatives, campaigns and projects in Europe, Africa and elsewhere that are calling for a different approach. One major opportunity to call for change in the years to come will revolve around proposals for the EU’s new budgets in the 2028-35 period. The European Commission is likely to propose pouring billions more euros into borders – but there are many alternative uses of that money that would be more positive and productive. The challenge will be in creating enough political pressure to make that happen.

    This article was originally published by Welt Sichten, and is based upon the Statewatch/EuroMed Rights report Europe’s techno-borders.

    Notes

    [1] https://www.tni.org/en/publication/building-walls

    [2] https://www.statewatch.org/news/2023/december/tracking-the-pact-human-rights-disaster-in-the-works-as-parliament-makes

    [3] https://www.mpg.de/14588889/frontex

    [4] https://www.theguardian.com/global-development/2021/dec/06/fortress-europe-the-millions-spent-on-military-grade-tech-to-deter-refu

    [5] https://frontexfiles.eu/en.html

    [6] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [7] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [8] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [9] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-

    [10] https://www.statewatch.org/media/4103/eu-com-von-der-leyen-ec-letter-annex-10-23.pdf

    [11] https://www.statewatch.org/analyses/2021/briefing-external-action-frontex-operations-outside-the-eu

    [12] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-, https://www.statewatch.org/publications/events/secrecy-and-the-externalisation-of-eu-migration-control

    [13] https://privacyinternational.org/challenging-drivers-surveillance

    [14] https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf

    [15] https://www.statewatch.org/access-denied-secrecy-and-the-externalisation-of-eu-migration-control

    https://www.statewatch.org/analyses/2024/border-security-with-drones-and-databases
    #frontières #militarisation_des_frontières #technologie #données #bases_de_données #drones #complexe_militaro-industriel #migrations #réfugiés #contrôles_frontaliers #surveillance #sécurité_frontalière #biométrie #données_biométriques #intelligence_artificielle #algorithmes #smugglers #passeurs #Frontex #Airbus #BAE_Systems #Leonardo #Thales #EUROSUR #coût #business #prix #Smiths_Detection #Fraunhofer_Institute #Engineering_Ingegneria_Informatica #informatique #Tunisie #gardes-côtes_tunisiens #Albanie #Monténégro #Serbie #Bosnie-Herzégovine #Macédoine_du_Nord #Egypte #externalisation #développement #aide_au_développement #coopération_au_développement #Algérie #Libye #Maroc #Afrique_du_Nord

  • Médicaments non délivrés, devis et facturation en panne… Une cyberattaque perturbe sérieusement le système de santé aux États-Unis Ingrid Vergara

    La cyberattaque d’une filiale de la plus importante compagnie d’assurance-santé américaine tourne à la crise d’ampleur aux États-Unis. Victime d’un rançongiciel qui affecte une de ses divisions depuis le 21 février, le groupe UnitedHealthcare n’est plus en mesure d’assurer de nombreuses tâches nécessaires au bon fonctionnement du système de santé. Des médecins qui ne peuvent plus savoir si un patient bénéficie ou non d’une assurance-santé, des pharmacies incapables de transmettre les demandes de remboursement de patients, des factures d’hôpitaux non réglées, des retards dans les délivrances d’ordonnances de médicaments…

    Les réactions en chaîne s’étendent et s’aggravent au fur et à mesure que les jours passent. Car UnitedHealthcare est la plus grande plateforme d’échange de paiements entre médecins, pharmacies, prestataires de soins de santé et patients du système de santé américain. Sa filiale Change gère la facturation de quelque 67.000 pharmacies, . . . . .

    #Santé #internet #sécurité_informatique #cyberattaques #cybersécurité #malware #usa #UnitedHealthcare #algorithme #juste_à_temps #dématérialisation #intelligence_artificielle #artificial-intelligence #blockchain #IA

    Source et suite (payante) : https://www.lefigaro.fr/secteur/high-tech/medicaments-non-delivres-devis-et-facturation-en-panne-une-cyberattaque-per

  • ASMA MHALLA

    Les géants de la tech déploient une vision du monde cohérente, comme dans toute folie

    Dans l’essai « Technopolitique », la chercheuse à l’EHESS analyse la façon dont les grandes entreprises technologiques, avec leurs innovations ultrasophistiquées, redessinent les rapports de pouvoir avec l’Etat. Ce qui rend nécessaire une réponse démocratique.

    https://www.liberation.fr/idees-et-debats/asma-mhalla-les-geants-de-la-tech-deploient-une-vision-du-monde-coherente

    https://justpaste.it/bpo3a

  • Intelligence artificielle : la grande illusion de la régulation

    « Le tournant intellectuel et créatif de l’IA s’attaque à nos capacités les plus fondamentales. Les corps de métiers doivent se mobiliser pour définir ce qu’ils sont prêts à céder et à refuser à l’industrie numérique. Faute de quoi, on se réveillera dans un monde dans lequel nous serons étrangers »

    https://jpst.it/3C8e7

    #intelligence_articifielle #IA

  • Intelligence artificielle et traduction, l’impossible dialogue ?
    https://actualitte.com/article/115941/auteurs/intelligence-artificielle-et-traduction-l-impossible-dialogue

    Le recours à ces outils par des éditeurs n’est pas si exceptionnel, si bien que les professionnels craignent d’être relégués au rang de relecteurs des travaux de la machine.

    L’Association des traducteurs littéraires de France (ATLF) et l’Association pour la promotion de la traduction littéraire (ATLAS) rappelaient, en début d’année 2023 : « Tous ceux et celles qui pensent la traduction ou qui l’ont pratiquée le savent : on ne traduit pas des mots, mais une intention, des sous-entendus, l’équivoque, ce qui n’est pas dit et pourtant existe dans les plis d’un texte littéraire. »

    #Edition #Traduction #Intelligence_artificielle

  • 🌻 Tournesol Talks : Décrypter les enjeux du numérique avec des experts aujourd’hui rencontre avec Anne Alombert Maître de conférences en philosophie à l’Université Paris 8, spécialisée dans les rapports entre vie, technique et esprit. Elle a étudié à l’École Normale Supérieure de Lyon et est auteure d’une thèse sur Derrida et Simondon. Ses travaux explorent les enjeux des technologies contemporaines et elle a contribué au programme de recherche dirigé par Bernard Stiegler.

    Tournesol.app est un projet de recherche participatif sur l’éthique des systèmes de recommandation

    Comment ça marche ?
    – Regardez des vidéos sur la plateforme Tournesol.
    – Donnez votre avis sur chaque vidéo en répondant à un court questionnaire.
    – Aidez-nous à identifier les vidéos d’utilité publique qui devraient être largement recommandées.
    Pourquoi participer ?
    – Votre contribution est essentielle pour faire avancer la recherche sur l’éthique des systèmes de recommandation.
    – Participez à un projet citoyen qui vise à construire un numérique plus juste et plus responsable.
    – Donnez votre avis sur les contenus que vous souhaitez voir recommandés.

    En rejoignant le projet Tournesol, vous faites un geste concret pour un numérique plus riche, plus diversifié et plus humain.
    #IA #controverses #éthique #sciencespo #medialab #intelligenceartificielle #technologie #innovation #société #avenir
    https://www.youtube.com/watch?v=Z04ouls5yB4&feature=shared

  • L’IA : entre fascination et controverses ⚖️
    Plongez au cœur des débats brûlants autour de l’intelligence artificielle (IA) dans cette interview captivante avec Dominique Cardon, professeur de sociologie à Sciences Po, et Valérie Beaudouin, directrice d’études à l’EHESS. #IA #controverses #éthique #sciencespo #medialab #intelligenceartificielle #technologie #innovation #société #avenir
    Dans cet échange éclairant, ils explorent :
    – Les différentes formes de controverses liées à l’IA
    – Les défis de la régulation de ces technologies puissantes
    – Le rôle crucial de l’éthique dans le développement de l’IA
    – La responsabilité des mondes professionnels qui utilisent l’IA

    Visionnez cette interview incontournable pour mieux comprendre les enjeux de l’IA et participer à la construction de son avenir !
    https://www.youtube.com/watch?v=d-04sLEfcRE

    a voir aussi la revue réseaux : https://www.revue-reseaux.fr

  • Glüxkind AI Stroller - The Best Smart Stroller for your family
    https://gluxkind.com

    Autant de conneries en si peu d’espace... pas mal !!!
    Les enfants, nouvelle victimes de la prédation algorithmique.

    Unlock Your Helping hand

    Designed by parents with sky-high standards, our AI Powered Smart Strollers elevates the happy moments of daily parenting and lightens the stressful ones.

    Feel supported and savour moments of peace and quiet with features like Automatic Rock-My-Baby or the built-in White Noise Machine to help soothe your little one.

    #Poussette #Intelligence_artificielle #Parentalité

  • One big thing missing from the AI conversation | Zeynep Tufekci - GZERO Media
    https://www.gzeromedia.com/gzero-world-clips/one-big-thing-missing-from-the-ai-conversation-zeynep-tufekci

    When deployed cheaply and at scale, artificial intelligence will be able to infer things about people, places, and entire nations, which humans alone never could. This is both good and potentially very, very bad.

    If you were to think of some of the most overlooked stories of 2023, artificial intelligence would probably not make your list. OpenAI’s ChatGPT has changed how we think about AI, and you’ve undoubtedly read plenty of quick takes about how AI will save or destroy the planet. But according to Princeton sociologist Zeynep Tufekci, there is a super important implication of AI that not enough people are talking about.

    “Rather than looking at what happens between you and me if we use AI,” Tufekci said to Ian on the sidelines of the Paris Peace Forum, “What I would like to see discussed is what happens if it’s used by a billion people?” In a short but substantive interview for GZERO World, Tufekci breaks down just how important it is to think about the applications of AI “at scale” when its capabilities can be deployed cheaply. Tufekci cites the example of how AI could change hiring practices in ways we might not intend, like weeding out candidates with clinical depression or with a history of unionizing. AI at scale will demonstrate a remarkable ability to infer things that humans cannot, Tufekci explains.

    #Intelligence_artificielle #Zeynep_Tufekci

  • Le coût du travail humain reste généralement inférieur à celui de l’IA, d’après le MIT FashionNetwork.com ( Bloomberg )

    Pour le moment, employer des humains reste plus économique que de recourir à l’intelligence artificielle pour la majorité des emplois. C’est en tout cas ce qu’affirme une étude menée par le Massachusetts Institute of Technology, alors que bon nombre de secteurs se sentent menacés par les progrès faits par l’IA.

    Il s’agit de l’une des premières études approfondies réalisées à ce sujet. Les chercheurs ont établi des modèles économiques permettant de calculer l’attractivité de l’automatisation de diverses tâches aux États-Unis, en se concentrant sur des postes “digitalisables“, comme l’enseignement ou l’intermédiation immobilière.

    Source : https://fr.fashionnetwork.com/news/premiumContent,1597548.html

    #ia #intelligence_artificielle #algorithme #surveillance #ai #google #technologie #facebook #technologisme #travail #biométrie #bigdata #coût #MIT

  • Test Yourself : Which Faces Were Made by A.I.? - The New York Times
    https://www.nytimes.com/interactive/2024/01/19/technology/artificial-intelligence-image-generators-faces-quiz.html

    Faites le test (j’ai seulement eu 40% de bonnes réponses !!!).

    Distinguishing between a real versus an A.I.-generated face has proved especially confounding.

    Research published across multiple studies found that faces of white people created by A.I. systems were perceived as more realistic than genuine photographs of white people, a phenomenon called hyper-realism.

    Researchers believe A.I. tools excel at producing hyper-realistic faces because they were trained on tens of thousands of images of real people. Those training datasets contained images of mostly white people, resulting in hyper-realistic white faces. (The over-reliance on images of white people to train A.I. is a known problem in the tech industry.)

    The confusion among participants was less apparent among nonwhite faces, researchers found.

    Participants were also asked to indicate how sure they were in their selections, and researchers found that higher confidence correlated with a higher chance of being wrong.

    “We were very surprised to see the level of over-confidence that was coming through,” said Dr. Amy Dawel, an associate professor at Australian National University, who was an author on two of the studies.

    “It points to the thinking styles that make us more vulnerable on the internet and more vulnerable to misinformation,” she added.

    #Intelligence_artificielle #faux_portraits

  • Usbek & Rica - Détournement, droit d’auteur… 5 outils pour embrouiller les IA
    https://usbeketrica.com/fr/article/detournement-droit-d-auteur-5-outils-pour-embrouiller-les-ia

    « ChatGPT n’est qu’une version très poussée et à très grande échelle de tout ce qu’on sait faire depuis longtemps en termes d’apprentissage automatique. » Ainsi l’historien américain Fred Turner, auteur de plusieurs études primées sur l’impact des nouvelles technologies sur la culture américaine, résume-t-il dans nos colonnes son scepticisme face à l’emballement médiatique autour de l’intelligence artificielle.

    Il n’empêche : comme Fred Turner le reconnaît lui-même, l’émergence de ChatGPT, Dall-E et autres MidJourney achève de nous faire basculer dans un monde où cette « très grande échelle » change à peu près tout, notamment du point de vue de la création.

    Articles écrits par des robots, illustrations générées par quelques lignes de code… Derrière ces prouesses apparentes, on retrouve des algorithmes d’apprentissage automatique, bâtis à partir d’immenses bases de données en ligne plutôt banales, pas toujours protégées… et donc potentiellement faillibles. Pour envoyer balader ces systèmes, faire valoir leurs droits ou tout simplement sécuriser leurs données, certains ingénieurs bâtissent depuis quelques mois des outils en tout genre, du site amateur au logiciel professionnel. Nous en avons recensé cinq.

    #Fred_Turner #Intelligence_artificielle

  • A “robot” should be chemical, not steel, argues man who coined the word | Ars Technica
    https://arstechnica.com/information-technology/2024/01/a-robot-should-be-chemical-not-steel-argues-man-who-coined-the-word

    In 1921, Czech playwright Karel Čapek and his brother Josef invented the word “robot” in a sci-fi play called R.U.R. (short for Rossum’s Universal Robots). As Even Ackerman in IEEE Spectrum points out, Čapek wasn’t happy about how the term’s meaning evolved to denote mechanical entities, straying from his original concept of artificial human-like beings based on chemistry.

    In a newly translated column called “The Author of the Robots Defends Himself,” published in Lidové Noviny on June 9, 1935, Čapek expresses his frustration about how his original vision for robots was being subverted. His arguments still apply to both modern robotics and AI. In this column, he referred to himself in the third-person:

    #Intelligence_artificielle #Robots #Karel_Capek

  • Two-thirds of Americans say AI could do their job | Fox Business
    https://www.foxbusiness.com/technology/two-thirds-americans-say-ai-can-do-their-job

    Intéressant de comparer ce « ressenti » des travailleurs avec la réalité des menaces telle que montrée au même moment par l’étude du MIT.
    Ne serait-ce pas chez les travailleurs le sentiment d’exercer des « Bullshit jobs » ?

    A recent survey conducted by Spokeo found that despite seeing the potential benefits of AI, 66.6% of the 1,027 respondents admitted AI could carry out their workplace duties, and 74.8% said they were concerned about the technology’s impact on their industry as a whole.
    outlines of humans in an office

    A recent survey by Spokeo found most American workers believe AI could do their jobs, but they still see benefits of the technology in the long term. (iStock / iStock)

    “After a year of headlines about AI taking over the world, it’s no surprise that 2 in 3 now think that AI could do their job,” Spokeo CEO Harrison Tang told FOX Business. “We never would have dreamed of how impactful ChatGPT would be on the world.”

    WHAT IS ARTIFICIAL INTELLIGENCE (AI)?

    “Whether it’s because people realize that a lot of work can be easily automated, or they believe the hype in the media that AI is more advanced and powerful than it is, the AI box has now been opened.”

    #Intelligence_artficielle #Travail #Bullshit_jobs

  • New MIT CSAIL study suggests that AI won’t steal as many jobs as expected | TechCrunch
    https://techcrunch.com/2024/01/22/new-mit-csail-study-suggests-that-ai-wont-steal-as-many-jobs-expected

    Will AI automate human jobs, and — if so — which jobs and when?

    That’s the trio of questions a new research study from MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL), out this morning, tries to answer.

    There’s been many attempts to extrapolate out and project how the AI technologies of today, like large language models, might impact people’s’ livelihoods — and whole economies — in the future.

    Goldman Sachs estimates that AI could automate 25% of the entire labor market in the next few years. According to McKinsey, nearly half of all work will be AI-driven by 2055. A survey from the University of Pennsylvania, NYU and Princeton finds that ChatGPT alone could impact around 80% of jobs. And a report from the outplacement firm Challenger, Gray & Christmas suggests that AI is already replacing thousands of workers.

    But in their study, the MIT researchers sought to move beyond what they characterize as “task-based” comparisons and assess how feasible it is that AI will perform certain roles — and how likely businesses are to actually replace workers with AI tech.

    Contrary to what one (including this reporter) might expect, the MIT researchers found that the majority of jobs previously identified as being at risk of AI displacement aren’t, in fact, “economically beneficial” to automate — at least at present.

    The key takeaway, says Neil Thompson, a research scientist at MIT CSAIL and a co-author on the study, is that the coming AI disruption might happen slower — and less dramatically — than some commentators are suggesting.

    Early in the study, the researchers give the example of a baker.

    A baker spends about 6% of their time checking food quality, according to the U.S. Bureau of Labor Statistics — a task that could be (and is being) automated by AI. A bakery employing five bakers making $48,000 per year could save $14,000 were it to automate food quality checks. But by the study’s estimates, a bare-bones, from-scratch AI system up to the task would cost $165,000 to deploy and $122,840 per year to maintain . . . and that’s on the low end.

    “We find that only 23% of the wages being paid to humans for doing vision tasks would be economically attractive to automate with AI,” Thompson said. “Humans are still the better economic choice for doing these parts of jobs.”

    Now, the study does account for self-hosted, self-service AI systems sold through vendors like OpenAI that only need to be fine-tuned to particular tasks — not trained from the ground up. But according to the researchers, even with a system costing as little as $1,000, there’s lots of jobs — albeit low-wage and multitasking-dependent — that wouldn’t make economic sense for a business to automate.

    #Intelligence_artificielle #travail

  • Le #règlement européen sur l’IA n’interdira pas la #surveillance_biométrique de masse

    Le 8 décembre 2023, les législateurs de l’#Union_européenne se sont félicités d’être parvenus à un accord sur la proposition de #règlement tant attendue relative l’intelligence artificielle (« #règlement_IA »). Les principaux parlementaires avaient alors assuré à leurs collègues qu’ils avaient réussi à inscrire de solides protections aux #droits_humains dans le texte, notamment en excluant la #surveillance_biométrique_de_masse (#SBM).

    Pourtant, malgré les annonces des décideurs européens faites alors, le règlement IA n’interdira pas la grande majorité des pratiques dangereuses liées à la surveillance biométrique de masse. Au contraire, elle définit, pour la première fois dans l’#UE, des conditions d’utilisation licites de ces systèmes. Les eurodéputés et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.

    L’UE entre dans l’histoire – pour de mauvaises raisons

    La coalition #Reclaim_Your_Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquées de par leur conception, et qu’elles n’ont pas leur place dans une société démocratique. La police et les autorités publiques disposent déjà d’un grand nombre de données sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos #visages et nos #corps sur simple pression d’un bouton.

    Pourtant, malgré une position de négociation forte de la part du Parlement européen qui demandait l’interdiction de la plupart des pratiques de SBM, très peu de choses avaient survécu aux négociations du règlement relatif à l’IA. Sous la pression des représentants des #forces_de_l’ordre, le Parlement a été contraint d’accepter des limitations particulièrement faibles autour des pratiques intrusives en matière de SBM.

    L’une des rares garanties en la matière ayant apparemment survécu aux négociations – une restriction sur l’utilisation de la #reconnaissance_faciale a posteriori [par opposition à l’utilisation en temps réel] – a depuis été vidée de sa substance lors de discussions ultérieures dites « techniques » qui se sont tenues ces dernière semaines.

    Malgré les promesses des représentants espagnols en charge des négociations, qui juraient que rien de substantiel ne changerait après le 8 décembre, cette édulcoration des protections contre la reconnaissance faciale a posteriori est une nouvelle déception dans notre lutte contre la #société_de_surveillance.

    Quel est le contenu de l’accord ?

    D’après ce que nous avons pu voir du texte final, le règlement IA est une occasion manquée de protéger les #libertés_publiques. Nos droits de participer à une #manifestation, d’accéder à des soins de #santé_reproductive ou même de nous asseoir sur un #banc pourraient ainsi être menacés par une surveillance biométrique omniprésente de l’#espace_public. Les restrictions à l’utilisation de la reconnaissance faciale en temps réel et a posteriori prévues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privées ni aux autorités administratives.

    Nous sommes également déçus de voir qu’en matière de « #reconnaissance_des_émotions » et les pratiques de #catégorisation_biométrique, seuls des cas d’utilisation très limités sont interdits dans le texte final, avec d’énormes lacunes.

    Cela signifie que le règlement IA autorisera de nombreuses formes de reconnaissance des émotions – telles que l’utilisation par la police de systèmes d’IA pour évaluer qui dit ou ne dit pas la #vérité – bien que ces systèmes ne reposent sur aucune base scientifique crédible. Si elle est adoptée sous cette forme, le règlement IA légitimera une pratique qui, tout au long de l’histoire, a partie liée à l’#eugénisme.

    Le texte final prévoit également d’autoriser la police à classer les personnes filmées par les caméras de #vidéosurveillance en fonction de leur #couleur_de_peau. Il est difficile de comprendre comment cela peut être autorisé étant donné que la législation européenne interdit normalement toute #discrimination. Il semble cependant que, lorsqu’elle est pratiquée par une machine, les législateurs considèrent de telles #discriminations comme acceptables.

    Une seule chose positive était ressorti des travaux techniques menés à la suite des négociations finales du mois de décembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait à la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face » ait réclamé des règles encore plus strictes en la matière, cela constituait un progrès significatif par rapport à la situation actuelle, caractérisée par un recours massif à ces pratiques par les États membres de l’UE.

    Il s’agissait d’une victoire pour le Parlement européen, dans un contexte où tant de largesses sont concédées à la surveillance biométrique. Or, les négociations menées ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement à accepter de supprimer cette limitation aux #crimes_transfrontaliers graves tout en affaiblissant les garanties qui subsistent. Désormais, un vague lien avec la « #menace » d’un crime pourrait suffire à justifier l’utilisation de la #reconnaissance_faciale_rétrospective dans les espaces publics.

    Il semblerait que ce soit la #France qui ait mené l’offensive visant à faire passer au rouleau compresseur notre droit à être protégés contre les abus de nos données biométriques. À l’approche des #Jeux_olympiques et paralympiques qui se tiendront à Paris cet été, la France s’est battue pour préserver ou étendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systèmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux négociateurs du Parlement n’ont pas réussi à la contrer dans cette démarche.

    En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous #surveillance_algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.

    https://www.laquadrature.net/2024/01/19/le-reglement-europeen-sur-lia-ninterdira-pas-la-surveillance-biometriq
    #surveillance_de_masse #surveillance #intelligence_artificielle #AI #IA #algorithme

    voir aussi :
    https://seenthis.net/messages/1037288

  • Chile searches for those missing from Pinochet dictatorship with the help of artificial intelligence

    At the end of August, Chilean president Gabriel Boric launched the Search Plan for more than 1,000 Chileans. Today, old judicial documents, many typewritten, have been digitized to apply cutting edge technology and cross-reference data.

    On Monday 15 January, at the inauguration of the “Congress of the Future” in Santiago, President Gabriel Boric stated that artificial intelligence, the theme of the 13th version of the conference, “will play an important role in the search for our #missing detainees.” He was referring to the #Search_Plan to find over 1,000 individuals who were victims of the Augusto Pinochet dictatorship (1973-1990), which his Administration presented on August 30, 2023, on the eve of the September 11 commemoration of the 50th anniversary of the coup d’état that ousted Salvador Allende, the socialist president.

    The plan, spearheaded by Justice Minister Luis Cordero, is an initiative that is intended to become a permanent State policy. According to Justice data, after the dictatorship in Chile there were 1,469 victims of forced disappearance and of these, 1,092 are missing detainees, while 377, who were executed, are missing as well. So far only 307 have been identified.

    To embark on this new search, which has already been initiated by the courts, Cordero tells EL PAÍS that he is working with two main sources. On the one hand, the judicial investigations, which comprise millions of pages. And on the other, the administrative records of the cases that are scattered around state agencies. These include the Human Rights Program, created in 1997, which falls under the Ministry of Justice, as well as previous investigations in military Prosecutor’s Offices (which used to close the cases) and the files that provided the basis for the 1991 National Commission for Truth and Reconciliation Report, driven by the former president, Patricio Aylwin (1990-1994), and in which an account of the victims was given for the first time.

    Typewritten documents

    Unsholster, a company specialized in data analysis, data science and software development, whose general manager is the civil engineer Antonio Díaz-Araujo, is behind the technological analysis of the information. The Human Rights Program has already digitalized the information, while the Judicial Branch is 80% digitalized. The firm was awarded the project in a bidding process in the context of the Search Plan — it is in charge of the implementation of artificial intelligence.

    Something of relevance in this investigation is that the judicial files, separated according to each case, were processed in the old Chilean justice system (changed in 2005), which implies that the judges’ inquiries are on paper — most of them have the pages sewn into a notebook by hand, written on typewriters, and there are even several handwritten parts. These are the ones containing statements, black and white photographs, photocopies of photos, forensic reports and old police reports.

    However, in addition, the judicial inquiries that have been undertaken since 2000 will provide a more up-to-date and crucial basis of information in the analysis. Since then, hundreds of cases that had been shelved during the dictatorship have been reopened by judges with exclusive dedication to cases of human rights violations with sentences.

    Cordero points out that “there is a lot of information in the hands of the State and there is no human capacity to process it, because it needs to be interconnected. For example, there are testimonies that appear in some files and not in others. And, in addition, depending on the judges, there were lines of investigation, so there may have been precedents that were useful for some and not for others.” For this reason, the justice minister says artificial intelligence can play a key role, as he believes that in these cases, the cross-referencing of information will be crucial.

    “All that information is in judicial and administrative files, and what digitization accomplishes first is to integrate them in one place. And then to work with artificial intelligence, which allows us to reduce the investigation gaps using algorithms, which are being tested, and which can read, for example, dates, names, places, for instance, in those files,” the minister adds.
    4.7 million pages and counting

    Unsholster is currently in the pre-project stage, before it starts programming, Díaz-Araujo explains to EL PAÍS. “But we have already touched on most of the file types that we will need to deal with,” he says. The documents that have been coming in, scanned sheet by sheet, are in folders, in PDF format, and therefore do not correspond to a logic that allows data to be searched because they are recorded as images. For this reason, the first step has been to start applying OCR (Optical Character Recognition) technology so that they can be transformed into data.

    They already have information — which does not yet include the thousands of files of the Judicial Branch — totaling 46,768 PDF files, which amounts to more than 4.7 million pages. “If a person were to read every one of those pages, out loud and without understanding or relating facts, they would probably spend eight hours a day reading for 27 years,” explains the civil engineer.

    Once those files are moved to pages, Díaz-Araujo says, “a big classification tree is created, which allows you to classify pages that have images, manuscripts, typewritten pages, or Word-style files. And then you start to apply, on each one of them, the best OCR” for each type of page, because the key, he adds, lies in “what material is brought to each one.”

    Another stage, he explains, is to create different types of dictionaries and entities “that can be learned with use.” For example, nicknames of people, places, streets (many have changed names since the dictatorship), ways of writing and dates.

    This implies, he says, creating a topology of entities in the reading, using technology, of each of the texts “that is capable of rapidly correlating different pages, people, places and dates in a highly flexible way.” He gives an example: “Many of the offenders may have nicknames, and several of them may be written in different ways, but that doesn’t mean that they won’t be linked. What you do is create technology that is capable of suggesting other correlations to the analyst as they occur over time.”

    Therefore, he elaborates, “there is artificial intelligence in the classification of documents; there is high intelligence in transforming documents from an image to searchable data and then, there is a lot of it, in the creation of entities that enable the connection of some documents with others. And, finally, the most necessary thing in a platform is that it should be about the possibility of competing algorithms, with artificial intelligence or without, on this data. But it should not be bound to a technology, because the biggest issue is being open to new technologies of the future. If you keep it closed, it becomes a stumbling block.”

    He continues: “Another key point of this platform is that the original data, and the transformed data, are retained. But you can continue to create other data on top of that. There is no time machine that kind of freezes the ability to produce more algorithms and more information with new platforms in the future.”
    Contreras and Krassnoff

    Five months after technology was first applied to the nearly 47,000 documents of Unsholster’s Human Rights Program, it is already possible, thanks to the implementation of the initial OCR on the identification documents, to find thousands of mentions of at least four military officers who were part of Pinochet’s secret police, the feared DINA (National Intelligence Directorate).

    Manuel Contreras, its director general, sentenced at the time of his death in 2015 to 526 years in prison for hundreds of crimes, appears 2,800 times; Pedro Espinoza and Miguel Krassnoff, both serving sentences in Punta Peuco prison, 2,079 and 2,954 mentions, respectively. And Marcelo Moren Brito, who was the torturer of Ángela Jeria, the mother of former socialist president, Michelle Bachelet, 2,284 times.

    For now they are only mentions. But from now on, names, facts, dates and places can be linked and related, says Díaz-Araujo.

    https://english.elpais.com/international/2024-01-18/chile-searches-for-those-missing-from-pinochet-dictatorship-with-the

    #Chili #intelligence_artificielle #identification #fosses_communes #dictature #AI #IA

  • La #CSNP invite à mieux anticiper l’impact de l’#IA sur la société
    https://www.banquedesterritoires.fr/la-csnp-invite-mieux-anticiper-limpact-de-lia-sur-la-societe

    Après un premier avis en 2020 sur l’#intelligence_artificielle (IA) centré sur sa dimension économique, la commission supérieure du numérique et des postes (CSNP) revient sur le sujet dans son avis(https://csnp.fr/wp-content/uploads/2024/01/AVIS-N%C2%B02024-01-du-17-JANVIER-2024-pour-mieux-encadrer-lusage-de-lintellige) n°2024-01 du 17 janvier 2024. Les parlementaires insistent plus particulièrement sur les enjeux sociétaux de l’IA, le tsunami de l’#IA_générative étant passé par là. Signé de Mireille Clapot, députée de la Drôme et présidente de la CSNP, l’avis souligne l’urgence à réguler l’IA tout en invitant les pouvoirs publics à amortir ses effets sociétaux et à contribuer à l’émergence d’une IA frugale.

    #régulation #formation #administrations_publiques

  • Les dames de l’algorithme
    https://www.radiofrance.fr/franceinter/podcasts/le-code-a-change/le-code-a-change-6-5342040

    Absolument passionnant !

    L’histoire d’un groupe « d’annotatrices » qui entraînent un programme d’IA sur un programme d’anonymisation automatique des décisions de justice qui doivent maintenant être accessibles à tous.

    C’est l’histoire d’une jeune chercheuse qui se lance dans une thèse de sociologie sur l’Intelligence artificielle dans la Justice française. Par un mélange de hasard et de persévérance, elle tombe sur un « terrain » assez inattendu. Quelques bureaux du Palais de Justice, sur l’île de la Cité, à Paris, où on entraîne un algorithme auto-apprenant.

    #Intelligence_artificielle #Justice #Annotation

  • FDA Clearance Granted for First AI-Powered Medical Device to Detect All Three Common Skin Cancers (Melanoma, Basal Cell Carcinoma and Squamous Cell Carcinoma) | Business Wire
    https://www.businesswire.com/news/home/20240117116417/en/FDA-Clearance-Granted-for-First-AI-Powered-Medical-Device-to-Detect-Al

    Bon, c’est avant tout un article promotionnel (i.e. faites plus souvent le test). Mais cela souligne des avancées du matériel médical grace à l’IA.

    MIAMI—(BUSINESS WIRE)—DermaSensor Inc. announces FDA clearance for its real-time, non-invasive skin cancer evaluation system. For the first time, the 300,000 primary care physicians in the U.S. can now be equipped to provide quantitative, point-of-care testing for all types of skin cancer. Better identifying skin cancer in a primary care setting is designed to accelerate patient access to necessary care.

    #Intelligence_artificielle #Cancer #Médecine

  • Zuckerberg’s Meta Is Spending Billions To Buy 350,000 Nvidia H100 GPUs | PCMag
    https://www.pcmag.com/news/zuckerbergs-meta-is-spending-billions-to-buy-350000-nvidia-h100-gpus

    But to get there, Meta is going to need Nvidia’s H100, an enterprise GPU that’s adept at training large language models. “We’re building an absolutely massive amount of infrastructure to support this,” Zuckerberg said. “By the end of this year, we’re going to have around 350,000 Nvidia H100s. Or around 600,000 H100 equivalents of compute if you include other GPUs.”

    #meta #business #ia #intelligence_artificielle #investissement

  • One-Third of Game Developers Say Their Company Was Hit By Layoffs Last Year - IGN
    https://www.ign.com/articles/one-third-of-game-developers-say-their-company-was-hit-by-layoffs-last-year

    In stark contrast to a year of blockbuster video game hits, one of the biggest ongoing industry trends in 2023 was the prevalence of mass layoffs. While actual figures are difficult to get ahold of, estimates suggest the number of workers laid off in games last year approached or exceeded 10,000, and 2024 isn’t looking much better. Now, a GDC survey of developers suggests that one-third of all game developers were impacted by layoffs last year, either directly or by witnessing them happen at their company.

    L’article traite par ailleurs d’IA et de chaîne de blocs basés aussi sur la même enquête de la GDC.

    #jeu_vidéo #jeux_vidéo #business #ressources_humaines #licenciements #blockchain #ia #intelligence_artificielle