Belgian beer study acquires taste for machine learning • The Register
▻https://www.theregister.com/2024/03/27/belgian_beer_machine_learning
Researchers reckon results could improve recipe development for food and beverages
icon
Lindsay Clark
Wed 27 Mar 2024 // 11:45 UTC
Joining the list of things that probably don’t need improving by machine learning but people are going to try anyway is Belgian beer.
The ale family has long been a favorite of connoisseurs worldwide, yet one group of scientists decided it could be brewed better with the assistance of machine learning.
In a study led by Michiel Schreurs, a doctoral student at Vlaams Instituut voor Biotechnologie (VIB) in Flanders, the researchers wanted to help develop new alcoholic and non-alcoholic beer flavors with higher rates of consumer appreciation.
Understanding the relationship between beer chemistry and its taste can be a tricky task. Much of the work is trial and error and relies on extensive consumer testing.
#Intelligence_artificielle #Bière #Bullshit #Statistiques_fantasques
]]>#Wauquiez veut surveiller les #trains et #lycées régionaux avec l’#intelligence_artificielle
#Laurent_Wauquiez a fait voter le déploiement de la #vidéosurveillance_algorithmique dans tous les lycées et trains d’#Auvergne-Rhône-Alpes, profitant de l’#expérimentation accordée aux #Jeux_olympiques de Paris.
Laurent Wauquiez savoure. « Nous avions pris position sur la vidéosurveillance pendant la campagne des régionales. Depuis, les esprits ont bougé », sourit le président de la région Auvergne-Rhône-Alpes, en référence à l’expérimentation de la #vidéosurveillance algorithmique (#VSA) accordée dans le cadre des Jeux olympiques de Paris. Surfant sur l’opportunité, il a fait voter jeudi 21 mars en Conseil régional sa propre expérimentation de vidéosurveillance « intelligente » des lycées et des trains d’Auvergne-Rhône-Alpes.
L’ancien patron des Républicains (LR) justifie cette avancée technosécuritaire par l’assassinat du professeur #Dominique_Bernard dans un lycée d’Arras en octobre. Pour l’élu, cette tragédie « confirme la nécessité de renforcer la #sécurité des lycées ».
Reste que cette expérimentation n’est pour l’instant pas légale. Laurent Wauquiez va demander au Premier ministre, Gabriel Attal, la permission d’élargir la loi pour couvrir les lycées et les transports régionaux. « L’expérimentation des JO est faite pour tester ce qui sera appliqué. Il faut en profiter », défend Renaud Pfeffer, vice-président délégué à la sécurité de la région Auvergne-Rhône-Alpes.
Selon la délibération votée par le Conseil régional, cette #technologie qui combine vidéosurveillance et intelligence artificielle peut détecter huit types d’événements prédéterminés : « le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante, un colis abandonné. » Les événements sont ensuite vérifiés par un agent, qui décide des mesures à prendre.
L’expérimentation doit durer deux ans
L’exécutif régional promet d’utiliser cette vidéosurveillance algorithmique « sans mettre en œuvre de reconnaissance faciale, ni d’identification de données biométriques [qui permettent d’identifier une personne]. » « On est sur du situationnel, pas sur de l’individu », insiste #Renaud_Pfeffer. Des promesses auxquelles ne croit pas Marne Strazielle, directrice de la communication de l’association de défense des droits et libertés sur internet La Quadrature du net. « En réalité, l’#algorithme identifie des actions qui peuvent être rattachées à son auteur », insiste-t-elle.
Cette expérimentation est programmée pour durer deux ans dans les trains, #gares, lycées et #cars_scolaires. Les flux vidéos seront examinés au #Centre_régional_de_surveillance_des_transports (#CRST) aménagé en gare de Lyon Part-Dieu. « Les caméras sont prêtes », assure Renaud Pfeffer. Depuis son arrivée à la tête de la Région en 2016, Laurent Wauquiez l’a généreusement équipée en vidéosurveillance : 129 gares sont surveillées par 2 300 caméras, dont les images sont visionnées en temps réel au CRST. 285 lycées, 750 cars et la totalité des rames ferroviaires sont également équipés.
« L’illusion d’avoir une approche pratique de l’insécurité »
Pour défendre son projet, l’exécutif régional s’appuie sur la loi du 19 mai 2023, adoptée pour les Jeux olympiques de Paris et qui autorise l’expérimentation à grande échelle de la VSA par la police nationale jusqu’au 31 mars 2025. « On n’a le droit à la sécurité que pendant les Jeux olympiques et que à Paris ? On ne peut pas tester [la VSA] pour nos enfants, contre les problèmes de drogue ? », s’offusque Laurent Wauquiez.
« Cette technologie permet aux décideurs politiques d’offrir l’illusion d’avoir une approche pratique de l’insécurité car ils mettent en place un dispositif, dénonce Marne Strazielle. Mais ce n’est pas parce qu’on enregistre et détecte une action dans l’espace public qu’elle va moins se produire. Souvent, cela ne fait que déplacer le problème. Il faut faire le travail de comprendre pourquoi elle s’est produite et comment la réduire. »
La #Commission_nationale_de_l’informatique_et_des_libertés (#Cnil), qui n’a pas été consultée par l’équipe de Laurent Wauquiez, rappelle à Reporterre sa position de principe, qui « considère que la mise en œuvre de caméras augmentées conduit fréquemment à limiter les droits des personnes filmées ». Pour l’autorité administrative indépendante, « le déploiement de ces dispositifs dans les espaces publics, où s’exercent de nombreuses libertés individuelles (liberté d’aller et venir, d’expression, de réunion, droit de manifester, liberté de culte, etc.), présente incontestablement des risques pour les droits et libertés fondamentaux des personnes et la préservation de leur anonymat ».
▻https://reporterre.net/Wauquiez-veut-surveiller-les-trains-et-lycees-regionaux-avec-l-intellige
#surveillance #IA #AI #France #JO #JO_2024
Five of this year’s Pulitzer finalists are AI-powered | Nieman Journalism Lab
▻https://www.niemanlab.org/2024/03/five-of-this-years-pulitzer-finalists-are-ai-powered
Two of journalism’s most prestigious prizes — the Pulitzers and the Polk awards — on how they’re thinking about entrants using generative AI.
By Alex Perry March 11, 2024, 10:31 a.m.
Five of the 45 finalists in this year’s Pulitzer Prizes for journalism disclosed using AI in the process of researching, reporting, or telling their submissions, according to Pulitzer Prize administrator Marjorie Miller.
It’s the first time the awards, which received around 1,200 submissions this year, required entrants to disclose AI usage. The Pulitzer Board only added this requirement to the journalism category. (The list of finalists is not yet public. It will be announced, along with the winners, on May 8, 2024.)
Miller, who sits on the 18-person Pulitzer board, said the board started discussing AI policies early last year because of the rising popularity of generative AI and machine learning.
“AI tools at the time had an ‘oh no, the devil is coming’ reputation,” she said, adding that the board was interested in learning about AI’s capabilities as well as its dangers.
Last July — the same month OpenAI struck a deal with the Associated Press and a $5 million partnership with the American Journalism Project — a Columbia Journalism School professor was giving the Pulitzer Board a crash course in AI with the help of a few other industry experts.
Mark Hansen, who is also the director of the David and Helen Gurley Brown Institute for Media Innovation, wanted to provide the board with a broad base of AI usage in newsrooms from interrogating large datasets to writing code for web-scraping large language models.
He and AI experts from The Marshall Project, Harvard Innovation Labs, and Center for Cooperative Media created informational videos about the basics of large language models and newsroom use cases. Hansen also moderated a Q&A panel featuring AI experts from Bloomberg, The Markup, McClatchy, and Google.
Miller said the board’s approach from the beginning was always exploratory. They never considered restricting AI usage because they felt doing so would discourage newsrooms from engaging with innovative technology.
“I see it as an opportunity to sample the creativity that journalists are bringing to generative AI, even in these early days,” said Hansen, who didn’t weigh in directly on the new awards guideline.
While the group focused on generative AI’s applications, they spent substantial time on relevant copyright law, data privacy, and bias in machine learning models. One of the experts Hansen invited was Carrie J. Cai, a staff research scientist in Google’s Responsible AI division who specializes in human-computer interaction.
]]>Ketty Introduces AI Book Designer: Revolutionizing Book Production
▻https://www.robotscooking.com/ketty-ai-designer
Effortless Book Design with AI
The AI Book Designer introduces a groundbreaking approach to book design by allowing users to style and format their books using simple, intuitive commands. Users can say “make the book look modern”, “make the text more readable” or click on a chapter title and instruct the AI to “add this to the header,” and the changes are applied instantly. This eliminates the need for knowing complex design software or coding, making professional-grade design accessible to everyone.
Where we are headed
As we look towards the future development of the AI Book Designer, there are several ideas we are currently thinking about:
AI-Generated Cover Designs: Generate a range of cover options based on user input.
Collaborative AI Design: Enable multiple users to work on the same book design simultaneously (concurrently). This feature could be particularly useful for larger publishing teams or co-authored projects.
AI-Assisted Image Management: Automatically apply styles and optimize the placement of images within the book layout.
Join the Movement
Coko believes AI has the potential to transform book production, making it accessible and efficient for everyone. By combining open-source code and principles with cutting-edge technology, Coko is paving the way for a new era of automated typesetting and book design.
]]>#Wikipédia, #démocratie_rhétorique
Depuis quelques années, des discussions ont lieu dans la version francophone de Wikipédia pour essayer d’aboutir à des conventions de styles relatives à la #transidentité, comme dans la version anglophone. Début 2024, un #sondage interne à Wikipédia a été ouvert à propos de la mention du nom de naissance pour les personnes trans. Ce sondage a suscité presque immédiatement la #polémique. L’affaire a été beaucoup discutée sur Mastodon et s’est retrouvée dans la presse.
Jusque-là, mon rapport à Wikipédia était assez banal : consultation fréquente (plusieurs fois par semaines, voire par jour) mais pas de contribution. Il faut dire que j’avais retenu la leçon vécue par Marc Jahjah : il vaut mieux s’être bien renseigné sur le fonctionnement de Wikipédia avant de contribuer, car c’est rempli de patrouilleurs indélicats. Et pour présenter rapidement Wikipédia en cours, une compréhension de surface suffit.
Arrive cette controverse sur le nom des personnes trans. Parce que je connais quelques universitaires impliqués dans les débats, j’ai commencé à parcourir les pages de discussion, par curiosité. Et parce qu’il est indispensable de se renseigner sur le fonctionnement de Wikipédia pour décoder ces discussions, notamment tous les sigles employés, je me suis mis à parcourir toutes les pages qui décrivent le projet Wikipédia, notamment sa hiérarchie des #normes (#principes_fondateurs, #règles et #recommandations).
Dans la foulée, quelques personnes ont publié des analyses : « contradiction entre volonté de #transparence et d’#entre-soi » ; « désillusion de l’#intelligence_collective »… c’est là que les roues se sont mises à tourner à toute vitesse dans ma tête.
Attention : ce qui suit, ce sont mes élucubrations personnelles. Si je les partage, c’est parce qu’elle ne recoupent pas ce que j’ai pu lire ailleurs. Coïncidence, ces jours-ci sort un livre de Sana Boussetat intitulé La formule Wikipédia . Je vois dans la table des matières que quelques pages portent sur le débat participatif et la gestion des conflits, il va en être question dans ce billet… En m’exprimant sur un sujet qui n’est pas ma spécialité, je risque un peu la sortie de piste, donc je préfère le signaler dès ici. Si besoin, je mettrai mon billet à jour.
Wikipédia fait partie des #biens_communs, plus spécifiquement de la catégorie des #biens_communs_informationnels, ou #communs_de_la_connaissance. Quand on parle de « #communs » tout court, on entend généralement des espaces « collectivement construits et administrés ».
Wikipédia fait le pari de l’intelligence collective. Or Tam Kien Duong résume justement la controverse actuelle comme une « désillusion de l’intelligence collective ». Pour qu’il y ait #désillusion, il faut qu’il y ait illusion. Alors voici une hypothèse : on a pensé que les communs de la connaissance seraient vertueux par essence.
#Utopie :
« Le fruit des rencontres entre les biens et les personnes peut être aussi bien positif que négatif ou quelque part entre les deux. Dans l’arène intellectuelle, le concept des biens communs est souvent brandi comme un étendard synonyme de liberté d’expression, d’accès libre et universel, et d’autogestion […] Cela peut être constructif, d’ailleurs cela donne souvent de l’élan aux actions collectives autour des communs. Mais un commun n’est pas chargé de valeurs. Son impact peut être bon ou mauvais, durable ou non ».
Les effets produits par les communs de la connaissance dépendent donc de la manière dont ils sont collectivement construits et administrés.
Comme pour chaque autre catégorie de biens communs, concevoir des communs de la connaissance implique des difficultés spécifiques. Et dans le cas de Wikipédia, il y en a une qui s’est avérée particulièrement aiguë : la tension entre l’idée d’une encyclopédie qui doit être une source de savoir contrôlé, et le principe d’une encyclopédie ouverte, dont tout le monde peut parler, que tout le monde peut rejoindre.
Démocratie
Quand on utilise le nom « Wikipédia », on peut désigner l’encyclopédie mais aussi l’organisation qui produit cette encyclopédie. La nature de l’encyclopédie est clairement expliquée sur la page Wikipédia est une encyclopédie : c’est une collection d’articles qui présentent chacun une synthèse des connaissances sur un sujet. En revanche, la nature de l’organisation est un peu moins simple à appréhender.
La page Principes fondateurs définit dans les grandes lignes « Wikipédia et les conditions de son élaboration ». Elle parle aussi d’un « projet collaboratif ». La page Ce que Wikipédia n’est pas mentionne une « communauté ». Pour mieux cerner cette organisation, il faut donc creuser. On découvrira progressivement que le fonctionnement de Wikipédia est organisé suivant une hiérarchie des normes :
- principes fondateurs (fondement intangible) ;
- règles (issues d’une prise de décision, c’est-à-dire d’un vote) ;
- recommandations (élaborées par consensus) ;
- essais (propositions relatives au fonctionnement de l’encyclopédie).
Comment qualifier ce fonctionnement ? Démocratique ? Bureaucratique ? Si on en croit Wikipédia, ni l’un ni l’autre. D’abord, ce ne serait pas « un projet politique » :
« La communauté s’est dotée de certaines règles, mais il ne faut pas perdre de vue qu’elles n’existent que pour le but auquel la communauté aspire : construire une encyclopédie de qualité. Par extension, Wikipédia n’est ni une démocratie, ni une dictature, ni une anarchie, ou toute autre tentative de réalisation d’un projet politique quelconque. »
Ce passage a de quoi étonner. Le terme « démocratie » est ramené à une définition historique – « tentative de réalisation d’un projet politique » –, ce qui permet d’affirmer ensuite que Wikipédia ne correspond pas à la définition. Or cette dernière est contestable. On peut arguer du fait que la démocratie n’est pas un processus historique mais sociologique : Raymond Aron par exemple définit la démocratie comme l’organisation pacifique de la compétition pour le pouvoir, et cela s’applique très bien à Wikipédia.
Wikipédia a donc un fonctionnement démocratique, que Dominique Cardon résume ainsi : « Wikipédia possède une sorte de Constitution, dont les principes, les règles et les recommandations permettent de trancher en cas de litige ». Concrètement, il y a du vote à certains niveaux mais pas partout : le mécanisme central est en fait le consensus. Celui-ci repose sur les règles suivantes :
- il y a toujours un consensus pré-établi, qu’il soit tacite ou manifeste ;
– si vous voulez modifier quelque chose, « cherchez une modification judicieuse mariant les idées de chacun » ;
– si vous êtes en désaccord, « trouvez un compromis » ;
– si le désaccord persiste, on revient au consensus précédent.
Le consensus est un processus dialectique : on exprime des avis ; on interprète l’ensemble de ces avis ; on exprime des accords ou désaccords à propos de cette interprétation. Or ce processus n’a qu’un ensemble limité de règles, qui se concentrent sur la mise en forme, la politesse et la traçabilité. Il n’y a pas de règlement politique du consensus. Et pour moi, une dialectique sans règles politiques dégénère immédiatement en rhétorique.
Bureaucratie
Wikipédia est parfois qualifiée de bureaucratie. L’encyclopédie elle-même affirme ressembler à une bureaucratie mais ne pas en être une :
« Bien que Wikipédia rassemble de nombreux éléments d’une bureaucratie, elle n’est pas régie par les lois : ce n’est pas un organisme quasi-judiciaire, et les règles ne sont pas le but final de la communauté. Bien que certaines règles puissent être appliquées, les règles écrites ne fixent pas l’usage accepté. Elles se contentent plutôt de documenter les consensus communautaires existants concernant ce qui doit être accepté et ce qui doit être rejeté. »
On retrouve le même problème qu’avec « démocratie » : le terme est défini de manière très spécifique pour pouvoir dire ensuite que Wikipédia ne correspond pas à la définition. Pour moi, l’affirmation ci-dessus ne permet pas de dire que Wikipédia n’est pas une bureaucratie, circulez, y’a rien à voir. Tout ce qu’elle fait, c’est déplacer le centre de gravité du fonctionnement bureaucratique vers le consensus, qui est un processus tout à fait formalisé – il est même représenté sous la forme d’un schéma décisionnel.
Sachant qu’on revient toujours au consensus précédent si un nouveau consensus ne peut pas être trouvé, le système tend au statu quo, en raison d’un paradoxe empirique : un consensus peut s’obtenir très facilement (soit parce qu’il est tacite, soit parce qu’il est produit par une toute petite poignée de contributeurs) mais un nouveau consensus peut être très difficile à obtenir, parce qu’il implique un dilemme social (la remise en question d’un consensus) et que le dépassement de ce dilemme génère une friction énorme.
En effet, et contrairement à l’un des principes essentiels de conception des communs – créer des mécanismes de résolution des conflits dont le coût soit peu élevé –, l’élaboration du consensus sur Wikipédia contient plusieurs sources de frictions majeures.
Il y a d’abord ce parasitage de la dialectique par la rhétorique, que j’ai évoqué un peu plus tôt. Certaines personnes le dénoncent parfois, en accusant des contributeurs favorables au statu quo d’étirer les discussions à dessein pour épuiser leurs contradicteurs, qui finissent par jeter l’éponge. Selon moi, Wikipédia souffre ici d’un déficit de régulation. Dans l’espace public politique, il n’y a pas que les suffrages qui soient réglementés : la parole l’est aussi. Ce n’est pas pour rien que l’Assemblée nationale fonctionne avec des temps de parole et un agenda. Une discussion sans limite de temps ou de signes, sans contrainte basée sur la représentativité des interlocuteurs, c’est une discussion qui favorise naturellement les esprits procéduriers et vétilleux.
Il y a ensuite l’effet « aiguille dans une botte de foin » : un sujet passe facilement sous les radars, du fait de l’immensité de l’encyclopédie. Les personnes qui pourraient y contribuer utilement ne sont donc pas forcément au courant, malgré des mécanismes comme le Bistro – la page d’actualités quotidienne de Wikipédia en français.
Autre source de frictions, la prime à l’ancienneté : considérer que ceux qui contribuent suffisamment et régulièrement à Wikipédia sont plus légitimes que les autres pour décider de son fonctionnement. Cette idée a un versant positif, aligné avec la notion de biens communs en général : les communs doivent être administrés par la communauté concernée. Mais elle a aussi un versant négatif, quand on conçoit cette communauté comme structurée en cercles concentriques hermétiques. Pour réduire la tension entre l’envie d’ouvrir l’encyclopédie et la nécessité de protéger son fonctionnement interne, les contributeurs utilisent par exemple des critères de participation aux sondages (nombre de contributions total, nombre de contributions récentes). Ceci permet de se protéger de manœuvres visant à détourner le projet encyclopédique en faveur d’intérêts particuliers. Mais cela empêche aussi des groupes de voir leurs intérêts représentés dans le processus, ce qui les repousse vers des mécanismes externes de résolution des conflits, comme les systèmes médiatique et judiciaire.
Certaines recommandations de Wikipédia comme Ne mordez pas les nouveaux visent à éviter la discrimination envers les novices ; j’ai mentionné en introduction le cas de Marc Jahjah, eh bien le contributeur qui l’avait si mal accueilli a été sanctionné. La prime à l’ancienneté est une forme plus subtile de cette même logique, qui permet paradoxalement de reconstituer des enclosures à l’intérieur du bien commun.
Ces différents phénomènes compliquent la résolution des conflits les plus difficiles. Et à cela viennent s’ajouter deux notions qui m’ont l’air de causer beaucoup de problèmes : la neutralité et la bonne foi.
L’un des #Principes_fondateurs de Wikipédia est la Neutralité de point de vue. Il ne s’agit pas de faire émerger un « point de vue neutre » mais de restituer la pluralité des points de vue de manière neutre, c’est-à-dire de manière équitable, en contextualisant les différents points de vue, et en citant des sources.
La neutralité pose des difficultés car son sens dérive vite. Sur la page de discussion du fameux sondage, on peut lire plusieurs commentaires qui opposent « la communauté Wikipédia » à des « communautés militantes », qui ne seraient pas « neutres ». C’est oublier que la neutralité de Wikipédia n’est pas la recherche d’un point de vue neutre mais d’une pluralité de points de vue. C’est surtout croire qu’il existerait une séparation magique entre une communauté Wikipédia qui serait non militante et des communautés extérieures militantes.
Militer consiste à « agir pour faire reconnaître et triompher ses idées » (source : TLF). Sachant que la frontière qui séparerait Wikipédia du reste de la société n’existe en fait pas, il est inévitable que des personnes militantes s’impliquent sur Wikipédia. Si une personne militante agit en opposition au principe de neutralité, par exemple en effaçant les idées contraires aux siennes, ses modifications (qui peuvent s’apparenter à du vandalisme) seront retoquées. Mais si elle respecte les règles de Wikipédia, par exemple en faisant représenter ses idées aux côtés d’idées antagonistes, alors son militantisme n’est pas un danger pour Wikipédia. De fait, nombre de contributeurs sur Wikipédia sont « militants » de quelque chose et l’encyclopédie s’en porte très bien.
Qualifier les militants de « non neutres », c’est donc confondre les actions concrètes de personnes militantes et leurs objectifs supposés, c’est-à-dire leur faire un procès d’intention. Et c’est ici qu’intervient l’hypocrisie de la « bonne foi ».
Supposez la bonne foi est une recommandation importante dans Wikipédia. Elle implique deux choses :
« Quand vous pouvez supposer raisonnablement qu’une erreur faite par quelqu’un est née d’une bonne intention pour atteindre les objectifs du projet, corrigez-la sans la critiquer. »
« Quand vous n’êtes pas d’accord avec quelqu’un, rappelez-vous qu’il est probable qu’il souhaite et croit sincèrement contribuer à Wikipédia. »
La bonne foi est ainsi définie comme le souhait sincère de faire progresser l’encyclopédie, de ne pas la dégrader ni lui nuire. En d’autres termes, cela consiste à respecter les principes fondateurs, et notamment le deuxième – la neutralité de point de vue.
Que la bonne foi existe chez certains, c’est une certitude. En revanche, la présomption systématique de bonne foi me semble constituer un principe naïf, ce que Frédéric Lordon appellerait une « anthropologie enchantée ». Présumer la bonne foi n’implique pas que les gens soient réellement de bonne foi. Et au risque d’enfoncer des portes ouvertes, rien ne permet de présumer que la communauté Wikipédia est constituée exclusivement de gens parfaitement informés et toujours bienveillants : tout indique au contraire qu’elle peut être un haut lieu d’ignorance et d’intolérance, et qu’en cela elle s’inscrit malheureusement assez bien dans l’histoire de l’encyclopédisme et de l’organisation des connaissances.
Dans la discussion à propos du fameux sondage, il y a quelques personnes qui me semblent d’une mauvaise foi crasse, évidente, assumée ; des personnes dont tout le monde peut voir qu’elles utilisent sciemment les règles pour orienter le cours des choses dans le sens qu’elles veulent. « Mais non, pensez-vous, je ne fais que m’en tenir aux principes de notre encyclopédie. » Il suffit de lire leur page utilisateur pour découvrir une adhésion revendiquée à des écoles de pensée et des familles idéologiques. L’hypocrisie dont je parlais est là : dire qu’il faut présumer de la bonne foi, se récrier face à toute accusation de parti pris idéologique, et faire des procès d’intention à ceux qui s’opposent à nous.
Cela va donc sembler un peu violent, surtout pour les personnes attachées à ce principe, mais je crois que la présomption de bonne foi est à la fois une friction et une fiction. C’est un piètre paravent, qui empêche de forcer tout un chacun à jouer cartes sur table dans la résolution des conflits. Elle grippe l’élaboration du consensus. Elle aiguise la duplicité de ceux qui masquent leurs intentions tout en dénonçant celles des autres. Elle permet à certains de jouir d’un pouvoir légitimé par des règles qu’il est très difficile de faire évoluer, par inertie ou effet de majorité ; des gens qui feront tout pour écœurer les personnes opposées à la reconduction de l’existant, et qui n’hésiteront pas à affirmer ensuite que ce sont ces opposants qui ont déserté (comme on peut le lire dans le Bistro du 6 mars).
À ce stade de l’écriture, je fais une pause pour boire un verre d’eau et me calmer un peu afin de finir sur une note un peu plus maîtrisée. Pas simple car en lisant des pages de discussion Wikipédia, on attrape vite un syndrôme d’exaspération par procuration.
Suite au sondage, la controverse a fait tache d’huile et atteint désormais de nombreuses pages de discussion, comme celle d’Elliot Page, Chelsea Manning ou encore Laverne Cox. Certaines personnes questionnent le choix des informations données, leur forme, leur place. D’autres résistent, avec plus ou moins de… bonne foi.
Le désaccord porte sur la tension entre la volonté d’informer et celle de « ne pas nuire », cette dernière faisant partie des recommandations de Wikipédia concernant les Biographies de personnes vivantes. J’ai dit que Wikipédia est une encyclopédie et une organisation, il manquait donc un troisème élément : le lectorat. C’est essentiel car la controverse porte sur l’acte d’informer, qui est la fonction de l’encyclopédie. La neutralité de point de vue, par exemple, est pensée non pas pour elle-même mais pour le bénéfice des lecteurs.
Or, et c’est une autre difficulté intrinsèque à l’usage du mot « neutralité », certains sur Wikipédia croient qu’il est possible d’informer de manière neutre. Il y aurait une équivalence entre respecter la pluralité des points de vue et informer le lectorat de façon neutre. Voilà qui sonne à mes oreilles comme une résurgence du modèle de la communication chez Shannon : un tuyau qu’on optimise jusqu’à ce que le bruit disparaisse. C’est impossible : informer/s’informer, c’est un processus communicationnel qui implique réception et feedback. C’est toujours situé, toujours soumis à diverses subjectivités, toujours parasité – jamais neutre.
Si je devais le dire avec d’autres concepts d’info-com, je dirais qu’il y a une poussée ces jours-ci sur Wikipédia pour tenir compte de l’expérience informationnelle des personnes documentées dans l’encyclopédie. C’est un rejet de la tyrannie de la majorité, version encyclopédique. Et je dirais aussi que cela relève d’une chose plus générale : la volonté de tenir compte des valeurs portées par les processus/systèmes d’organisation des connaissances et des effets qu’ils produisent – ce que Birger Hjørland appelle une épistémologie « pragmatique » de l’organisation des connaissances. C’est ce courant de pensée qui produit aujourd’hui des recherches sur l’invisibilisation de certains groupes sociaux dans les archives et les encyclopédies, par exemple.
Dans le fonctionnement de Wikipédia, les dilemmes sociaux qui ne peuvent être tranchés débouchent sur des compromis. Il n’y a pas d’autre issue au dissensus que le consensus. Pourquoi ? Parce que Wikipédia est conçu pour afficher toujours le même contenu pour chaque lecteur.
Dans un article de Wikipédia, on peut lire deux sections qui présentent des idées contradictoires. Mais on ne peut pas lire deux articles différents sur le même sujet, qui développent chacun leur lecture de ces contradictions. C’est le principal grief envers Wikipédia de mon co-directeur de thèse, l’historien Bertrand Müller, qui travaille sur le développement d’encyclopédies documentaires numériques capables de représenter le dissensus d’une autre manière. C’est en discutant de ce genre de chose que je me suis mis à faire des fiches de la forme « Concept (Auteur) » pour documenter des variantes de concepts par auteurs, et qu’à la fin on s’est retrouvés avec Cosma.
Dans un article de Wikipédia, on peut lire qu’une personne stylise son nom d’une certaine manière, tout en minuscules par exemple. Mais on ne peut pas cocher une option qui permette d’afficher l’article dans cette convention de style. Il en résulte des bizarreries : on a un article « bell hooks » mais un article « Danah Boyd ».
Dans un article de Wikipédia, on peut lire qu’une personne souffre de voir certaines informations divulguées, comme un nom de naissance. Mais on ne peut pas lire une version de cet article où ce nom est caché par défaut. Cela ne concerne pas que des personnes ayant fait une transition mais aussi des artistes dont le nom d’origine fuite et se retrouve relayé par Wikipédia (j’ai un exemple en tête mais par politesse je ne le citerai pas).
Bref, Wikipédia est à la fois très innovante et pas innovante du tout. En tant qu’organisation éditoriale, c’est une nouveauté (et une réussite) indéniable. Le modèle encyclopédique, lui, est beaucoup plus classique, surtout au regard de ce qu’on pourrait faire avec le Web, les ontologies, le balisage sémantique… À quand Wikipédia multiformats ?
–-
Pour clore ce billet bien trop long, je tiens à exprimer un petit message de soutien (sans les nommer) aux collègues qui s’investissent dans Wikipédia. Ils et elles se reconnaîtront. J’admire leur courage et leur patience. Si j’ai qualifié Wikipédia de démocratie rhétorique, disserté sur l’illusion de la présomption de bonne foi et les confusions autour de la neutralité, imaginé des rebonds parmi les concepts de ma discipline, eh bien c’est d’abord parce qu’il y a des collègues qui travaillent dur en première ligne et qui font connaître leurs efforts. Alors on s’y intéresse, on découvre de nouvelles choses, on élabore ses propres idées. Mais surtout l’enjeu c’est de propager l’idée centrale des communs : l’auto-organisation des personnes concernées. Au-delà des éléments précis abordés dans ce billet, c’est surtout cette idée-là qui me semble importante et intéressante.
Bibliographie
Bruce, Davis, Hughes, Partridge et Stoodley (dir.). Information experience : approaches to theory and practice. Emerald, 2014. 978-1-78350-815-0.
Buckland, Michael. « Information as thing ». Journal of the American Society for Information Science. 1991, Vol. 42, n° 5, p. 351‑360. ▻https://doi.org/10.1002/(SICI)1097-4571(199106)42:5<351::AID-ASI5>3.0.CO;2-3.
Cardon, Dominique. Culture numérique. Presses de Sciences Po, 2019. Les petites humanités. 978-2-7246-2365-9.
Gorichanaz, Tim. « Information and experience, a dialogue ». Journal of Documentation. 2017, Vol. 73, n° 3, p. 500‑508. ▻https://doi.org/10.1108/JD-09-2016-0114.
Hess et Ostrom (dir.). Understanding knowledge as a commons : from theory to practice. MIT Press, 2007. 978-0-262-08357-7.
Hjørland, Birger. « Classification ». Knowledge Organization. 2017, Vol. 44, n° 2, p. 97‑128. ▻https://doi.org/10.5771/0943-7444-2017-2-97.
Lévy, Pierre. L’intelligence collective : pour une anthropologie du cyberspace. La Découverte, 1997. 978-2-7071-2693-1.
Merzeau, Louise. « De la communication aux communs ». InterCDI. 2016, n° 261, p. 29‑30. ▻http://www.intercdi.org/de-la-communication-aux-communs.
Shannon, Claude E. « A Mathematical Theory of Communication ». Bell System Technical Journal. 1948, Vol. 27, n° 3, p. 379‑423. ▻https://doi.org/10.1002/j.1538-7305.1948.tb01338.x.
Wiener, Norbert. Cybernétique et société : l’usage humain des êtres humains. Trad. par Ronan Le Roux et Pierre Yves Mistoulon. Seuil, 2014 [1954]. 978-2-7578-4278-2.
Wiener, Norbert. La cybernétique : information et régulation dans le vivant et la machine. Trad. par Ronan Le Roux, Robert Vallée et Nicole Vallée-Levi. Éditions du Seuil, 2014 [1948]. 978-2-02-109420-6.
▻https://www.arthurperret.fr/blog/2024-03-08-wikipedia-democratie-rhetorique.html
]]>Border security with drones and databases
The EU’s borders are increasingly militarised, with hundreds of millions of euros paid to state agencies and military, security and IT companies for surveillance, patrols and apprehension and detention. This process has massive human cost, and politicians are planning to intensify it.
Europe is ringed by steel fences topped by barbed wire; patrolled by border agents equipped with thermal vision systems, heartbeat detectors, guns and batons; and watched from the skies by drones, helicopters and planes. Anyone who enters is supposed to have their fingerprints and photograph taken for inclusion in an enormous biometric database. Constant additions to this technological arsenal are under development, backed by generous amounts of public funding. Three decades after the fall of the Berlin Wall, there are more walls than ever at Europe’s borders,[1] and those borders stretch ever further in and out of its territory. This situation is the result of long-term political and corporate efforts to toughen up border surveillance and controls.
The implications for those travelling to the EU depend on whether they belong to the majority entering in a “regular” manner, with the necessary paperwork and permissions, or are unable to obtain that paperwork, and cross borders irregularly. Those with permission must hand over increasing amounts of personal data. The increasing automation of borders is reliant on the collection of sensitive personal data and the use of algorithms, machine learning and other forms of so-called artificial intelligence to determine whether or not an individual poses a threat.
Those without permission to enter the EU – a category that includes almost any refugee, with the notable exception of those who hold a Ukrainian passport – are faced with technology, personnel and policies designed to make journeys increasingly difficult, and thus increasingly dangerous. The reliance on smugglers is a result of the insistence on keeping people in need out at any cost – and the cost is substantial. Thousands of people die at Europe’s borders every year, families are separated, and people suffer serious physical and psychological harm as a result of those journeys and subsequent administrative detention and social marginalisation. Yet parties of all political stripes remain committed to the same harmful and dangerous policies – many of which are being worsened through the new Pact on Migration and Asylum.[2]
The EU’s border agency, Frontex, based in Warsaw, was first set up in 2004 with the aim of providing technical coordination between EU member states’ border guards. Its remit has been gradually expanded. Following the “migration crisis” of 2015 and 2016, extensive new powers were granted to the agency. As the Max Planck Institute has noted, the 2016 law shifted the agency from a playing “support role” to acting as “a player in its own right that fulfils a regulatory, supervisory, and operational role.”[3] New tasks granted to the agency included coordinating deportations of rejected refugees and migrants, data analysis and exchange, border surveillance, and technology research and development. A further legal upgrade in 2019 introduced even more extensive powers, in particular in relation to deportations, and cooperation with and operations in third countries.
The uniforms, guns and batons wielded by Frontex’s border guards are self-evidently militaristic in nature, as are other aspects of its work: surveillance drones have been acquired from Israeli military companies, and the agency deploys “mobile radars and thermal cameras mounted on vehicles, as well as heartbeat detectors and CO2 monitors used to detect signs of people concealed inside vehicles.”[4] One investigation described the companies that have held lobbying meetings or attended events with Frontex as “a Who’s Who of the weapons industry,” with guests including Airbus, BAE Systems, Leonardo and Thales.[5] The information acquired from the agency’s surveillance and field operations is combined with data provided by EU and third country agencies, and fed into the European Border Surveillance System, EUROSUR. This offers a God’s-eye overview of the situation at Europe’s borders and beyond – the system also claims to provide “pre-frontier situational awareness.”
The EU and its member states also fund research and development on these technologies. From 2014 to 2022, 49 research projects were provided with a total of almost €275 million to investigate new border technologies, including swarms of autonomous drones for border surveillance, and systems that aim to use artificial intelligence to integrate and analyse data from drones, satellites, cameras, sensors and elsewhere for “analysis of potential threats” and “detection of illegal activities.”[6] Amongst the top recipients of funding have been large research institutes – for example, Germany’s Fraunhofer Institute – but companies such as Leonardo, Smiths Detection, Engineering – Ingegneria Informatica and Veridos have also been significant beneficiaries.[7]
This is only a tiny fraction of the funds available for strengthening the EU’s border regime. A 2022 study found that between 2015 and 2020, €7.7 billion had been spent on the EU’s borders and “the biggest parts of this budget come from European funding” – that is, the EU’s own budget. The total value of the budgets that provide funds for asylum, migration and border control between 2021-27 comes to over €113 billion[8]. Proposals for the next round of budgets from 2028 until 2035 are likely to be even larger.
Cooperation between the EU, its member states and third countries on migration control comes in a variety of forms: diplomacy, short and long-term projects, formal agreements and operational deployments. Whatever form it takes, it is frequently extremely harmful. For example, to try to reduce the number of people arriving across the Mediterranean, member states have withdrawn national sea rescue assets (as deployed, for example, in Italy’s Mare Nostrum operation) whilst increasing aerial surveillance, such as that provided by the Israel-produced drones operated by Frontex. This makes it possible to observe refugees attempting to cross the Mediterranean, whilst outsourcing their interception to authorities from countries such as Libya, Tunisia and Egypt.
This is part of an ongoing plan “to strengthen coordination of search and rescue capacities and border surveillance at sea and land borders” of those countries. [9] Cooperation with Tunisia includes refitting search and rescue vessels and providing vehicles and equipment to the Tunisian coastguard and navy, along with substantial amounts of funding. The agreement with Egypt appears to be structured along similar lines, and five vessels have been provided to the so-called Libyan Coast Guard in 2023.[10]
Frontex also plays a key role in the EU’s externalised border controls. The 2016 reform allowed Frontex deployments at countries bordering the EU, and the 2019 reform allowed deployments anywhere in the world, subject to agreement with the state in question. There are now EU border guards stationed in Albania, Montenegro, Serbia, Bosnia and Herzegovina, and North Macedonia.[11] The agency is seeking agreements with Niger, Senegal and Morocco, and has recently received visits from Tunisian and Egyptian officials with a view to stepping up cooperation.[12]
In a recent report for the organisation EuroMed Rights, Antonella Napolitano highlighted “a new element” in the EU’s externalisation strategy: “the use of EU funds – including development aid – to outsource surveillance technologies that are used to entrench political control both on people on the move and local population.” Five means of doing so have been identified: provision of equipment; training; financing operations and procurement; facilitating exports by industry; and promoting legislation that enables surveillance.[13]
The report highlights Frontex’s extended role which, even without agreements allowing deployments on foreign territory, has seen the agency support the creation of “risk analysis cells” in a number of African states, used to gather and analyse data on migration movements. The EU has also funded intelligence training in Algeria, digital evidence capacity building in Egypt, border control initiatives in Libya, and the provision of surveillance technology to Morocco. The European Ombudsman has found that insufficient attention has been given to the potential human rights impacts of this kind of cooperation.[14]
While the EU and its member states may provide the funds for the acquisition of new technologies, or the construction of new border control systems, information on the companies that receive the contracts is not necessarily publicly available. Funds awarded to third countries will be spent in accordance with those countries’ procurement rules, which may not be as transparent as those in the EU. Indeed, the acquisition of information on the externalisation in third countries is far from simple, as a Statewatch investigation published in March 2023 found.[15]
While EU and member state institutions are clearly committed to continuing with plans to strengthen border controls, there is a plethora of organisations, initiatives, campaigns and projects in Europe, Africa and elsewhere that are calling for a different approach. One major opportunity to call for change in the years to come will revolve around proposals for the EU’s new budgets in the 2028-35 period. The European Commission is likely to propose pouring billions more euros into borders – but there are many alternative uses of that money that would be more positive and productive. The challenge will be in creating enough political pressure to make that happen.
This article was originally published by Welt Sichten, and is based upon the Statewatch/EuroMed Rights report Europe’s techno-borders.
Notes
[1] ►https://www.tni.org/en/publication/building-walls
[2] ▻https://www.statewatch.org/news/2023/december/tracking-the-pact-human-rights-disaster-in-the-works-as-parliament-makes
[3] ▻https://www.mpg.de/14588889/frontex
[4] ►https://www.theguardian.com/global-development/2021/dec/06/fortress-europe-the-millions-spent-on-military-grade-tech-to-deter-refu
[5] ▻https://frontexfiles.eu/en.html
[6] ►https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders
[7] ►https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders
[8] ►https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders
[9] ►https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-
[10] ▻https://www.statewatch.org/media/4103/eu-com-von-der-leyen-ec-letter-annex-10-23.pdf
[11] ►https://www.statewatch.org/analyses/2021/briefing-external-action-frontex-operations-outside-the-eu
[12] ►https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-, ▻https://www.statewatch.org/publications/events/secrecy-and-the-externalisation-of-eu-migration-control
[13] ▻https://privacyinternational.org/challenging-drivers-surveillance
[14] ►https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf
[15] ▻https://www.statewatch.org/access-denied-secrecy-and-the-externalisation-of-eu-migration-control
▻https://www.statewatch.org/analyses/2024/border-security-with-drones-and-databases
#frontières #militarisation_des_frontières #technologie #données #bases_de_données #drones #complexe_militaro-industriel #migrations #réfugiés #contrôles_frontaliers #surveillance #sécurité_frontalière #biométrie #données_biométriques #intelligence_artificielle #algorithmes #smugglers #passeurs #Frontex #Airbus #BAE_Systems #Leonardo #Thales #EUROSUR #coût #business #prix #Smiths_Detection #Fraunhofer_Institute #Engineering_Ingegneria_Informatica #informatique #Tunisie #gardes-côtes_tunisiens #Albanie #Monténégro #Serbie #Bosnie-Herzégovine #Macédoine_du_Nord #Egypte #externalisation #développement #aide_au_développement #coopération_au_développement #Algérie #Libye #Maroc #Afrique_du_Nord
Médicaments non délivrés, devis et facturation en panne… Une cyberattaque perturbe sérieusement le système de santé aux États-Unis Ingrid Vergara
La cyberattaque d’une filiale de la plus importante compagnie d’assurance-santé américaine tourne à la crise d’ampleur aux États-Unis. Victime d’un rançongiciel qui affecte une de ses divisions depuis le 21 février, le groupe UnitedHealthcare n’est plus en mesure d’assurer de nombreuses tâches nécessaires au bon fonctionnement du système de santé. Des médecins qui ne peuvent plus savoir si un patient bénéficie ou non d’une assurance-santé, des pharmacies incapables de transmettre les demandes de remboursement de patients, des factures d’hôpitaux non réglées, des retards dans les délivrances d’ordonnances de médicaments…
Les réactions en chaîne s’étendent et s’aggravent au fur et à mesure que les jours passent. Car UnitedHealthcare est la plus grande plateforme d’échange de paiements entre médecins, pharmacies, prestataires de soins de santé et patients du système de santé américain. Sa filiale Change gère la facturation de quelque 67.000 pharmacies, . . . . .
#Santé #internet #sécurité_informatique #cyberattaques #cybersécurité #malware #usa #UnitedHealthcare #algorithme #juste_à_temps #dématérialisation #intelligence_artificielle #artificial-intelligence #blockchain #IA
Source et suite (payante) : ▻https://www.lefigaro.fr/secteur/high-tech/medicaments-non-delivres-devis-et-facturation-en-panne-une-cyberattaque-per
]]>ASMA MHALLA
Les géants de la tech déploient une vision du monde cohérente, comme dans toute folie
Dans l’essai « Technopolitique », la chercheuse à l’EHESS analyse la façon dont les grandes entreprises technologiques, avec leurs innovations ultrasophistiquées, redessinent les rapports de pouvoir avec l’Etat. Ce qui rend nécessaire une réponse démocratique.
▻https://www.liberation.fr/idees-et-debats/asma-mhalla-les-geants-de-la-tech-deploient-une-vision-du-monde-coherente
]]>Intelligence artificielle : la grande illusion de la régulation
« Le tournant intellectuel et créatif de l’IA s’attaque à nos capacités les plus fondamentales. Les corps de métiers doivent se mobiliser pour définir ce qu’ils sont prêts à céder et à refuser à l’industrie numérique. Faute de quoi, on se réveillera dans un monde dans lequel nous serons étrangers »
]]>Intelligence artificielle et traduction, l’impossible dialogue ?
▻https://actualitte.com/article/115941/auteurs/intelligence-artificielle-et-traduction-l-impossible-dialogue
Le recours à ces outils par des éditeurs n’est pas si exceptionnel, si bien que les professionnels craignent d’être relégués au rang de relecteurs des travaux de la machine.
L’Association des traducteurs littéraires de France (ATLF) et l’Association pour la promotion de la traduction littéraire (ATLAS) rappelaient, en début d’année 2023 : « Tous ceux et celles qui pensent la traduction ou qui l’ont pratiquée le savent : on ne traduit pas des mots, mais une intention, des sous-entendus, l’équivoque, ce qui n’est pas dit et pourtant existe dans les plis d’un texte littéraire. »
]]>🌻 Tournesol Talks : Décrypter les enjeux du numérique avec des experts aujourd’hui rencontre avec Anne Alombert Maître de conférences en philosophie à l’Université Paris 8, spécialisée dans les rapports entre vie, technique et esprit. Elle a étudié à l’École Normale Supérieure de Lyon et est auteure d’une thèse sur Derrida et Simondon. Ses travaux explorent les enjeux des technologies contemporaines et elle a contribué au programme de recherche dirigé par Bernard Stiegler.
Tournesol.app est un projet de recherche participatif sur l’éthique des systèmes de recommandation
Comment ça marche ?
– Regardez des vidéos sur la plateforme Tournesol.
– Donnez votre avis sur chaque vidéo en répondant à un court questionnaire.
– Aidez-nous à identifier les vidéos d’utilité publique qui devraient être largement recommandées.
Pourquoi participer ?
– Votre contribution est essentielle pour faire avancer la recherche sur l’éthique des systèmes de recommandation.
– Participez à un projet citoyen qui vise à construire un numérique plus juste et plus responsable.
– Donnez votre avis sur les contenus que vous souhaitez voir recommandés.
En rejoignant le projet Tournesol, vous faites un geste concret pour un numérique plus riche, plus diversifié et plus humain.
#IA #controverses #éthique #sciencespo #medialab #intelligenceartificielle #technologie #innovation #société #avenir
▻https://www.youtube.com/watch?v=Z04ouls5yB4&feature=shared
L’IA : entre fascination et controverses ⚖️
Plongez au cœur des débats brûlants autour de l’intelligence artificielle (IA) dans cette interview captivante avec Dominique Cardon, professeur de sociologie à Sciences Po, et Valérie Beaudouin, directrice d’études à l’EHESS. #IA #controverses #éthique #sciencespo #medialab #intelligenceartificielle #technologie #innovation #société #avenir
Dans cet échange éclairant, ils explorent :
– Les différentes formes de controverses liées à l’IA
– Les défis de la régulation de ces technologies puissantes
– Le rôle crucial de l’éthique dans le développement de l’IA
– La responsabilité des mondes professionnels qui utilisent l’IA
Visionnez cette interview incontournable pour mieux comprendre les enjeux de l’IA et participer à la construction de son avenir !
▻https://www.youtube.com/watch?v=d-04sLEfcRE
a voir aussi la revue réseaux : ▻https://www.revue-reseaux.fr
]]>Glüxkind AI Stroller - The Best Smart Stroller for your family
▻https://gluxkind.com
Autant de conneries en si peu d’espace... pas mal !!!
Les enfants, nouvelle victimes de la prédation algorithmique.
Unlock Your Helping hand
Designed by parents with sky-high standards, our AI Powered Smart Strollers elevates the happy moments of daily parenting and lightens the stressful ones.
Feel supported and savour moments of peace and quiet with features like Automatic Rock-My-Baby or the built-in White Noise Machine to help soothe your little one.
]]>One big thing missing from the AI conversation | Zeynep Tufekci - GZERO Media
▻https://www.gzeromedia.com/gzero-world-clips/one-big-thing-missing-from-the-ai-conversation-zeynep-tufekci
When deployed cheaply and at scale, artificial intelligence will be able to infer things about people, places, and entire nations, which humans alone never could. This is both good and potentially very, very bad.
If you were to think of some of the most overlooked stories of 2023, artificial intelligence would probably not make your list. OpenAI’s ChatGPT has changed how we think about AI, and you’ve undoubtedly read plenty of quick takes about how AI will save or destroy the planet. But according to Princeton sociologist Zeynep Tufekci, there is a super important implication of AI that not enough people are talking about.
“Rather than looking at what happens between you and me if we use AI,” Tufekci said to Ian on the sidelines of the Paris Peace Forum, “What I would like to see discussed is what happens if it’s used by a billion people?” In a short but substantive interview for GZERO World, Tufekci breaks down just how important it is to think about the applications of AI “at scale” when its capabilities can be deployed cheaply. Tufekci cites the example of how AI could change hiring practices in ways we might not intend, like weeding out candidates with clinical depression or with a history of unionizing. AI at scale will demonstrate a remarkable ability to infer things that humans cannot, Tufekci explains.
]]>Le coût du travail humain reste généralement inférieur à celui de l’IA, d’après le MIT FashionNetwork.com ( Bloomberg )
Pour le moment, employer des humains reste plus économique que de recourir à l’intelligence artificielle pour la majorité des emplois. C’est en tout cas ce qu’affirme une étude menée par le Massachusetts Institute of Technology, alors que bon nombre de secteurs se sentent menacés par les progrès faits par l’IA.
Il s’agit de l’une des premières études approfondies réalisées à ce sujet. Les chercheurs ont établi des modèles économiques permettant de calculer l’attractivité de l’automatisation de diverses tâches aux États-Unis, en se concentrant sur des postes “digitalisables“, comme l’enseignement ou l’intermédiation immobilière.
Source : ▻https://fr.fashionnetwork.com/news/premiumContent,1597548.html
#ia #intelligence_artificielle #algorithme #surveillance #ai #google #technologie #facebook #technologisme #travail #biométrie #bigdata #coût #MIT
]]>Test Yourself : Which Faces Were Made by A.I.? - The New York Times
▻https://www.nytimes.com/interactive/2024/01/19/technology/artificial-intelligence-image-generators-faces-quiz.html
Faites le test (j’ai seulement eu 40% de bonnes réponses !!!).
Distinguishing between a real versus an A.I.-generated face has proved especially confounding.
Research published across multiple studies found that faces of white people created by A.I. systems were perceived as more realistic than genuine photographs of white people, a phenomenon called hyper-realism.
Researchers believe A.I. tools excel at producing hyper-realistic faces because they were trained on tens of thousands of images of real people. Those training datasets contained images of mostly white people, resulting in hyper-realistic white faces. (The over-reliance on images of white people to train A.I. is a known problem in the tech industry.)
The confusion among participants was less apparent among nonwhite faces, researchers found.
Participants were also asked to indicate how sure they were in their selections, and researchers found that higher confidence correlated with a higher chance of being wrong.
“We were very surprised to see the level of over-confidence that was coming through,” said Dr. Amy Dawel, an associate professor at Australian National University, who was an author on two of the studies.
“It points to the thinking styles that make us more vulnerable on the internet and more vulnerable to misinformation,” she added.
]]>Usbek & Rica - Détournement, droit d’auteur… 5 outils pour embrouiller les IA
▻https://usbeketrica.com/fr/article/detournement-droit-d-auteur-5-outils-pour-embrouiller-les-ia
« ChatGPT n’est qu’une version très poussée et à très grande échelle de tout ce qu’on sait faire depuis longtemps en termes d’apprentissage automatique. » Ainsi l’historien américain Fred Turner, auteur de plusieurs études primées sur l’impact des nouvelles technologies sur la culture américaine, résume-t-il dans nos colonnes son scepticisme face à l’emballement médiatique autour de l’intelligence artificielle.
Il n’empêche : comme Fred Turner le reconnaît lui-même, l’émergence de ChatGPT, Dall-E et autres MidJourney achève de nous faire basculer dans un monde où cette « très grande échelle » change à peu près tout, notamment du point de vue de la création.
Articles écrits par des robots, illustrations générées par quelques lignes de code… Derrière ces prouesses apparentes, on retrouve des algorithmes d’apprentissage automatique, bâtis à partir d’immenses bases de données en ligne plutôt banales, pas toujours protégées… et donc potentiellement faillibles. Pour envoyer balader ces systèmes, faire valoir leurs droits ou tout simplement sécuriser leurs données, certains ingénieurs bâtissent depuis quelques mois des outils en tout genre, du site amateur au logiciel professionnel. Nous en avons recensé cinq.
]]>The #design of #intelligent_environments for education
▻https://redasadki.me/2024/01/31/the-design-of-intelligent-environments-for-education
Warren M. Brodey, writing in 1967, advocated for “intelligent environments” that evolve in tandem with inhabitants rather than rigidly conditioning behaviors. The vision described deeply interweaves users and contexts, enabling environments to respond in real-time to boredom and changing needs with shifting modalities. Core arguments state that industrial-model education trains obedience over creativity through standardized, conformity-demanding environments that waste potential. Optimal learning requires tuning instruction to each student. Rigid spaces reflecting hard architecture must give way to soft, living systems adaptively promoting growth. His article categorizes environment and system intelligence across axes like passive/active, simple/complex, stagnant/self-improving. (...)
]]>A “robot” should be chemical, not steel, argues man who coined the word | Ars Technica
▻https://arstechnica.com/information-technology/2024/01/a-robot-should-be-chemical-not-steel-argues-man-who-coined-the-word
In 1921, Czech playwright Karel Čapek and his brother Josef invented the word “robot” in a sci-fi play called R.U.R. (short for Rossum’s Universal Robots). As Even Ackerman in IEEE Spectrum points out, Čapek wasn’t happy about how the term’s meaning evolved to denote mechanical entities, straying from his original concept of artificial human-like beings based on chemistry.
In a newly translated column called “The Author of the Robots Defends Himself,” published in Lidové Noviny on June 9, 1935, Čapek expresses his frustration about how his original vision for robots was being subverted. His arguments still apply to both modern robotics and AI. In this column, he referred to himself in the third-person:
]]>Two-thirds of Americans say AI could do their job | Fox Business
▻https://www.foxbusiness.com/technology/two-thirds-americans-say-ai-can-do-their-job
Intéressant de comparer ce « ressenti » des travailleurs avec la réalité des menaces telle que montrée au même moment par l’étude du MIT.
Ne serait-ce pas chez les travailleurs le sentiment d’exercer des « Bullshit jobs » ?
A recent survey conducted by Spokeo found that despite seeing the potential benefits of AI, 66.6% of the 1,027 respondents admitted AI could carry out their workplace duties, and 74.8% said they were concerned about the technology’s impact on their industry as a whole.
outlines of humans in an office
A recent survey by Spokeo found most American workers believe AI could do their jobs, but they still see benefits of the technology in the long term. (iStock / iStock)
“After a year of headlines about AI taking over the world, it’s no surprise that 2 in 3 now think that AI could do their job,” Spokeo CEO Harrison Tang told FOX Business. “We never would have dreamed of how impactful ChatGPT would be on the world.”
WHAT IS ARTIFICIAL INTELLIGENCE (AI)?
“Whether it’s because people realize that a lot of work can be easily automated, or they believe the hype in the media that AI is more advanced and powerful than it is, the AI box has now been opened.”
]]>New MIT CSAIL study suggests that AI won’t steal as many jobs as expected | TechCrunch
▻https://techcrunch.com/2024/01/22/new-mit-csail-study-suggests-that-ai-wont-steal-as-many-jobs-expected
Will AI automate human jobs, and — if so — which jobs and when?
That’s the trio of questions a new research study from MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL), out this morning, tries to answer.
There’s been many attempts to extrapolate out and project how the AI technologies of today, like large language models, might impact people’s’ livelihoods — and whole economies — in the future.
Goldman Sachs estimates that AI could automate 25% of the entire labor market in the next few years. According to McKinsey, nearly half of all work will be AI-driven by 2055. A survey from the University of Pennsylvania, NYU and Princeton finds that ChatGPT alone could impact around 80% of jobs. And a report from the outplacement firm Challenger, Gray & Christmas suggests that AI is already replacing thousands of workers.
But in their study, the MIT researchers sought to move beyond what they characterize as “task-based” comparisons and assess how feasible it is that AI will perform certain roles — and how likely businesses are to actually replace workers with AI tech.
Contrary to what one (including this reporter) might expect, the MIT researchers found that the majority of jobs previously identified as being at risk of AI displacement aren’t, in fact, “economically beneficial” to automate — at least at present.
The key takeaway, says Neil Thompson, a research scientist at MIT CSAIL and a co-author on the study, is that the coming AI disruption might happen slower — and less dramatically — than some commentators are suggesting.
Early in the study, the researchers give the example of a baker.
A baker spends about 6% of their time checking food quality, according to the U.S. Bureau of Labor Statistics — a task that could be (and is being) automated by AI. A bakery employing five bakers making $48,000 per year could save $14,000 were it to automate food quality checks. But by the study’s estimates, a bare-bones, from-scratch AI system up to the task would cost $165,000 to deploy and $122,840 per year to maintain . . . and that’s on the low end.
“We find that only 23% of the wages being paid to humans for doing vision tasks would be economically attractive to automate with AI,” Thompson said. “Humans are still the better economic choice for doing these parts of jobs.”
Now, the study does account for self-hosted, self-service AI systems sold through vendors like OpenAI that only need to be fine-tuned to particular tasks — not trained from the ground up. But according to the researchers, even with a system costing as little as $1,000, there’s lots of jobs — albeit low-wage and multitasking-dependent — that wouldn’t make economic sense for a business to automate.
]]>Le #règlement européen sur l’IA n’interdira pas la #surveillance_biométrique de masse
Le 8 décembre 2023, les législateurs de l’#Union_européenne se sont félicités d’être parvenus à un accord sur la proposition de #règlement tant attendue relative l’intelligence artificielle (« #règlement_IA »). Les principaux parlementaires avaient alors assuré à leurs collègues qu’ils avaient réussi à inscrire de solides protections aux #droits_humains dans le texte, notamment en excluant la #surveillance_biométrique_de_masse (#SBM).
Pourtant, malgré les annonces des décideurs européens faites alors, le règlement IA n’interdira pas la grande majorité des pratiques dangereuses liées à la surveillance biométrique de masse. Au contraire, elle définit, pour la première fois dans l’#UE, des conditions d’utilisation licites de ces systèmes. Les eurodéputés et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.
L’UE entre dans l’histoire – pour de mauvaises raisons
La coalition #Reclaim_Your_Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquées de par leur conception, et qu’elles n’ont pas leur place dans une société démocratique. La police et les autorités publiques disposent déjà d’un grand nombre de données sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos #visages et nos #corps sur simple pression d’un bouton.
Pourtant, malgré une position de négociation forte de la part du Parlement européen qui demandait l’interdiction de la plupart des pratiques de SBM, très peu de choses avaient survécu aux négociations du règlement relatif à l’IA. Sous la pression des représentants des #forces_de_l’ordre, le Parlement a été contraint d’accepter des limitations particulièrement faibles autour des pratiques intrusives en matière de SBM.
L’une des rares garanties en la matière ayant apparemment survécu aux négociations – une restriction sur l’utilisation de la #reconnaissance_faciale a posteriori [par opposition à l’utilisation en temps réel] – a depuis été vidée de sa substance lors de discussions ultérieures dites « techniques » qui se sont tenues ces dernière semaines.
Malgré les promesses des représentants espagnols en charge des négociations, qui juraient que rien de substantiel ne changerait après le 8 décembre, cette édulcoration des protections contre la reconnaissance faciale a posteriori est une nouvelle déception dans notre lutte contre la #société_de_surveillance.
Quel est le contenu de l’accord ?
D’après ce que nous avons pu voir du texte final, le règlement IA est une occasion manquée de protéger les #libertés_publiques. Nos droits de participer à une #manifestation, d’accéder à des soins de #santé_reproductive ou même de nous asseoir sur un #banc pourraient ainsi être menacés par une surveillance biométrique omniprésente de l’#espace_public. Les restrictions à l’utilisation de la reconnaissance faciale en temps réel et a posteriori prévues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privées ni aux autorités administratives.
Nous sommes également déçus de voir qu’en matière de « #reconnaissance_des_émotions » et les pratiques de #catégorisation_biométrique, seuls des cas d’utilisation très limités sont interdits dans le texte final, avec d’énormes lacunes.
Cela signifie que le règlement IA autorisera de nombreuses formes de reconnaissance des émotions – telles que l’utilisation par la police de systèmes d’IA pour évaluer qui dit ou ne dit pas la #vérité – bien que ces systèmes ne reposent sur aucune base scientifique crédible. Si elle est adoptée sous cette forme, le règlement IA légitimera une pratique qui, tout au long de l’histoire, a partie liée à l’#eugénisme.
Le texte final prévoit également d’autoriser la police à classer les personnes filmées par les caméras de #vidéosurveillance en fonction de leur #couleur_de_peau. Il est difficile de comprendre comment cela peut être autorisé étant donné que la législation européenne interdit normalement toute #discrimination. Il semble cependant que, lorsqu’elle est pratiquée par une machine, les législateurs considèrent de telles #discriminations comme acceptables.
Une seule chose positive était ressorti des travaux techniques menés à la suite des négociations finales du mois de décembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait à la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face » ait réclamé des règles encore plus strictes en la matière, cela constituait un progrès significatif par rapport à la situation actuelle, caractérisée par un recours massif à ces pratiques par les États membres de l’UE.
Il s’agissait d’une victoire pour le Parlement européen, dans un contexte où tant de largesses sont concédées à la surveillance biométrique. Or, les négociations menées ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement à accepter de supprimer cette limitation aux #crimes_transfrontaliers graves tout en affaiblissant les garanties qui subsistent. Désormais, un vague lien avec la « #menace » d’un crime pourrait suffire à justifier l’utilisation de la #reconnaissance_faciale_rétrospective dans les espaces publics.
Il semblerait que ce soit la #France qui ait mené l’offensive visant à faire passer au rouleau compresseur notre droit à être protégés contre les abus de nos données biométriques. À l’approche des #Jeux_olympiques et paralympiques qui se tiendront à Paris cet été, la France s’est battue pour préserver ou étendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systèmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux négociateurs du Parlement n’ont pas réussi à la contrer dans cette démarche.
En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous #surveillance_algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.
►https://www.laquadrature.net/2024/01/19/le-reglement-europeen-sur-lia-ninterdira-pas-la-surveillance-biometriq
#surveillance_de_masse #surveillance #intelligence_artificielle #AI #IA #algorithme
voir aussi :
▻https://seenthis.net/messages/1037288
Chile searches for those missing from Pinochet dictatorship with the help of artificial intelligence
At the end of August, Chilean president Gabriel Boric launched the Search Plan for more than 1,000 Chileans. Today, old judicial documents, many typewritten, have been digitized to apply cutting edge technology and cross-reference data.
On Monday 15 January, at the inauguration of the “Congress of the Future” in Santiago, President Gabriel Boric stated that artificial intelligence, the theme of the 13th version of the conference, “will play an important role in the search for our #missing detainees.” He was referring to the #Search_Plan to find over 1,000 individuals who were victims of the Augusto Pinochet dictatorship (1973-1990), which his Administration presented on August 30, 2023, on the eve of the September 11 commemoration of the 50th anniversary of the coup d’état that ousted Salvador Allende, the socialist president.
The plan, spearheaded by Justice Minister Luis Cordero, is an initiative that is intended to become a permanent State policy. According to Justice data, after the dictatorship in Chile there were 1,469 victims of forced disappearance and of these, 1,092 are missing detainees, while 377, who were executed, are missing as well. So far only 307 have been identified.
To embark on this new search, which has already been initiated by the courts, Cordero tells EL PAÍS that he is working with two main sources. On the one hand, the judicial investigations, which comprise millions of pages. And on the other, the administrative records of the cases that are scattered around state agencies. These include the Human Rights Program, created in 1997, which falls under the Ministry of Justice, as well as previous investigations in military Prosecutor’s Offices (which used to close the cases) and the files that provided the basis for the 1991 National Commission for Truth and Reconciliation Report, driven by the former president, Patricio Aylwin (1990-1994), and in which an account of the victims was given for the first time.
Typewritten documents
Unsholster, a company specialized in data analysis, data science and software development, whose general manager is the civil engineer Antonio Díaz-Araujo, is behind the technological analysis of the information. The Human Rights Program has already digitalized the information, while the Judicial Branch is 80% digitalized. The firm was awarded the project in a bidding process in the context of the Search Plan — it is in charge of the implementation of artificial intelligence.
Something of relevance in this investigation is that the judicial files, separated according to each case, were processed in the old Chilean justice system (changed in 2005), which implies that the judges’ inquiries are on paper — most of them have the pages sewn into a notebook by hand, written on typewriters, and there are even several handwritten parts. These are the ones containing statements, black and white photographs, photocopies of photos, forensic reports and old police reports.
However, in addition, the judicial inquiries that have been undertaken since 2000 will provide a more up-to-date and crucial basis of information in the analysis. Since then, hundreds of cases that had been shelved during the dictatorship have been reopened by judges with exclusive dedication to cases of human rights violations with sentences.
Cordero points out that “there is a lot of information in the hands of the State and there is no human capacity to process it, because it needs to be interconnected. For example, there are testimonies that appear in some files and not in others. And, in addition, depending on the judges, there were lines of investigation, so there may have been precedents that were useful for some and not for others.” For this reason, the justice minister says artificial intelligence can play a key role, as he believes that in these cases, the cross-referencing of information will be crucial.
“All that information is in judicial and administrative files, and what digitization accomplishes first is to integrate them in one place. And then to work with artificial intelligence, which allows us to reduce the investigation gaps using algorithms, which are being tested, and which can read, for example, dates, names, places, for instance, in those files,” the minister adds.
4.7 million pages and counting
Unsholster is currently in the pre-project stage, before it starts programming, Díaz-Araujo explains to EL PAÍS. “But we have already touched on most of the file types that we will need to deal with,” he says. The documents that have been coming in, scanned sheet by sheet, are in folders, in PDF format, and therefore do not correspond to a logic that allows data to be searched because they are recorded as images. For this reason, the first step has been to start applying OCR (Optical Character Recognition) technology so that they can be transformed into data.
They already have information — which does not yet include the thousands of files of the Judicial Branch — totaling 46,768 PDF files, which amounts to more than 4.7 million pages. “If a person were to read every one of those pages, out loud and without understanding or relating facts, they would probably spend eight hours a day reading for 27 years,” explains the civil engineer.
Once those files are moved to pages, Díaz-Araujo says, “a big classification tree is created, which allows you to classify pages that have images, manuscripts, typewritten pages, or Word-style files. And then you start to apply, on each one of them, the best OCR” for each type of page, because the key, he adds, lies in “what material is brought to each one.”
Another stage, he explains, is to create different types of dictionaries and entities “that can be learned with use.” For example, nicknames of people, places, streets (many have changed names since the dictatorship), ways of writing and dates.
This implies, he says, creating a topology of entities in the reading, using technology, of each of the texts “that is capable of rapidly correlating different pages, people, places and dates in a highly flexible way.” He gives an example: “Many of the offenders may have nicknames, and several of them may be written in different ways, but that doesn’t mean that they won’t be linked. What you do is create technology that is capable of suggesting other correlations to the analyst as they occur over time.”
Therefore, he elaborates, “there is artificial intelligence in the classification of documents; there is high intelligence in transforming documents from an image to searchable data and then, there is a lot of it, in the creation of entities that enable the connection of some documents with others. And, finally, the most necessary thing in a platform is that it should be about the possibility of competing algorithms, with artificial intelligence or without, on this data. But it should not be bound to a technology, because the biggest issue is being open to new technologies of the future. If you keep it closed, it becomes a stumbling block.”
He continues: “Another key point of this platform is that the original data, and the transformed data, are retained. But you can continue to create other data on top of that. There is no time machine that kind of freezes the ability to produce more algorithms and more information with new platforms in the future.”
Contreras and Krassnoff
Five months after technology was first applied to the nearly 47,000 documents of Unsholster’s Human Rights Program, it is already possible, thanks to the implementation of the initial OCR on the identification documents, to find thousands of mentions of at least four military officers who were part of Pinochet’s secret police, the feared DINA (National Intelligence Directorate).
Manuel Contreras, its director general, sentenced at the time of his death in 2015 to 526 years in prison for hundreds of crimes, appears 2,800 times; Pedro Espinoza and Miguel Krassnoff, both serving sentences in Punta Peuco prison, 2,079 and 2,954 mentions, respectively. And Marcelo Moren Brito, who was the torturer of Ángela Jeria, the mother of former socialist president, Michelle Bachelet, 2,284 times.
For now they are only mentions. But from now on, names, facts, dates and places can be linked and related, says Díaz-Araujo.
▻https://english.elpais.com/international/2024-01-18/chile-searches-for-those-missing-from-pinochet-dictatorship-with-the
#Chili #intelligence_artificielle #identification #fosses_communes #dictature #AI #IA
]]>La #CSNP invite à mieux anticiper l’impact de l’#IA sur la société
▻https://www.banquedesterritoires.fr/la-csnp-invite-mieux-anticiper-limpact-de-lia-sur-la-societe
Après un premier avis en 2020 sur l’#intelligence_artificielle (IA) centré sur sa dimension économique, la commission supérieure du numérique et des postes (CSNP) revient sur le sujet dans son avis(▻https://csnp.fr/wp-content/uploads/2024/01/AVIS-N%C2%B02024-01-du-17-JANVIER-2024-pour-mieux-encadrer-lusage-de-lintellige) n°2024-01 du 17 janvier 2024. Les parlementaires insistent plus particulièrement sur les enjeux sociétaux de l’IA, le tsunami de l’#IA_générative étant passé par là. Signé de Mireille Clapot, députée de la Drôme et présidente de la CSNP, l’avis souligne l’urgence à réguler l’IA tout en invitant les pouvoirs publics à amortir ses effets sociétaux et à contribuer à l’émergence d’une IA frugale.
]]>Les dames de l’algorithme
▻https://www.radiofrance.fr/franceinter/podcasts/le-code-a-change/le-code-a-change-6-5342040
Absolument passionnant !
L’histoire d’un groupe « d’annotatrices » qui entraînent un programme d’IA sur un programme d’anonymisation automatique des décisions de justice qui doivent maintenant être accessibles à tous.
C’est l’histoire d’une jeune chercheuse qui se lance dans une thèse de sociologie sur l’Intelligence artificielle dans la Justice française. Par un mélange de hasard et de persévérance, elle tombe sur un « terrain » assez inattendu. Quelques bureaux du Palais de Justice, sur l’île de la Cité, à Paris, où on entraîne un algorithme auto-apprenant.
]]>FDA Clearance Granted for First AI-Powered Medical Device to Detect All Three Common Skin Cancers (Melanoma, Basal Cell Carcinoma and Squamous Cell Carcinoma) | Business Wire
▻https://www.businesswire.com/news/home/20240117116417/en/FDA-Clearance-Granted-for-First-AI-Powered-Medical-Device-to-Detect-Al
Bon, c’est avant tout un article promotionnel (i.e. faites plus souvent le test). Mais cela souligne des avancées du matériel médical grace à l’IA.
MIAMI—(BUSINESS WIRE)—DermaSensor Inc. announces FDA clearance for its real-time, non-invasive skin cancer evaluation system. For the first time, the 300,000 primary care physicians in the U.S. can now be equipped to provide quantitative, point-of-care testing for all types of skin cancer. Better identifying skin cancer in a primary care setting is designed to accelerate patient access to necessary care.
]]>Zuckerberg’s Meta Is Spending Billions To Buy 350,000 Nvidia H100 GPUs | PCMag
▻https://www.pcmag.com/news/zuckerbergs-meta-is-spending-billions-to-buy-350000-nvidia-h100-gpus
But to get there, Meta is going to need Nvidia’s H100, an enterprise GPU that’s adept at training large language models. “We’re building an absolutely massive amount of infrastructure to support this,” Zuckerberg said. “By the end of this year, we’re going to have around 350,000 Nvidia H100s. Or around 600,000 H100 equivalents of compute if you include other GPUs.”
#meta #business #ia #intelligence_artificielle #investissement
]]>One-Third of Game Developers Say Their Company Was Hit By Layoffs Last Year - IGN
▻https://www.ign.com/articles/one-third-of-game-developers-say-their-company-was-hit-by-layoffs-last-year
In stark contrast to a year of blockbuster video game hits, one of the biggest ongoing industry trends in 2023 was the prevalence of mass layoffs. While actual figures are difficult to get ahold of, estimates suggest the number of workers laid off in games last year approached or exceeded 10,000, and 2024 isn’t looking much better. Now, a GDC survey of developers suggests that one-third of all game developers were impacted by layoffs last year, either directly or by witnessing them happen at their company.
L’article traite par ailleurs d’IA et de chaîne de blocs basés aussi sur la même enquête de la GDC.
#jeu_vidéo #jeux_vidéo #business #ressources_humaines #licenciements #blockchain #ia #intelligence_artificielle
]]>Dessins de hasard : Anima Sola #30
Récit poétique à partir d’images créées par procuration.
▻https://liminaire.fr/palimpseste/article/dessins-de-hasard
La nuit est un long chemin qui serpente dans les sous-bois, quelques flaques d’eau forment des miroirs au sol. La brume épaissit à mesure qu’on avance. Le paysage se transforme lentement. Difficile de voir à quelques pas devant soi, parfois une lumière vacille au loin, tremblante à peine, cela ressemble à un signal secret, un repère dans la nuit, on pense s’approcher du but, à destination, mais c’est une illusion passagère, lumière chavire avant de basculer dans le noir. La nuit s’obscurcit toujours un peu plus. Bleu nuit sur fond noir....
(...) #Écriture, #Langage, #Poésie, #Lecture, #Photographie, #Littérature, #Art, #AI, #IntelligenceArtificielle, #Dalle-e, #Récit, #Nature, #Nuit, #Paysage, #Lumière, (...)
]]>GPT-4 kostenlos nutzen : Microsoft Copilot für iPhone, iPad und Mac
▻https://www.heise.de/news/GPT-4-kostenlos-nutzen-Microsoft-Copilot-fuer-iPhone-iPad-und-Mac-9585553.html
Encore une offre « gratuite » où on paye avec ses données personnelles. Pourtant c’est tentant d’avoir les générateurs d’images et textes artificiels à sa disposition. Nous avons tellement pris l’habitude de’accepter des pactes avec le diable qu’on peut se permettre celui-ci aussi. On verra bien si c’est vrai.
2.1.2024 von Malte Kirchner - Wenige Tage nach der Android-Version veröffentlichte Microsoft jetzt auch Copilot für iOS und iPadOS. Auch Mac-Nutzer können die App verwenden.
Microsoft hat seine App Copilot jetzt auch für iOS, iPadOS und macOS veröffentlicht. Sie ist im App Store kostenlos verfügbar. Der KI-Chatbot erlaubt das Generieren von Texten unter anderem auch mit dem Large Language Model (LLM) GPT-4 – und das kostenlos und ohne Anmeldung. Von Interesse dürfte für einige sicherlich auch der Text-zu-Bild-Generator DALL-E3 sein, der integriert ist.
Die Variante für Apple-Geräte folgte wenige Tage, nachdem Microsoft die App für Android-Geräte veröffentlicht hatte. Offiziell ist sie nur für iOS und iPadOS vorgesehen. Doch Microsoft lässt es zu, dass sie auch auf Macs mit Apple Silicon aus dem Mac App Store geladen werden kann. Dort gilt sie zwar als ungeprüft, funktionierte aber in unseren Tests einwandfrei.
Bis zu 30 Antworten pro Thread
Der zuerst Bing Chat genannte KI-Assistent ist auch ohne Anmeldung nutzbar. Dann allerdings sind pro Thread nur fünf Fragen und Antworten möglich. Das Erzeugen von Bildern ist nur nach Anmeldung möglich. Mit einem Microsoft-Account erhöht sich zudem die Zahl der Antworten pro Thread auf 30. Neben Texteingaben können auch Fotos und Spracheingaben zur Verarbeitung hochgeladen werden. Gegenwärtig lassen sich komplette Chatverläufe nicht sichern. Einzelne Antworten können kopiert werden.
Microsofts Copilot gesellt sich im App Store zur offiziellen App ChatGPT von OpenAI, die aber nicht für den Mac bereitsteht. Zudem ist die Nutzung von GPT-4 bei ChatGPT nur mit einem kostenpflichtigen Plus-Abo möglich. Der Copilot wurde bereits auch in Windows, in Office-Anwendungen und weiterer Software integriert.
]]>Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète
Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.
La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.
A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.
Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.
Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.
La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.
Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.
Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.
Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.
A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.
« Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.
« Des progrès dans de nombreux domaines »
L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.
La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.
Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).
A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».
Des « systèmes susceptibles de modifier votre #comportement »
Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.
La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »
Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »
Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.
Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.
▻https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
#vidéosurveillance #AI #IA #caméras_de_vidéosurveillance
AI Audio Effects, Including Voice Transcription, Come to #audacity
▻https://www.omgubuntu.co.uk/2024/01/intel-ai-effects-audacity
Intel has released an array of AI effects for the open-source audio editor Audacity. #intel’s OpenVINO AI plugins for Audacity (to give them their official name) have been designed to work offline and locally, meaning no cloud servers, signups, or subscriptions are required to use them — just some halfway decent hardware! Include are time-saving effects for editing spoken word audio, such as podcasts, audiobooks, and interviews, as well as effects for music creation/production (the latter further bolstering Audacity’s growing DAW capabilities): OpenVINO stands for ‘Open Visual Inference and Neural network Optimization’. It’s a new, open-source toolkit developed by Intel […] You’re reading AI Audio Effects, Including Voice Transcription, Come to Audacity, a blog post from OMG! Ubuntu. Do not (...)
#News #AI/ML #Audio_Apps
]]>« C’est la première fois de l’histoire qu’une IA remporte un prix littéraire »
▻https://actualitte.com/article/114902/technologie/c-est-la-premiere-fois-de-l-histoire-qu-une-ia-remporte-un-prix-litterai
En Chine, un professeur de journalisme a reçu le deuxième prix dans un concours d’écriture de science-fiction. Sauf que ce n’est pas sa création propre qu’il y avait présentée, mais celle d’une IA qu’il avait simplement aidé à écrire l’histoire.
Publié le :
27/12/2023 à 16:25
Ugo Loumé
3h de temps et 66 prompts choisis minutieusement. Voici la recette pour faire écrire à une intelligence artificielle une nouvelle de science-fiction capable de remporter un prix littéraire en Chine.
Shen Yang, professeur de journalisme et de communication à l’Université Tsinghua de Pékin, est l’auteur de cette recette qui a débouché sur un récit de 6 000 caractères, Le pays des souvenirs.
Aux confins du métavers, se trouve le « Pays des souvenirs », un royaume interdit où les humains sont bannis. Des illusions solides créées par des robots humanoïdes amnésiques et des IA ayant perdu la mémoire peuplent ce domaine. Tout intrus, qu’il soit humain ou artificiel, verra ses souvenirs effacés et sera à jamais piégé dans son étreinte interdite.
Ainsi débute la nouvelle. Ensuite, c’est l’histoire de Li Xiao, une ancienne « ingénieure neuronale » qui a accidentellement perdu toute sa mémoire, et qui tente de la retrouver en explorant tranquillement ce fameux et effrayant « pays des souvenirs ».
Une nouvelle kafkaïenne dans un monde kafkaïen
Un récit qui se voulait « kafkaïen », référence, peut-être, à l’absurdité d’un tel endroit où les souvenirs s’évanouissent à peine le seuil en est franchi. L’exercice semble avoir convaincu, puisque la nouvelle a gagné le deuxième prix du concours de science fiction organisé par la Jiangsu Science Writers Association. La travail effectué par l’IA, qui a récolté 3 votes sur 6, concourait avec 17 autres histoires.
Parmi le jury, un seul membre avait été informé du fait que le récit était le produit d’une intelligence artificielle. Un autre juge, qui a étudié en profondeur la création de contenu par IA, a déclaré avoir reconnu la plume d’un cerveau non-humain, et avoir d’emblée écarté ce récit qui n’était pas conforme aux règles du concours et « manquait d’émotion ».
Shen Yang, de son côté, se réjouit : « C’est la première fois qu’une IA remporte un prix littéraire dans l’histoire de la littérature et de l’intelligence artificielle. » Il a déclaré vouloir partager au plus vite sa manière de faire pour que chacun puisse à son tour écrire de la bonne fiction assisté d’une IA.
Dans le contexte actuel, il n’en fallait pas beaucoup plus pour créer du débat, alors que Clarkesworld, célèbre magazine de science fiction, interrompait en février dernier la reception de manuscrit, submergé par les textes produits par des entités non-humaines.
Fu Ruchu, éditrice chinoise, s’interroge sur le futur de l’écriture de science-fiction, un genre qui selon elle s’intéresse de manière globale un peu moins au langage. Même si elle reconnait que le récit présenté par Shen Yang et son IA est bien construit et n’est pas dénué de logique, elle ajoute : « le rapport au langage dans cette nouvelle est très pauvre, il se pourrait qu’il s’appauvrit encore plus avec le temps. »
]]>L’heure du retour : Anima Sola #29
Récit poétique à partir d’images créées par procuration.
▻https://liminaire.fr/palimpseste/article/l-heure-du-retour
Nous restons un long moment sans rien dire. Le vent dans nos cheveux, l’air de la mer nous enivre. Elle pense parfois qu’il faut s’ouvrir à tout ce qui nous entoure en toutes circonstances afin de faire de notre mémoire le réceptacle de sensations uniques. Elle les énumère à voix basse : Aérer chaque jour sa maison pendant cinq minutes pour renouveler l’air à l’intérieur. Passer la main dans ses cheveux. Lever les yeux en l’air pour regarder les avions traverser le ciel. Remonter son col et rajuster son écharpe dans la fraîcheur de l’hiver...
(...) #Écriture, #Langage, #Poésie, #Lecture, #Photographie, #Littérature, #Art, #AI, #IntelligenceArtificielle, #Dalle-e, #Récit, #Nature, #Nuit, #Paysage, #Lumière, #Mer (...)
]]>L’heure des nostalgies : Anima Sola #28
Récit poétique à partir d’images créées par procuration.
▻https://liminaire.fr/palimpseste/article/l-heure-des-nostalgies
Je marche sans même avoir à regarder le fleuve. Je m’accroche aux bruits de la ville, aux visages des amis. Je contemple au-dessus de moi un ciel qui s’écrase contre ma nuque et les épaules. Je me dresse, tout est horrible et lointain. Il faudrait revenir en arrière mais personne n’est prêt à effectuer ce revirement, amorcer ce changement radical. Nous pensons souvent que changer d’avis, rebrousser chemin, défaire ce que nous avons fabriqué, est un aveu de faiblesse, le signe d’un échec.
(...) #Écriture, #Langage, #Poésie, #Lecture, #Photographie, #Littérature, #Art, #AI, #IntelligenceArtificielle, #Dalle-e, #Récit, #Nature, #Nuit, #Paysage, #Lumière, #Incendie, #Feu (...)
]]>EU’s AI Act Falls Short on Protecting Rights at Borders
Despite years of tireless advocacy by a coalition of civil society and academics (including the author), the European Union’s new law regulating artificial intelligence falls short on protecting the most vulnerable. Late in the night on Friday, Dec. 8, the European Parliament reached a landmark deal on its long-awaited Act to Govern Artificial Intelligence (AI Act). After years of meetings, lobbying, and hearings, the EU member states, Commission, and the Parliament agreed on the provisions of the act, awaiting technical meetings and formal approval before the final text of the legislation is released to the public. A so-called “global first” and racing ahead of the United States, the EU’s bill is the first ever regional attempt to create an omnibus AI legislation. Unfortunately, this bill once again does not sufficiently recognize the vast human rights risks of border technologies and should go much further protecting the rights of people on the move.
From surveillance drones patrolling the Mediterranean to vast databases collecting sensitive biometric information to experimental projects like robo-dogs and AI lie detectors, every step of a person’s migration journey is now impacted by risky and unregulated border technology projects. These technologies are fraught with privacy infringements, discriminatory decision-making, and even impact the life, liberty, and security of person seeking asylum. They also impact procedural rights, muddying responsibility over opaque and discretionary decisions and lacking clarity in mechanisms of redress when something goes wrong.
The EU’s AI Act could have been a landmark global standard for the protection of the rights of the most vulnerable. But once again, it does not provide the necessary safeguards around border technologies. For example, while recognizing that some border technologies could fall under the high-risk category, it is not yet clear what, if any, border tech projects will be included in the final high-risk category of projects that are subject to transparency obligations, human rights impact assessments, and greater scrutiny. The Act also has various carveouts and exemptions in place, for example for matters of national security, which can encapsulate technologies used in migration and border enforcement. And crucial discussions around bans on high-risk technologies in migration never even made it into the Parliament’s final deal terms at all. Even the bans which have been announced, for example around emotion recognition, are only in place in the workplace and education, not at the border. Moreover, what exactly is banned remains to be seen, and outstanding questions to be answered in the final text include the parameters around predictive policing as well as the exceptions to the ban on real-time biometric surveillance, still allowed in instances of a “threat of terrorism,” targeted search for victims, or the prosecution of serious crimes. It is also particularly troubling that the AI Act explicitly leaves room for technologies which are of particular appetite for Frontex, the EU’s border force. Frontex released its AI strategy on Nov. 9, signaling an appetite for predictive tools and situational analysis technology. These tools, which when used without safeguards, can facilitate illegal border interdiction operations, including “pushbacks,” in which the agency has been investigated. The Protect Not Surveil Coalition has been trying to influence European policy makers to ban predictive analytics used for the purposes of border enforcement. Unfortunately, no migration tech bans at all seem to be in the final Act.
The lack of bans and red lines under the high-risk uses of border technologies in the EU’s position is in opposition to years of academic research as well as international guidance, such as by then-U.N. Special Rapporteur on contemporary forms of racism, E. Tendayi Achiume. For example, a recently released report by the University of Essex and the UN’s Office of the Human Rights Commissioner (OHCHR), which I co-authored with Professor Lorna McGregor, argues for a human rights based approach to digital border technologies, including a moratorium on the most high risk border technologies such as border surveillance, which pushes people on the move into dangerous terrain and can even assist with illegal border enforcement operations such as forced interdictions, or “pushbacks.” The EU did not take even a fraction of this position on border technologies.
While it is promising to see strict regulation of high-risk AI systems such as self-driving cars or medical equipment, why are the risks of unregulated AI technologies at the border allowed to continue unabated? My work over the last six years spans borders from the U.S.-Mexico corridor to the fringes of Europe to East Africa and beyond, and I have witnessed time and again how technological border violence operates in an ecosystem replete with the criminalization of migration, anti-migrant sentiments, overreliance on the private sector in an increasingly lucrative border industrial complex, and deadly practices of border enforcement, leading to thousands of deaths at borders. From vast biometric data collected without consent in refugee camps, to algorithms replacing visa officers and making discriminatory decisions, to AI lie detectors used at borders to discern apparent liars, the roll out of unregulated technologies is ever-growing. The opaque and discretionary world of border enforcement and immigration decision-making is built on societal structures which are underpinned by intersecting systemic racism and historical discrimination against people migrating, allowing for high-risk technological experimentation to thrive at the border.
The EU’s weak governance on border technologies will allow for more and more experimental projects to proliferate, setting a global standard on how governments will approach migration technologies. The United States is no exception, and in an upcoming election year where migration will once again be in the spotlight, there does not seem to be much incentive to regulate technologies at the border. The Biden administration’s recently released Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence does not offer a regulatory framework for these high-risk technologies, nor does it discuss the impacts of border technologies on people migrating, including taking a human rights based approach to the vast impacts of these projects on people migrating. Unfortunately, the EU often sets a precedent for how other countries govern technology. With the weak protections offered by the EU AI act on border technologies, it is no surprise that the U.S. government is emboldened to do as little as possible to protect people on the move from harmful technologies.
But real people already are at the centre of border technologies. People like Mr. Alvarado, a young husband and father from Latin America in his early 30s who perished mere kilometers away from a major highway in Arizona, in search of a better life. I visited his memorial site after hours of trekking through the beautiful yet deadly Sonora desert with a search-and-rescue group. For my upcoming book, The Walls have Eyes: Surviving Migration in the Age of Artificial Intelligence, I was documenting the growing surveillance dragnet of the so-called smart border that pushes people to take increasingly dangerous routes, leading to increasing loss of life at the U.S.-Mexico border. Border technologies as a deterrent simply do not work. People desperate for safety – and exercising their internationally protected right to asylum – will not stop coming. They will instead more circuitous routes, and scholars like Geoffrey Boyce and Samuel Chambers have already documented a threefold increase in deaths at the U.S.-Mexico frontier as the so-called smart border expands. In the not so distant future, will people like Mr. Alvarado be pursued by the Department of Homeland Security’s recently announced robo-dogs, a military grade technology that is sometimes armed?
It is no accident that more robust governance around migration technologies is not forthcoming. Border spaces increasingly serve as testing grounds for new technologies, places where regulation is deliberately limited and where an “anything goes” frontier attitude informs the development and deployment of surveillance at the expense of people’s lives. There is also big money to be made in developing and selling high risk technologies. Why does the private sector get to time and again determine what we innovate on and why, in often problematic public-private partnerships which states are increasingly keen to make in today’s global AI arms race? For example, whose priorities really matter when we choose to create violent sound cannons or AI-powered lie detectors at the border instead of using AI to identify racist border guards? Technology replicates power structures in society. Unfortunately, the viewpoints of those most affected are routinely excluded from the discussion, particularly around areas of no-go-zones or ethically fraught usages of technology.
Seventy-seven border walls and counting are now cutting across the landscape of the world. They are both physical and digital, justifying broader surveillance under the guise of detecting illegal migrants and catching terrorists, creating suitable enemies we can all rally around. The use of military, or quasi-military, autonomous technology bolsters the connection between immigration and national security. None of these technologies, projects, and sets of decisions are neutral. All technological choices – choices about what to count, who counts, and why – have an inherently political dimension and replicate biases that render certain communities at risk of being harmed, communities that are already under-resourced, discriminated against, and vulnerable to the sharpening of borders all around the world.
As is once again clear with the EU’s AI Act and the direction of U.S. policy on AI so far, the impacts on real people seems to have been forgotten. Kowtowing to industry and making concessions for the private sector not to stifle innovation does not protect people, especially those most marginalized. Human rights standards and norms are the bare minimum in the growing panopticon of border technologies. More robust and enforceable governance mechanisms are needed to regulate the high-risk experiments at borders and migration management, including a moratorium on violent technologies and red lines under military-grade technologies, polygraph machines, and predictive analytics used for border interdictions, at the very least. These laws and governance mechanisms must also include efforts at local, regional, and international levels, as well as global co-operation and commitment to a human-rights based approach to the development and deployment of border technologies. However, in order for more robust policy making on border technologies to actually affect change, people with lived experiences of migration must also be in the driver’s seat when interrogating both the negative impacts of technology as well as the creative solutions that innovation can bring to the complex stories of human movement.
▻https://www.justsecurity.org/90763/eus-ai-act-falls-short-on-protecting-rights-at-borders
#droits #frontières #AI #IA #intelligence_artificielle #Artificial_Intelligence_Act #AI_act #UE #EU #drones #Méditerranée #mer_Méditerranée #droits_humains #technologie #risques #surveillance #discrimination #transparence #contrôles_migratoires #Frontex #push-backs #refoulements #privatisation #business #complexe_militaro-industriel #morts_aux_frontières #biométrie #données #racisme #racisme_systémique #expérimentation #smart_borders #frontières_intelligentes #pouvoir #murs #barrières_frontalières #terrorisme
]]>L’usage revendiqué de l’intelligence artificielle par l’armée israélienne questionne le droit de la guerre
▻https://www.lemonde.fr/idees/article/2023/12/14/l-usage-revendique-de-l-intelligence-artificielle-par-l-armee-israelienne-qu
Cette question des applications militaires est importante. Une opération militaire donne le plein pouvoir aux militaires, qui ont en principe un « objectif » fixé par le pouvoir civil, mais ont ensuite la maîtrise des moyens pour y parvenir, sans devoir rendre de compte devant la justice (la CPI reste trop faible). Dès lors si en deuxième main la responsabilité léthale est confiée à une IA, on est encore plus loin de la responsabilité (souvent jugée ultérieurement... pas les vainqueurs) qui pourrait être relevée pour crimes de guerre.
Enfin, quand la guerre se résume à détruire son voisin en limitant ses risques, on peut s’attendre à des guerre de plus en plus terribles pour les populations civiles. On retrouve le débat sur les drones armés.
Parmi toutes les horreurs de la guerre qui a éclaté le 7 octobre entre Israël et le Hamas, il en est une qui est venue, de façon inattendue, ajouter une dimension dystopique à ce conflit : le recours assumé, par l’armée israélienne, à la puissance de l’intelligence artificielle (IA) pour maximiser son écrasement du mouvement islamiste. Une IA présentée comme une des composantes-clés de l’un de ses outils de ciblage pour ses campagnes de frappes aériennes sur la bande de Gaza, baptisé Habsora (« Evangile »).
Difficile de savoir à quel point cette révélation inopinée, début novembre, au lendemain de la trêve de sept jours ayant permis la libération de 110 otages, a été le résultat d’une stratégie de communication maîtrisée. Des enquêtes de presse rapportaient alors les états d’âme d’anciens membres de l’armée israélienne sur l’emploi de ce logiciel capable de proposer des cibles à une vitesse inédite à partir d’une masse de données hétérogènes. Les mots « intelligence artificielle » sont parfois un fourre-tout qui englobe beaucoup d’applications numériques, qu’elles soient civiles ou militaires.
Une chose apparaît néanmoins évidente, depuis, aux yeux d’experts : l’ampleur des destructions et le nombre inédit de victimes civiles à Gaza – plus de 18 000, selon le ministère de la santé du Hamas – pourraient faire bouger les lignes sur l’encadrement de l’IA dans les systèmes d’armes. « Cela fait des années que le sujet ne fait l’objet d’aucun consensus chez les spécialistes. Cette guerre pourrait permettre d’accélérer certains débats », soutient ainsi Julien Nocetti, chercheur associé à l’Institut français des relations internationales (IFRI), spécialiste des conflits numériques.
Lire le décryptage : Article réservé à nos abonnés Israël-Hamas : « Le Monde » face à la guerre des images
Les armements sont en effet aujourd’hui divisés en deux grandes catégories. D’un côté, les systèmes d’armes létales autonomes, totalement automatisés, dont il n’existe pas réellement d’exemples sur le marché. De l’autre, les systèmes d’armes létales « intégrant » de l’autonomie (SALIA), qui permettent en principe à l’homme de rester « dans la boucle ». Or l’immense majorité des puissances militaires occidentales – dont Israël avec Habsora – assurent aujourd’hui avoir fait le choix des SALIA, et peuvent ainsi jurer être du côté respectable de l’emploi de la force.
Mais, pour Laure de Roucy-Rochegonde, également chercheuse à l’IFRI, autrice d’une thèse sur la régulation des systèmes d’armes autonomes, les spécificités de la guerre entre Israël et le Hamas pourraient ringardiser ces catégories aux contours flous et redonner de la vigueur à un autre concept de régulation, celui de « contrôle humain significatif ». Une définition plus stricte, poussée sans grand succès jusqu’ici par certains défenseurs des droits de l’homme, dont une ONG dénommée Article 36. « Le problème, c’est que l’on ne sait pas quel type d’algorithme est utilisé [par l’armée israélienne], ni comment les données ont été agrégées. Ce ne serait pas un problème s’il n’y avait pas, au bout, une décision de vie ou de mort », reprend Mme de Roucy-Rochegonde.
]]>L’aiguille des minutes : Anima Sola #27
Récit poétique à partir d’images créées par procuration.
▻https://liminaire.fr/palimpseste/article/l-aiguille-des-minutes
Dès qu’il se met à pleuvoir, on cherche un abri, un sas de décompression, un refuge temporaire. Une parenthèse. On ne sait pas pour combien de temps on risque de se trouver coincé là. C’est cette incertitude qui nous intrigue en même temps qu’elle nous terrifie. Un temps qui ne sert à rien, qui tourne sur lui-même. Un moment d’observation désœuvrée, un peu lasse, distante. Instant de solitude, de retrait, de retour forcé sur soi.
(...) #Écriture, #Langage, #Poésie, #Lecture, #Photographie, #Littérature, #Art, #AI, #IntelligenceArtificielle, #Dalle-e, #Récit, #Nature, #Nuit, #Paysage, #Lumière, #Pluie, #Ville (...)
]]>EU lawmakers bag late night deal on ‘global first’ AI rules | TechCrunch
▻https://techcrunch.com/2023/12/08/eu-ai-act-political-deal
Tout l’article est très intéressant.
Full details of what’s been agreed won’t be entirely confirmed until a final text is compiled and made public, which may take some weeks. But a press release put out by the European Parliament confirms the deal reached with the Council includes a total prohibition on the use of AI for:
biometric categorisation systems that use sensitive characteristics (e.g. political, religious, philosophical beliefs, sexual orientation, race);
untargeted scraping of facial images from the internet or CCTV footage to create facial recognition databases;
emotion recognition in the workplace and educational institutions;
social scoring based on social behaviour or personal characteristics;
AI systems that manipulate human behaviour to circumvent their free will;
AI used to exploit the vulnerabilities of people (due to their age, disability, social or economic situation).
The use of remote biometric identification technology in public places by law enforcement has not been completely banned — but the parliament said negotiators had agreed on a series of safeguards and narrow exceptions to limit use of technologies such as facial recognition. This includes a requirement for prior judicial authorisation — and with uses limited to a “strictly defined” lists of crime.
Civil society groups have reacted sceptically — raising concerns the agreed limitations on state agencies’ use of biometric identification technologies will not go far enough to safeguard human rights. Digital rights group EDRi, which was among those pushing for a full ban on remote biometrics, said that whilst the deal contains “some limited gains for human rights”, it looks like “a shell of the AI law Europe really needs”.
There was also agreement on a “two-tier” system of guardrails to be applied to “general” AI systems, such as the so-called foundational models underpinning the viral boom in generative AI applications like ChatGPT.
As we reported earlier, the deal reached on foundational models/general purpose AIs (GPAIs) includes some transparency requirements for what co-legislators referred to as “low tier” AIs — meaning model makers must draw up technical documentation and produce (and publish) detailed summaries about the content used for training in order to support compliance with EU copyright law. For “high-impact” GPAIs (defined as the cumulative amount of compute used for their training measured in floating point operations is greater than 10^25) with so-called “systemic risk” there are more stringent obligations.
“If these models meet certain criteria they will have to conduct model evaluations, assess and mitigate systemic risks, conduct adversarial testing, report to the Commission on serious incidents, ensure cybersecurity and report on their energy efficiency,” the parliament wrote. “MEPs also insisted that, until harmonised EU standards are published, GPAIs with systemic risk may rely on codes of practice to comply with the regulation.”
The Commission has been working with industry on a stop-gap AI Pact for some months — and it confirmed today this is intended to plug the practice gap until the AI Act comes into force.
While foundational models/GPAIs that have been commercialized face regulation under the Act, R&D is not intended to be in scope of the law — and fully open sourced models will have lighter regulatory requirements than closed source, per today’s pronouncements.
The package agreed also promotes regulatory sandboxes and real-world-testing being established by national authorities to support startups and SMEs to develop and train AIs before placement on the market.
]]>Un mélange de faux souvenirs : Anima Sola #26
Récit poétique à partir d’images créées par procuration.
▻https://liminaire.fr/palimpseste/article/un-melange-de-faux-souvenirs
Je confonds un mélange de faux souvenirs, d’erreurs. Je suis comme tout le monde. Je ferme les yeux. J’imagine que les visages vont naître de l’instant. Je rêve d’un homme qui habite sur une petite île. Je découvre les limites de son monde. Linguiste il est obligé d’abandonner sa femme pour son travail. Il part vivre à l’autre bout du monde pour sauver une langue qui risque de disparaître. Il partage la vie du dernier locuteur, un vieil homme fatigué. Il en profite pour noter toutes ses paroles, ses expressions, il échange avec lui pour apprendre sa langue, tout en élaborant parallèlement un dictionnaire et une méthode d’apprentissage.
(...) #Écriture, #Langage, #Poésie, #Lecture, #Photographie, #Littérature, #Art, #AI, #IntelligenceArtificielle, #Dalle-e, #Récit, #Nature, #Nuit, #Paysage, #Lumière, #Rêve, (...)
]]>