• On entend trop le mot « algorithme »
    https://framablog.org/2022/09/29/on-entend-trop-le-mot-algorithme

    Dans les débats politiques au sujet du Web et du numérique en général, on parle souvent d’« algorithmes ». Il n’est peut-être pas inutile de revenir sur ce qu’est un algorithme et sur ce qu’il n’est pas. Si vous êtes informaticien·ne, vous … Lire la suite­­

    #Claviers_invités #Internet_et_société #algorithmes #algorithmique #programmation #programmes

  • Une campagne d’ingérence étrangère proaméricaine démantelée sur Twitter et Facebook Jeff Yates - Radio Canada
    https://ici.radio-canada.ca/nouvelle/1907927/ingerence-etrangere-americaine-moyen-orient-iran-asie-centale-faceb

    L’opération était gérée depuis les États-Unis, mais il n’est pas possible de savoir si le gouvernement se cache derrière.

    Des chercheurs ont détecté une campagne clandestine sur les réseaux sociaux visant à promouvoir les intérêts des États-Unis et à alimenter la méfiance envers leurs adversaires, selon un nouveau rapport publié mercredi https://fsi.stanford.edu/news/sio-aug-22-takedowns .

    Cette campagne clandestine, active depuis 2017, visait à influencer les utilisateurs de réseaux sociaux habitant en Asie centrale, en Iran, en Afghanistan et au Moyen-Orient. À l’aide de faux comptes se faisant passer pour des médias et des habitants locaux, la campagne cherchait à attiser le ressentiment envers la Russie, l’Iran et la Chine. Près de la moitié des comptes visaient la population iranienne.

    Les chercheurs, travaillant pour la firme d’analyse des réseaux sociaux Graphika, ainsi que pour l’Observatoire de l’Internet de l’Université Stanford, jugent qu’il s’agit de “la plus vaste opération d’influence pro-occidentale sur les réseaux sociaux jamais analysée par des chercheurs œuvrant dans le renseignement d’origine sources ouvertes (open source)”.

    En tout, l’équipe a analysé près de 300 000 tweets provenant de 146 faux comptes Twitter, ainsi que 39 faux comptes, 16 pages, 2 groupes sur Facebook et 26 comptes Instagram. Les chercheurs ont aussi trouvé des faux comptes associés sur d’autres réseaux sociaux de langue russe. Selon leur analyse, tous ces faux comptes agissaient de façon coordonnée.

    Meta, l’entreprise qui détient Facebook et Instagram, et Twitter ont supprimé l’entièreté du réseau et affirment que ces faux comptes auraient été gérés depuis les États-Unis. Ni ces entreprises ni les chercheurs ne peuvent dire avec certitude qui est derrière cette campagne.

    Les chercheurs notent toutefois qu’une version archivée d’un des faux comptes montre que celui-ci indiquait en 2021 appartenir à CENTCOM, le commandement central des États-Unis, responsable des opérations militaires au Moyen-Orient et en Asie centrale, entre autres.

    Le réseau a même utilisé des portraits générés par l’intelligence artificielle pour créer des faux profils plus réalistes. Ces comptes ont répandu des articles provenant de sites web de faux médias locaux, des caricatures, ainsi que des pétitions comportant un message pro-occidental.

    Quelques faux profils appartenant au réseau et visant le Moyen-Orient. Les photos de profil ont été créées à l’aide de l’intelligence artificielle. Photo : Graphika/Stanford University

    Peu après le début de l’invasion russe de l’Ukraine, plusieurs de ceux-ci ont cherché à dépeindre la Russie comme étant un agresseur et à mettre l’accent sur les atrocités alléguées commises par les soldats russes.

    “Jusqu’à maintenant, presque toute la recherche sur les opérations d’influence se penchait sur des activités liées à des régimes autoritaires. Notre rapport offre un des premiers regards sur une opération clandestine proaméricaine sur les réseaux sociaux”, juge Shelby Grossman, qui fait partie des auteurs du rapport et chercheuse à l’Observatoire de l’Internet de Stanford.

    Elle et ses collègues soulignent que la campagne était relativement de piètre qualité. Certains textes étaient par exemple traduits de l’anglais au russe de façon approximative. Les publications de ces faux comptes ont généré peu d’engouement chez les populations visées. Le tweet moyen associé à cette campagne a reçu 0,49 j’aime et 0,02 retweet, fait remarquer Mme Grossman. . . . . . . .

    #USA #CIA #twitter #facebook #méta #manipulation #algorithmes #réseaux_sociaux #ia #intelligence_artificielle #pétitions #influenceurs #influenceuses #centcom #médias #ukraine

  • À #Calais, une #surveillance du ciel au tunnel

    #Drones, #reconnaissance_faciale, #capteurs_de_CO2 et de battements cardiaques : face à l’afflux de réfugiés, la frontière franco-britannique est surveillée à grands coups d’#intelligence_artificielle. Premier volet de notre série sur la #cybersurveillance des frontières.

    Pablo lève les yeux au ciel et réfléchit. Brusquement, il fixe son ordinateur. Le chargé de communication et plaidoyer chez Human Rights Observers (HRO) fouille dans ses dossiers, ouvre un document d’une quinzaine de pages. « Tu vois, ce jour-là, ils ont utilisé un drone », indique-t-il en pointant l’écran du doigt. Le 9 juin, l’association pour laquelle il travaille assiste à une expulsion de réfugié·es à #Grande-Synthe. Dans son compte-rendu, elle mentionne la présence d’un drone. Des vols d’aéronefs, hélicoptères ou avions, devenus routiniers.

    En cette matinée de fin juin, Pablo a donné rendez-vous sur son lieu de travail, « l’entrepôt », comme il l’appelle. Ce vaste bâtiment désaffecté d’une zone industrielle à l’est de Calais héberge plusieurs associations locales. Les bureaux de HRO sont spartiates : un simple préfabriqué blanc planté dans la cour.

    C’est ici que ses membres se réunissent pour documenter les #violences d’État perpétrées contre les personnes en situation d’exil à la frontière franco-britannique, plus spécifiquement à Calais et à Grande-Synthe. Depuis plus de 20 ans, la ville est érigée en symbole de la crise migratoire. L’évacuation et la destruction de la jungle en octobre 2016 n’ont rien changé. Désormais réparties dans de multiples camps précaires, des centaines de migrants et migrantes tentent le passage vers l’Angleterre au péril de leur vie. Selon le ministère de l’intérieur, ils et elles étaient 52 000 en 2021, un record, contre « seulement » 10 000 en 2020.

    Sous l’impulsion des pouvoirs publics, Calais se barricade. Plus que les maisons de briques rouges, ce sont les #clôtures géantes, les rangées de #barbelés et les #marécages_artificiels qui attirent la vue. Tout semble construit pour décourager les exilé·es de rejoindre la Grande-Bretagne. « Avant, il n’y avait pas tout ça. C’est devenu assez oppressant », regrette Alexandra. Arrivée il y a sept ans dans le Pas-de-Calais, elle travaille pour l’Auberge des migrants, association qui coordonne le projet HRO.

    Quatre #caméras empilées sur un pylône à l’entrée du port rappellent que cette frontière n’est pas que physique. #Vidéosurveillance, #drones, #avions, #détecteurs_de_CO2… Le littoral nord incarne le parfait exemple de la « #smart_border ». Une frontière invisible, connectée. Un eldorado pour certaines entreprises du secteur de l’intelligence artificielle, mais un cauchemar pour les exilé·es désormais à la merci des #algorithmes.

    Si des dizaines de #caméras lorgnent déjà sur le port et le centre-ville, la tendance n’est pas près de s’inverser. La maire LR, #Natacha_Bouchart, qui n’a pas donné suite à notre demande d’interview, prévoit d’investir 558 000 euros supplémentaires en #vidéosurveillance en 2022.

    « C’est la nouvelle étape d’une politique en place depuis plusieurs décennies », analyse Pierre Bonnevalle, politologue, auteur d’un long rapport sur le sujet. À Calais, la #bunkérisation remonte, selon le chercheur, au milieu des années 1990. « À cette époque commencent les premières occupations des espaces portuaires par des personnes venues des pays de l’Est qui souhaitaient rejoindre la Grande-Bretagne. Cela entraîne les premières expulsions, puis un arrêté pris par la préfecture pour interdire l’accès au port. »

    Les années suivantes, c’est à #Sangatte que se dessinent les pratiques policières d’aujourd’hui. Dans cette commune limitrophe de Calais, un hangar préfigure ce que sera la « #jungle » et héberge jusqu’à 2 000 exilé·es. « La police cible alors tous ceux qui errent dans la ville, tentent d’ouvrir des squats, de dormir dans un espace boisé. » Une manière de « contenir le problème », de « gagner du temps ».

    En parallèle, la ville s’équipe en vidéosurveillance et en barbelés. En 2016, l’expulsion de la jungle fait émerger la politique gouvernementale actuelle : l’#expulsion par les forces de l’ordre, toutes les 24 ou 48 heures, des camps où vivent les personnes exilées.

    #Surveillance_aérienne

    Calme et grisâtre en ce jour de visite, le ciel calaisien n’est pas épargné. Depuis septembre 2020, l’armée britannique fait voler un drone #Watchkeeper, produit par l’industriel français #Thales, pour surveiller la mer. « Nous restons pleinement déterminés à soutenir le ministère de l’intérieur britannique alors qu’il s’attaque au nombre croissant de petits bateaux traversant la Manche », se félicite l’armée britannique dans un communiqué.

    Selon des données de vol consultées par Mediapart, un drone de l’#Agence_européenne_pour_la_sécurité_maritime (#AESM) survole également régulièrement les eaux, officiellement pour analyser les niveaux de pollution des navires qui transitent dans le détroit du Pas-de-Calais. Est-il parfois chargé de missions de surveillance ? L’AESM n’a pas répondu à nos questions.

    Au sein du milieu associatif calaisien, la présence de ces volatiles numériques n’étonne personne. « On en voit souvent, comme des hélicoptères équipés de caméras thermiques », confie Marguerite, salariée de l’Auberge des migrants. Chargée de mission au Secours catholique, Juliette Delaplace constate que cette présence complexifie leur travail. « On ne sait pas si ce sont des drones militaires, ou des forces de l’ordre, mais lorsque l’on intervient et que les exilés voient qu’un drone nous survole, c’est très compliqué de gagner leur confiance. »

    En décembre 2021, à la suite d’une demande expresse du ministre de l’intérieur, Gérald Darmanin, l’agence européenne #Frontex a dépêché un #avion pour surveiller la côte pendant plusieurs semaines. « Une mission toujours en cours pour patrouiller aux frontières française et belge », précise Frontex.

    « On sent une évolution des #contrôles depuis l’intervention de cet avion, qui a œuvré principalement la nuit, confie le maire d’une ville du Nord. Beaucoup de gens tentaient de monter dans des camions, mais cela a diminué depuis que les contrôles se sont durcis. »

    Il faut dire que la société #Eurotunnel, qui gère le tunnel sous la Manche, ne lésine pas sur les moyens. En 2019, elle a dépensé 15 millions d’euros pour installer des sas « #Parafe » utilisant la reconnaissance faciale du même nom, mise au point par Thales. Lors du passage de la frontière, certains camions sont examinés par des capteurs de CO2 ou de fréquence cardiaque, ainsi que par de l’#imagerie par #ondes_millimétriques, afin de détecter les personnes qui pourraient s’être cachées dans le chargement.

    « C’est un dispositif qui existe depuis 2004, lorsque Nicolas Sarkozy a fait évacuer le camp de Sangatte, informe un porte-parole d’Eurotunnel. Depuis 2015, il y a tellement de demandes de la part des routiers pour passer par ce terminal, car ils peuvent recevoir des amendes si un migrant est trouvé dans leur camion, que nous avons agrandi sa capacité d’accueil et qu’il fait partie intégrante du trajet. »

    Des outils de plus en plus perfectionnés qui coïncident avec l’évolution des modes de passage des personnes exilées, analyse le politologue Pierre Bonnevalle. « Pendant longtemps, il s’agissait de surveiller les poids lourds. Le #port et le #tunnel sont aujourd’hui tellement bunkérisés que les exilés traversent en bateau. »

    Les technologies employées suivent : en novembre 2021, le ministère de l’intérieur annonçait la mise à disposition de 4 x 4, de lunettes de vision nocturne ou de #caméras_thermiques pour équiper les gendarmes et policiers chargés de lutter contre l’immigration clandestine sur les côtes de la Manche.

    « Ces technologies ne servent à rien, à part militariser l’espace public. J’ai encore rencontré des associatifs la semaine dernière qui me disaient que cela n’a aucun impact sur le nombre de passages et les risques pris par ces gens », tempête l’eurodéputé et ancien maire de Grande-Synthe Damien Carême.

    Elles ont malgré tout un #coût : 1,28 milliard d’euros depuis 1998, selon Pierre Bonnevalle, dont 425 millions pour la seule période 2017-2021. « C’est une estimation a minima, pointe-t-il. Cela ne prend pas en compte, par exemple, le coût des forces de l’ordre. »

    Publié en novembre 2021, un rapport de la commission d’enquête parlementaire sur les migrations détaille les dépenses pour la seule année 2020 : l’État a investi 24,5 millions dans des dispositifs humanitaires d’hébergement, contre 86,4 pour la mobilisation des forces de l’ordre. Des sommes qui désespèrent Pablo, le militant de Human Rights Observers. « Cela aurait permit de bâtir de nombreux centres d’accueil pour que les exilés vivent dans des conditions dignes. » L’État semble avoir d’autres priorités.

    #technologie #frontières #contrôles_frontaliers #asile #migrations #réfugiés #surveillance_des_frontières #militarisation_des_frontières #IA #AI #complexe_militaro-industriel #Manche #La_Manche #France #UK #Angleterre
    –-

    via @olaf #merci :
    https://seenthis.net/messages/968794

  • Bulles de filtres et chambres d’écho - YouTube
    https://www.youtube.com/watch?v=i7d55LgDncM

    En plus de notre tendance à préférer les contenus qui confirment ce que l’on pense déjà - le « biais de confirmation » - les algorithmes contribuent à nous enfermer dans une bulle où rien ne pénètre, à part les informations auxquelles on adhère à priori. Faites-en l’expérience en cliquant seulement sur des vidéos de chats. Rapidement, votre fil de nouvelles sera envahi de chats !

    #Algorithmes #Information #Réseauxsociaux #SNT #GAFAM #Recherche #EMI

  • Management : « Les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles », Régis Martineau, Professeur à l’ICN Business School

    Le chercheur Régis Martineau explique, dans une tribune au « Monde », que nous sommes entrés dans une phase d’« oligarchie numérique », où les entreprises dominantes, comme les Gafam, dictent les règles dans presque tous les aspects de la vie et du travail.

    Les algorithmes s’appuient sur le big data et l’intelligence artificielle pour prédire et analyser les comportements des individus. Ils sont devenus essentiels, au cours de la dernière décennie, dans le fonctionnement des organisations : ils peuvent être utilisés pour mieux connaître les clients, faciliter une meilleure prise de décision, assurer une coordination plus fluide ou encore améliorer l’apprentissage organisationnel. Ils sont par ailleurs essentiels à l’économie de plate-forme et à l’industrie 4.0.

    Mais les algorithmes ne bouleversent pas seulement les modèles économiques ou la relation client, ils modifient aussi les modes de management. Ainsi, dans les organisations, est pratiqué de plus en plus le « management algorithmique », une nouvelle forme de management, qui s’appuie sur les algorithmes pour organiser les modes de production et de contrôle. Qu’y a-t-il de nouveau avec le management algorithmique ?

    Selon la synthèse réalisée récemment par des chercheurs de l’Institut de technologie du Massachusetts (MIT) et de l’université Stanford (Cafifornie), les algorithmes ont, comparés aux systèmes de contrôle traditionnels, trois caractéristiques qui les distinguent.
    Instantanés et interactifs
    Tout d’abord, ils permettent de capter davantage d’aspects du comportement humain : les dispositifs connectés peuvent désormais enregistrer avec plus d’acuité les mouvements corporels (jusqu’aux mouvements du visage et les données biométriques) et les pensées des salariés (à travers les vidéos et les enregistrements audio, mais aussi l’analyse des données textuelles).

    Cela permet de prescrire et d’encadrer le travail d’une manière nouvelle, souvent de manière beaucoup plus stricte et en temps réel. Par exemple, Uber analyse les données d’accélération et de freinage pour produire des « nudges » incitant les chauffeurs à prendre des pauses. Certaines entreprises analysent le vocabulaire utilisé et les sentiments exprimés sur les réseaux par les salariés ; quand d’autres localisent les employés qui interagissent fréquemment ensemble ou, au contraire, ceux qui s’isolent. D’autres utilisent même la reconnaissance faciale pour évaluer le moral de leurs employés.

    Ensuite, les algorithmes sont instantanés et interactifs : on peut maintenant davantage calculer, sauvegarder et communiquer des informations en temps réel. Cela a des conséquences importantes sur les modes d’évaluation des salariés, qui se fait de plus en plus instantanément à travers notamment les notes attribuées par les consommateurs.

    Amazon, Craigslist, Upwork, eBay, Uber, Lyft, Airbnb, TripAdvisor, pour ne citer que les plus connues, utilisent ces évaluations pour attribuer les commandes aux individus les mieux notés et rendre les « mal notés », ou ceux dont le comportement s’écarte de la prescription, moins visibles. Par ailleurs, les algorithmes utilisent cette instantanéité pour « gamifier » le travail, au travers d’applications qui utilisent les techniques de récompense ou d’incitation inventées dans le monde du jeu vidéo.

    Mêmes questions et mêmes réactions

    Enfin, les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles. La plupart des travailleurs ne saisissent pas complètement quels types de données sont collectés à leur sujet, comment elles sont utilisées ou comment les contester. De plus, avec le « machine learning », les algorithmes sont particulièrement difficiles à déchiffrer, y compris pour les spécialistes de l’intelligence artificielle eux-mêmes.
    Cette opacité rend le contrôle particulièrement strict et rend difficile le « gaming » (le jeu avec les règles), qui, traditionnellement, permet aux individus d’aménager des espaces de liberté dans l’entreprise.
    Lire aussi Article réservé à nos abonnés Entreprises : « Il faut avoir le courage de briser le silence à l’endroit où il doit l’être et oser nommer les abus managériaux qui ont pu en résulter »
    Voilà pour le « nouveau monde ». Cependant, l’« ancien monde » n’est jamais trop près de disparaître. En réalité, comparé aux formes traditionnelles du contrôle, le management algorithmique repose les mêmes questions et provoque les mêmes réactions, déjà bien connues.

    Rien de nouveau dans ces gestes répétitifs de travailleurs non qualifiés ; ce paiement à la (micro) tâche ; ces « journaliers » incertains d’être assignés à une tâche éphémère ; cette facilité de remplacement du facteur travail (par d’autres plus précaires ou par des machines) ; cette précarité qu’entraîne un contrat de travail non protecteur ; cette surveillance stricte… Autant d’éléments déjà bien décrits dans les romans de Steinbeck ou dans les films de Chaplin.

    Les joies du stakhanovisme

    De manière plus surprenante, on y renoue même avec les joies du stakhanovisme : les livreurs à vélo connaissent bien ce système qui indique le nombre de kilomètres parcourus, et qui les compare à ce livreur mythique, qui parcourt des distances chaque mois dignes d’un coureur du Tour de France… Au final, entre « gamification » et discours enthousiastes sur l’intelligence artificielle d’un côté ; et précarité et surveillance accrue de l’autre, les travailleurs transportent dans leurs poches un bien étrange Big Brother…
    Lire aussi : Article réservé à nos abonnés Mari-Noëlle Jégo-Laveissière : « Choisir l’“IA douce” contre l’“IA Big Brother” »
    L’histoire du management a montré que nous avons déjà connu des périodes où de nouvelles technologies venaient bouleverser les modes de management. A chaque fois, au début, ces nouvelles formes de management sont célébrées comme des innovations bénéfiques, tout en rendant le contrôle plus intrusif et plus strict ; et sont très peu débattues, malgré leurs implications humaine, éthique et juridique importantes. Ensuite, elles sont contrebalancées par des mouvements qui les font évoluer vers un management plus humain (par exemple, le mouvement des relations humaines avait répondu au taylorisme).

    Les sciences des organisations peuvent donc aider à prendre du recul sur les algorithmes et à penser des politiques adaptées. Selon des recherches historiques récentes, nous serions actuellement dans une phase d’« oligarchie numérique », c’est-à-dire un laisser-faire qui laisse le numérique – et les entreprises qui en sont les leaders, particulièrement les Gafam (Google, Apple, Facebook, Amazon et Microsoft) – se développer de manière incontrôlée, dans tous les aspects de la vie et du travail.

    Pour contrer ou mieux encadrer ce mouvement, les pouvoirs publics et les organisations collectives du travail doivent se saisir du sujet pour que les intérêts et les limites du numérique au travail soient collectivement et politiquement débattus, pour en venir à une « démocratie numérique ».

    https://www.lemonde.fr/idees/article/2022/04/26/management-les-algorithmes-sont-plus-opaques-que-les-methodes-de-controle-tr

    #travail #management #algorithmes

    • Dans les entreprises, l’essor du management par les algorithmes

      C’est le manageur dont le travail se voit aujourd’hui le plus transformé par l’intelligence artificielle (IA), affirme une étude de l’Organisation de coopération et de développement économiques (OCDE), publiée en décembre 2021. Juste derrière le professionnel de la finance. L’essor du big data dans les années 2000, couplée à l’utilisation de systèmes informatiques capables de traiter une quantité de données sans précédent, a permis le développement de logiciels ultra-perfectionnés, capables de participer aux décisions les plus stratégiques dans l’entreprise. Ainsi, 32 % environ des emplois risquent d’être modifié radicalement par le progrès technologique, estime une autre étude de l’OCDE parue en 2019. Selon l’organisme international, les fonctions supérieures d’encadrement et de décision sont les prochaines sur la liste.

      https://justpaste.it/4t53e

  • affordance.info : 4 questions aux algorithmes (et à ceux qui les font, et à ce que nous en faisons)
    https://www.affordance.info/mon_weblog/2022/04/4-questions-algorithmes.html
    https://www.affordance.info/.a/6a00d8341c622e53ef0282e14f7a64200b-600wi

    La problème de la transparence comme de la redevabilité, même en se limitant aux algorithmes publics, c’est qu’un « algorithme » est un fait calculatoire et décisionnel qui ne peut être isolé de faits sociaux qui en déterminent les causes et les effets. Un algorithme est développé par des gens, qui obéissent à d’autres gens, et qui sont tous pris dans des déterminismes et des contraintes économiques, professionnelles, politiques, sociales, etc. Penser que l’ouverture et et la redevabilité des algorithmes suffira à régler l’ensemble des problèmes qu’ils posent n’a pas davantage de sens que penser que l’étiquetage des denrées alimentaires résoudra les problèmes de malbouffe, d’obésité et de surproduction agricole.

    #SNT #NSI #EMI #algorithmes #Réseauxsociaux #Facebook #Moteurderecherche

  • Les États-Unis en quatre couleurs
    https://visionscarto.net/les-etats-unis-en-quatre-couleurs

    Titre : Les États-Unis en quatre couleurs Mots-clés : #Algorithmes #Coloriage #Contraintes Auteur : Philippe Rivière Date : Avril 2021 Un théorème de mathématiques démontre que quatre couleurs suffisent à colorier n’importe quelle carte (sans que deux régions contiguës ne partagent la même couleur, bien entendu). Dans la pratique, le coloriage peut se faire à la main en s’armant de patience, ou bien par des techniques algorithmiques dites de « programmation logique » ou de « programmation par (...) #Collection_cartographique

  • Usbek & Rica - Tech Paf - L’obscénité de la mécanique du scrolling
    https://usbeketrica.com/fr/article/tech-paf-l-obscenite-de-la-mecanique-du-scrolling
    https://usbeketrica.com/uploads/media/1200x628/02/92782-scrolling+shutterstock.jpg?v=1-0

    La guerre en Ukraine révèle à quel point les algorithmes d’Instagram et notre tendance à scroller compulsivement nous font passer à côté des vraies informations. L’édito d’Elena Scappaticci, rédactrice en chef web de la plateforme d’Usbek & Rica.

    #EMI #Réseauxsociaux #Images #Algorithmes #Instagram

  • Censure des œuvres d’art sur les réseaux sociaux | Academie Des Beaux Arts
    https://www.academiedesbeauxarts.fr/censure-des-oeuvres-dart-sur-les-reseaux-sociaux

    Censure des œuvres d’art sur les réseaux sociaux : l’Académie des beaux-arts appelle à la vigilance

    De L’Origine du monde de Gustave Courbet à La Liberté guidant le peuple d’Eugène Delacroix, ou encore de la Descente de Croix de Pierre-Paul Rubens, aux photographies de Lucien Clergue en passant, 4000 ans plus tôt, par la Vénus de Willendorf, les exemples de censure sur les réseaux sociaux sont innombrables et entravent considérablement, chaque jour un peu plus, la promotion de l’Art sur ces médias incontournables.

    Les plateformes principales des réseaux sociaux ont en effet introduit dans leurs conditions d’utilisation que « leur politique en matière de diffusion ne permettait pas la nudité ou la nudité suggérée », ne faisant ainsi, par le biais de leurs algorithmes, aucune différence entre des œuvres d’art et des selfies et autres clichés personnels de nus portés à la vue de tous.

    Les membres de l’Académie des beaux-arts, réunis en séance plénière hebdomadaire ce mercredi 16 février 2022, considèrent que les plateformes de diffusion ne sauraient s’arroger le droit de censurer la diffusion d’une œuvre d’art au seul motif que la représentation de celle-ci n’entre pas complètement dans les critères qu’elles ont établis.

    Cette situation ubuesque impose une réaction légitime de l’Académie des beaux-arts qui appelle à se poser la question de la liberté de la diffusion de l’information et des moyens à mettre en œuvre pour la protéger.

    #Censure #Médias_sociaux #Algorithmes

  • Crisis Text Line, from my perspective | danah boyd | apophenia
    http://www.zephoria.org/thoughts/archives/2022/01/31/crisis-text-line-from-my-perspective.html

    Passionnant. Les questions que se pose danah boyd sur les questions éthiques liée à l’activité d’aide et de conseil par texto avec des personnes en grande difficulté mentales (appels à l’aide en situations de crise, voire de suicide). Comment et faut-il utiliser les données que constituent ces échanges ? Que veut dire « consentement » quand on a affaire à des personnes en situation de crise psychologique ? Comment former les conseillers qui répondent aux personnes en difficulté ? Peut-on trouver des patterns dans les échanges qui permettent de prioritiser les réponses en fonction de l’urgence détectée par algorithme ? Enfin, comment financer l’activité des organisations bénévoles et hors marché quand les entreprises et l’Etat ne donnent pas les moyens réels de remplir des missions sociales pourtant nécessaires ?

    Un très long texte, honnête dans son positionnement, ouvert dans ses questionnement, et bien loin des réponses en noir & blanc.

    Like everyone who cares about Crisis Text Line and the people we serve, I have spent the last few days reflecting on recent critiques about the organization’s practices. Having spent my career thinking about and grappling with tech ethics and privacy issues, I knew that – had I not been privy to the details and context that I know – I would be outraged by what folks heard this weekend. I would be doing what many of my friends and colleagues are doing, voicing anger and disgust. But as a founding board member of Crisis Text Line, who served as board chair from June 2020 until the beginning of January 2021, I also have additional information that shaped how I thought about these matters and informed my actions and votes over the last eight years.

    As a director, I am currently working with others on the board and in the organization to chart a path forward. As was just announced, we have concluded that we were wrong to share texter data with Loris.ai and have ended our data-sharing agreement, effective immediately. We had not shared data since we changed leadership; the board had chosen to prioritize other organizational changes to support our staff, but this call-to-action was heard loud and clear and shifted our priorities. But that doesn’t mean that the broader questions being raised are resolved.

    Texters come to us in their darkest moments. What it means to govern the traces they leave behind looks different than what it means to govern other types of data. We are always asking ourselves when, how, and should we leverage individual conversations borne out of crisis to better help that individual, our counselors, and others who are suffering. These are challenging ethical questions with no easy answer.

    What follows is how I personally thought through, balanced, and made decisions related to the trade-offs around data that we face every day at Crisis Text Line. This has been a journey for me and everyone else involved in this organization, precisely because we care so deeply. I owe it to the people we serve, the workers of Crisis Text Line, and the broader community who are challenging me to come forward to own my decisions and role in this conversation. This is my attempt to share both the role that I played and the framework that shaped my thinking. Since my peers are asking for this to be a case study in tech ethics, I am going into significant detail. For those not seeking such detail, I apologize for the length of this.

    Most of the current conversation is focused on the ethics of private-sector access to messages from texters in crisis. These are important issues that I will address, but I want to walk through how earlier decisions influenced that decision. I also want to share how the ethical struggles we face are not as simple as a binary around private-sector access. There are ethical questions all the way down.

    #danah_boyd #Crisis_Text_Line #Santé_mentale #Algorithmes #Formation #Données_médicales

  • Le média en ligne « #QG » dénonce sa « #censure » par YouTube

    « Le reste de la presse devrait se réveiller. Sinon, qui empêchera Youtube, et les autres plateformes, de déterminer qui peut parler et qui doit être réduit au silence ? »
    https://reporterre.net/Le-media-en-ligne-QG-denonce-sa-censure-par-YouTube

    Dans un tweet posté le 31 janvier, le média en ligne QG dénonce son « shadow banning » (« bannissement fantôme ») par la plateforme de diffusion de vidéos YouTube. Ce bannissement est en fait une #invisibilisation : les #algorithmes de #YouTube rendent peu visibles aux internautes les sujets présentés par le média.

    Cette invisibilisation, explique à Reporterre Aude Lancelin, directrice de QG, a commencé en juillet 2021, à la suite de la participation du professeur Christian Perronne à un #débat [ démocratique équilibré ] avec le docteur Jean-Michel Constantin, du service de réanimation de l’hôpital Pitié-Salpêtrière. M. Perronne défend des positions mettant en doute l’utilité des vaccins Pfizer et Moderna contre le Covid. « Il était confronté à un médecin hospitalier qui l’a contredit pied à pied », précise Aude Lancelin. Le débat a été diffusé en mai 2021. Un best off a ensuite été diffusé en juillet 2021. La vidéo entière de l’émission a alors été supprimée par YouTube, qui a envoyé un « avertissement » à QG. Motif : « violation des droits de YouTube » et un contenu « pas en accord avec notre règlement à ce sujet ».


    « Il s’agit d’une censure qui ne dit pas son nom »

    Depuis, le nombre de vues des vidéos de QG vues sur YouTube, quel qu’en soit le sujet, sont à un niveau très bas, alors que sur Facebook, il reste à son niveau habituel. Dans un courriel à YouTube, le média en ligne écrit : « Nous observons une baisse significative du nombres de vues sur nos vidéos. De plus, après plusieurs essais, nous avons constaté que certains contenus exactement identiques aux nôtres mais postés sur des chaînes différentes réalisaient un nombre de vues bien supérieur, sur des chaînes dont le nombre d’abonnés est comparable à la nôtre. (…) La baisse de visibilité est réellement significative depuis que nous avons reçu cet avertissement. (…) YouTube a été un des leviers majeurs de notre essor et cette soudaine invisibilisation pourrait mener à des conséquences néfastes à terme. » QG n’a reçu aucune réponse de YouTube.

    « Il s’agit d’une censure qui ne dit pas son nom », dit Aude Lancelin à Reporterre. « On n’a pas fait énormément de contenus sur ce sujet, mais il faut donner la parole, non pas à des fous, mais à ceux qui discutent le passe vaccinal et qui discutent l’obligation vaccinale. » Elle précise que QG a suivi des manifs de Gilets jaunes contre le passe vaccinal, « mais jamais Philippot [leader d’extrême droite venant du Rassemblement national] et les gens de cette mouvance ».

    YouTube opère souvent des retraits de vidéos selon des critères opaques

    QG, qui compte une équipe d’une dizaine de personnes dont cinq journalistes, est un média reconnu par la CPPAP (Commission paritaire des publications et agences de presse), et membre du syndicat de la presse indépendante d’information en ligne (le Spiil), dont font partie de nombreux #médias-indépendants, tels Reporterre ou Mediapart.

    YouTube opère souvent des retraits de vidéos selon des critères opaques. En janvier 2022, la plateforme a retiré un discours à… l’Assemblée nationale du député La France insoumise Bastien Lachaud.

    Reporterre a cherché à joindre YouTube France pour connaître son point de vue. Mais il n’a pas été possible de parler à une personne humaine, le standard téléphonique n’ouvrant pas la possibilité d’un tel échange.

    • Pour chaque Post d’articles de Reporterre le fan-club des « anticomplotistes » :p se déchaîne désormais contre lui. Bientôt plus personne Ici va oser le référencer sans être taxer de complotiste ou de confusionniste ou même de (beurk) covidonégationniste !

      Je m’attend au pire avec celui là !

    • Remettre en question la politique autoritaire (censure de Médias indépendants comme Nantes Révoltée et QG par la plateforme Youtube ) ni surtout la #politique-non-sanitaire en Macronie mais pas que, est désormais suspect !

      Pourtant au Sénat, Véran ...

      « Le ministre des Solidarités et de la Santé, Olivier Véran, a été auditionné ce 2 février 2022 par la commission d’enquête du Sénat sur l’influence des cabinets conseil. La rapporteure lui a demandé des explications, en lui soumettant plusieurs documents auxquels a participé le cabinet McKinsey. »
      https://www.youtube.com/watch?v=hnQvDere0Zg

      Véran avoue carrément que #McKinsey n’est mentionné sur aucun des documents qu’ils ont rédigés puisque c’est toujours le logo du ministère de la santé qui apparaît dessus.

      Tout est toujours flou en #macronie parce que tout n’est qu’arnaque…

      Cette scène surréaliste où Véran bafouille, tempête et nie l’évidence quand on lui explique qu’on a payé 700 000€ 2 personnes de #McKinsey pour des missions floues, c’est l’illustration parfaite du vol en bande organisé auquel se livrent #Macron-et-sa-bande.

      La première action de n’importe quel nouveau président devait être de lever le #secret-défense sur cet iceberg de magouilles, dont on devine que la partie immergée est immense, qu’est la politique non-sanitaire de cette fine équipe de truands…

      Ils en pensent quoi les candidats ?

      Véran explique au Sénat qu’il a dépensé 26,8 millions en cabinets de conseil depuis 2020 pour des plans moisis qui ne l’ont soit-disant pas aidé à prendre ses décisions, sans qu’on sache ce qui vient de #McKinsey ou de l’administration.

      L’arnaque du siècle !

      #VeranDemission

      https://www.publicsenat.fr/article/parlementaire/a-aucun-moment-mckinsey-ne-m-a-fait-prendre-une-decision-en-lien-avec-la

      Il n’y a pas une once d’humanité dans la politique de Macron.

      Ce n’est pas un rempart, c’est déjà le fascisme !

  • Le public et ses #algorithmes
    https://laviedesidees.fr/Angele-Christin-Metrics-at-Work.html

    À propos de : Angèle Christin, Metrics at Work. Journalism and the contested meaning of algorithms, Princeton University Press. Une #ethnographie de deux sites d’information, l’un français et l’autre américain, analyse comment les logiciels mesurant la fréquentation des sites oriente le travail des journalistes. Les rédacteurs français semblent plus sensibles au nombre de clics que leurs homologues américains…

    #Société #journalisme
    https://laviedesidees.fr/IMG/pdf/20211122_algorithmes.pdf
    https://laviedesidees.fr/IMG/docx/20211122_algorithmes.docx

  • Comment l’algorithme de Facebook échappe au contrôle de ses créateurs
    https://www.lemonde.fr/pixels/article/2021/10/26/comment-l-algorithme-de-facebook-echappe-au-controle-de-ses-createurs_609988

    EnquêteFacebook Files | Dans des documents internes de l’entreprise, ses ingénieurs avouent leur incompréhension face à un code informatique aux effets imprévus, qui fait du réseau social une machine complexe, difficile à maîtriser.

    C’est peut-être le principal sentiment qui émerge à la lecture des « Facebook Files ». Parmi ces milliers de pages de documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde, de nombreux passages semblent indiquer que Facebook ne comprend plus, ou mal, ce que font ses propres algorithmes. Et que son réseau social est devenu une machine difficile à contrôler.
    Les « Facebook Files », une plongée dans les rouages de la machine à « likes »

    Les « Facebook Files » sont plusieurs centaines de documents internes à Facebook copiés par Frances Haugen, une spécialiste des algorithmes, lorsqu’elle était salariée du réseau social. Ils ont été fournis au régulateur américain et au Congrès, puis transmis par une source parlementaire américaine à plusieurs médias, expurgés des informations personnelles des salariés de Facebook. En Europe, ces médias sont, outre Le Monde, le quotidien allemand Süddeutsche Zeitung, les chaînes de télévision WDR et NDR, le Groupe Tamedia, Knack, Berlingske et l’OCCRP.

    Ils montrent que Facebook consacre davantage de ressources à limiter ses effets néfastes en Occident, au détriment du reste du monde. Ils attestent que ces effets sont connus en interne mais les signaux d’alerte pas toujours pris en compte. Enfin, ils prouvent que les algorithmes de Facebook sont devenus d’une complexité telle qu’ils semblent parfois échapper à leurs propres auteurs.

    #Facebook_Files #Algorithmes #Complexité #Economie_attention

  • Le facteur et l’algorithme
    https://laviedesidees.fr/Le-facteur-et-l-algorithme.html

    À propos de : Nicolas Jounin, Le caché de la Poste. Enquête sur l’organisation du #travail des facteurs, La Découverte. L’enquête par immersion à couvert de Nicolas Jounin nous emmène sur une tournée de facteur à assurer à la veille d’une réorganisation, avec une semaine d’ancienneté pour le sociologue dans son rôle de postier.

    #Société #sociologie_du_travail #algorithmes
    https://laviedesidees.fr/IMG/pdf/20211027_facteur.pdf
    https://laviedesidees.fr/IMG/docx/20211027_facteur.docx

  • And You Will Know Us by the Company We Keep — Remains of the Day
    https://www.eugenewei.com/blog/2021/9/29/and-you-will-know-us-by-the-company-we-keep

    The problem of graph design:

    When designing an app that shapes its user experience off of a social graph, how do you ensure the user ends up with the optimal graph to get the most value out of your product/service?

    The fundamental attribution error has always been one of my cautionary mental models. The social media version of is over-attributing how people behave on a social app to their innate nature and under-attributing it to the social context the app places them in.

    (...) what if there was a way to build an interest graph for you without you having to follow anyone? What if you could skip the long and painstaking intermediate step of assembling a social graph and just jump directly to the interest graph? And what if that could be done really quickly and cheaply at scale, across millions of users? And what if the algorithm that pulled this off could also adjust to your evolving tastes in near real-time, without you having to actively tune it?

    The problem with approximating an interest graph with a social graph is that social graphs have negative network effects that kick in at scale. Take a social network like Twitter: the one-way follow graph structure is well-suited to interest graph construction, but the problem is that you’re rarely interested in everything from any single person you follow.

    (...) I noted that social networks tend to compete on three axes: social capital, entertainment, and utility. Focusing just on entertainment, the problem with building a content feed off of a person’s social graph is that, to be blunt, we don’t always find the people we know to be that entertaining. I love my friends and family. That doesn’t mean I want to see them dancing the nae nae. Or vice versa. Who we follow has a disproportionate effect on the relevance and quality of what we see on much of Western social media because the apps were designed that way.

    #réseaux_sociaux #graphe_social #algorithmes

    et pour le nae nae:
    https://www.youtube.com/watch?v=vjW8wmF5VWc

  • Les #algorithmes aux commandes
    https://laviedesidees.fr/Les-algorithmes-aux-commandes.html

    Quel raisonnement aboutit à la recommandation d’un morceau, d’un film ou d’une personne à rencontrer ? Puisqu’un algorithme est un système dont le code est seulement le reflet, il est essentiel de comprendre les ingénieurs et les organisations qui ont contribué à sa conception.

    #Société #consommation
    https://laviedesidees.fr/IMG/docx/20210928_algogo.docx
    https://laviedesidees.fr/IMG/pdf/20210928_algogo.pdf

  • L’assemblée des #algorithmes
    https://laviedesidees.fr/Jaton-The-Constitution-of-Algorithms.html

    À propos de Florian Jaton, The Constitution of Algorithms. Ground-Truthing, Programming, Formulating, Cambridge. Aux confins de l’ethnographie, de l’histoire de l’informatique et de la philosophie des sciences, Florian Jaton fait la lumière sur les algorithmes, ces boîtes noires qui orientent les décisions financières, les amours et les peines.

    #Société
    https://laviedesidees.fr/IMG/docx/20210823_algorithmes.docx
    https://laviedesidees.fr/IMG/pdf/20210823_algorithmes.pdf

  • Algorithm of harm: #Facebook amplified Myanmar military propaganda following coup | Global Witness
    https://www.globalwitness.org/en/campaigns/digital-threats/algorithm-harm-facebook-amplified-myanmar-military-propaganda-followi

    After Myanmar’s military seized power in a coup on 1 February 2021, imprisoning the country’s democratically elected leaders, Facebook banned the armed forces from its platform. The company cited the military’s history of exceptionally severe human rights abuses and the clear risk of future military-initiated violence. But a month later, as soldiers massacred hundreds of unarmed civilians in the streets, we found that Facebook’s own page recommendation algorithm was amplifying content that violated many of its own policies on #violence and misinformation.

    #algorithmes #Birmanie

  • #Campagnes de #dissuasion massive

    Pour contraindre à l’#immobilité les candidats à la migration, jugés indésirables, les gouvernements occidentaux ne se contentent pas depuis les années 1990 de militariser leurs frontières et de durcir leur législation. Aux stratégies répressives s’ajoutent des méthodes d’apparence plus consensuelle : les campagnes d’information multimédias avertissant des #dangers du voyage.

    « Et au lieu d’aller de l’avant, il pensa à rentrer. Par le biais d’un serment, il dit à son cousin décédé : “Si Dieu doit m’ôter la vie, que ce soit dans mon pays bien-aimé.” » Cette #chanson en espagnol raconte le périple d’un Mexicain qui, ayant vu son cousin mourir au cours du voyage vers les États-Unis, se résout à rebrousser chemin. Enregistrée en 2008 grâce à des fonds gouvernementaux américains, elle fut envoyée aux radios de plusieurs pays d’Amérique centrale par une agence de #publicité privée, laquelle se garda bien de révéler l’identité du commanditaire (1).

    Arme de découragement typiquement américaine ? Plusieurs États européens recourent eux aussi à ces méthodes de #communication_dissuasive, en particulier depuis la « crise » des réfugiés de l’été 2015. En #Hongrie comme au #Danemark, les pouvoirs publics ont financé des publicités dans des quotidiens libanais et jordaniens. « Les Hongrois sont hospitaliers, mais les sanctions les plus sévères sont prises à l’encontre de ceux qui tentent d’entrer illégalement en Hongrie », lisait-on ici. « Le Parlement danois vient d’adopter un règlement visant à réduire de 50 % les prestations sociales pour les réfugiés nouvellement arrivés », apprenait-on là (2). En 2017, plusieurs #artistes ouest-africains dansaient et chantaient dans un #clip intitulé #Bul_Sank_sa_Bakane_bi (« Ne risque pas ta vie »). « L’immigration est bonne si elle est légale », « Reste en Afrique pour la développer, il n’y a pas mieux qu’ici », « Jeunesse, ce que tu ignores, c’est qu’à l’étranger ce n’est pas aussi facile que tu le crois », clamait cette chanson financée par le gouvernement italien dans le cadre d’une opération de l’#Organisation_internationale_pour_les_migrations (#OIM) baptisée « #Migrants_conscients » (3).

    « Pourquoi risquer votre vie ? »

    Ces campagnes qui ciblent des personnes n’ayant pas encore tenté de rejoindre l’Occident, mais susceptibles de vouloir le faire, insistent sur l’inutilité de l’immigration irrégulière (ceux qui s’y essaient seront systématiquement renvoyés chez eux) et sur les rigueurs de l’« État-providence ». Elles mettent en avant les dangers du voyage, la dureté des #conditions_de_vie dans les pays de transit et de destination, les #risques de traite, de trafic, d’exploitation ou tout simplement de mort. Point commun de ces mises en scène : ne pas évoquer les politiques restrictives qui rendent l’expérience migratoire toujours plus périlleuse. Elles cherchent plutôt à agir sur les #choix_individuels.

    Déployées dans les pays de départ et de transit, elles prolongent l’#externalisation du contrôle migratoire (4) et complètent la surveillance policière des frontières par des stratégies de #persuasion. L’objectif de #contrôle_migratoire disparaît sous une terminologie doucereuse : ces campagnes sont dites d’« #information » ou de « #sensibilisation », un vocabulaire qui les associe à des actions humanitaires, destinées à protéger les aspirants au départ. Voire à protéger les populations restées au pays des mensonges de leurs proches : une vidéo financée par la #Suisse (5) à destination du Cameroun enjoint ainsi de se méfier des récits des émigrés, supposés enjoliver l’expérience migratoire (« Ne croyez pas tout ce que vous entendez »).

    Initialement appuyées sur des médias traditionnels, ces actions se développent désormais via #Facebook, #Twitter ou #YouTube. En #Australie, le gouvernement a réalisé en 2014 une série de petits films traduits dans une quinzaine de langues parlées en Asie du Sud-Est, en Afghanistan et en Indonésie : « Pas question. Vous ne ferez pas de l’Australie votre chez-vous. » Des responsables militaires en treillis exposent d’un ton martial la politique de leur pays : « Si vous voyagez par bateau sans visa, vous ne pourrez jamais faire de l’Australie votre pays. Il n’y a pas d’exception. Ne croyez pas les mensonges des passeurs » (6).

    Les concepteurs ont sollicité YouTube afin que la plate-forme diffuse les #vidéos sous la forme de publicités précédant les contenus recherchés par des internautes susceptibles d’émigrer. Le recours aux #algorithmes permet en effet de cibler les utilisateurs dont le profil indique qu’ils parlent certaines langues, comme le farsi ou le vietnamien. De même, en privilégiant des vidéos populaires chez les #jeunes, YouTube facilite le #ciblage_démographique recherché. Par la suite, ces clips ont envahi les fils d’actualités Facebook de citoyens australiens issus de l’immigration, sélectionnés par l’#algorithme car ils parlent l’une des langues visées par la campagne. En s’adressant à ces personnes nées en Australie, les autorités espéraient qu’elles inviteraient elles-mêmes les ressortissants de leur pays d’origine à rester chez eux (7).

    C’est également vers Facebook que se tourne le gouvernement de la #Norvège en 2015. Accusé de passivité face à l’arrivée de réfugiés à la frontière russe, il finance la réalisation de deux vidéos, « Pourquoi risquer votre vie ? » et « Vous risquez d’être renvoyés » (8). Les utilisateurs du réseau social avaient initialement la possibilité de réagir, par le biais des traditionnels « j’aime » ou en postant des commentaires, ce qui aurait dû permettre une circulation horizontale, voire virale, de ces vidéos. Mais l’option fut suspendue après que la page eut été inondée de commentaires haineux issus de l’extrême droite, suscitant l’embarras de l’État.

    Ici encore, Facebook offre — ou plutôt, commercialise — la possibilité de cibler des jeunes hommes originaires d’Afghanistan, d’Éthiopie et d’Érythrée, dont le gouvernement norvégien considère qu’ils ne relèvent pas du droit d’asile. L’algorithme sélectionne en particulier les personnes situées hors de leur pays d’origine qui ont fait des recherches sur Internet dénotant leur intérêt pour l’Europe et la migration. Il s’agit de toucher des migrants en transit, qui hésitent quant à leur destination, et de les dissuader de choisir la Norvège. Les Syriens ne font pas partie des nationalités visées, afin de ne pas violer le droit d’asile. De même, le message mentionne explicitement que seuls les adultes seront refoulés, afin de ne pas contester le droit des enfants à être pris en charge.

    À plusieurs reprises, depuis 2015, les autorités belges ont elles aussi utilisé Facebook pour ce type d’initiatives (9). En 2018, des photographies de centres de détention et d’un jeune migrant menotté, assorties du slogan « Non à l’immigration illégale. Ne venez pas en #Belgique » (10), furent relayées à partir d’une page Facebook créée pour l’occasion par l’Office des étrangers. Cette page n’existait toutefois qu’en anglais, ce qui a fait croire à un faux (y compris parmi les forces de l’ordre), poussant le gouvernement belge à la supprimer au profit d’un site plus classique, humblement intitulé « Faits sur la Belgique » (11).

    Si de telles initiatives prolifèrent, c’est que les États européens sont engagés dans une course à la dissuasion qui les oppose les uns aux autres. Le 30 mai 2018, en France, M. Gérard Collomb, alors ministre de l’intérieur, affirmait lors d’une audition au Sénat que les migrants faisaient du « #benchmarking » pour identifier les pays les plus accueillants. Cette opinion semble partagée par ses pairs, et les États se montrent non seulement fermes, mais soucieux de le faire savoir.

    Le recours aux plates-formes de la Silicon Valley s’impose d’autant plus aisément que les autorités connaissent l’importance de ces outils dans le parcours des migrants. Une très large majorité d’entre eux sont en effet connectés. Ils dépendent de leur #téléphone_portable pour communiquer avec leur famille, se repérer grâce au #GPS, se faire comprendre par-delà les barrières linguistiques, conserver des photographies et des témoignages des atrocités qui justifient leur demande d’asile, appeler au secours en cas de naufrage ou de danger, ou encore retrouver des connaissances et des compatriotes dispersés.

    Un doute taraudait les autorités des États occidentaux : en connectant les individus et en leur facilitant l’accès à diverses sources d’information, les #technologies_numériques ne conféraient-elles pas une plus grande #autonomie aux migrants ? Ne facilitaient-elles pas en définitive l’immigration irrégulière (12) ? Dès lors, elles s’emploieraient à faire de ces mêmes outils la solution au problème : ils renseignent sur la #localisation et les caractéristiques des migrants, fournissant un canal privilégié de communication vers des publics ciblés.

    Systématiquement financées par les États occidentaux et impliquant de plus en plus souvent les géants du numérique, ces campagnes mobilisent aussi d’autres acteurs. Adopté sous les auspices de l’Organisation des Nations unies en 2018, le pacte mondial pour des migrations sûres, ordonnées et régulières (ou pacte de Marrakech) recommande ainsi de « mener des campagnes d’information multilingues et factuelles », d’organiser des « réunions de sensibilisation dans les pays d’origine », et ce notamment pour « mettre en lumière les risques qu’il y a à entreprendre une migration irrégulière pleine de dangers ». Le Haut-Commissariat pour les réfugiés (HCR) et l’OIM jouent donc le rôle d’intermédiaires privilégiés pour faciliter le financement de ces campagnes des États occidentaux en dehors de leur territoire.

    Efficacité douteuse

    Interviennent également des entreprises privées spécialisées dans le #marketing et la #communication. Installée à Hongkong, #Seefar développe des activités de « #communication_stratégique » à destination des migrants potentiels en Afghanistan ou en Afrique de l’Ouest. La société australienne #Put_It_Out_There_Pictures réalise pour sa part des vidéos de #propagande pour le compte de gouvernements occidentaux, comme le #téléfilm #Journey, qui met en scène des demandeurs d’asile tentant d’entrer clandestinement en Australie.

    Enfin, des associations humanitaires et d’aide au développement contribuent elles aussi à ces initiatives. Créée en 2015, d’abord pour secourir des migrants naufragés en Méditerranée, l’organisation non gouvernementale (ONG) #Proactiva_Open_Arms s’est lancée dans des projets de ce type en 2019 au Sénégal (13). Au sein des pays de départ, des pans entiers de la société se rallient à ces opérations : migrants de retour, journalistes, artistes, dirigeants associatifs et religieux… En Guinée, des artistes autrefois engagés pour l’ouverture des frontières militent à présent pour l’#immobilisation de leurs jeunes compatriotes (14).

    Le #discours_humanitaire consensuel qui argue de la nécessité de protéger les migrants en les informant facilite la coopération entre États, organisations internationales, secteurs privé et associatif. La plupart de ces acteurs sont pourtant étrangers au domaine du strict contrôle des frontières. Leur implication témoigne de l’extension du domaine de la lutte contre l’immigration irrégulière.

    Avec quelle #efficacité ? Il existe très peu d’évaluations de l’impact de ces campagnes. En 2019, une étude norvégienne (15) a analysé leurs effets sur des migrants en transit à Khartoum, avec des résultats peu concluants. Ils étaient peu nombreux à avoir eu connaissance des messages gouvernementaux et ils s’estimaient de toute manière suffisamment informés, y compris à propos des aspects les plus sombres de l’expérience migratoire. Compte tenu de la couverture médiatique des drames de l’immigration irrégulière, il paraît en effet vraisemblable que les migrants potentiels connaissent les risques… mais qu’ils migrent quand même.

    https://www.monde-diplomatique.fr/2021/03/PECOUD/62833
    #migrations #réfugiés #privatisation #Italie #humanitaire #soft_power

    –-

    Ajouté à la métaliste sur les #campagnes de #dissuasion à l’#émigration :
    https://seenthis.net/messages/763551

    ping @isskein @karine4 @_kg_ @rhoumour @etraces

  • Racistes, les algorithmes ?
    HIYA! https://hiya.fr/2021/02/13/racistes-les-algorithmes

    Entrainés sur des bases de données de photos à tendances caucasiennes par des ingénieurs eux aussi à tendances caucasiennes, les biais racistes de la société sont intégrés dans les intelligences artificielles, voire exacerbés. Où en sommes nous et quelles sont les réponses du milieu de la tech ? On fait le point.

    Les preuves s’accumulent. Ici, une personne noire fait 10 jours de prison et se lance dans un combat judiciaire couteux et épuisant après avoir été identifié à tord par un algorithme. Là, c’est une étudiante noire qui doit passer le barreau une lampe braquée sur le visage pour que son logiciel d’examen reconnaisse son visage. Là encore, un distributeur de savon ne reconnaît que les peaux claires. Un algorithme utilisé pour cadrer les aperçus d’images sur Twitter semble préférer les hommes blancs. Ou encore un algorithme conçu pour restaurer des images flous rend un Obama pixelisé en une version plus nette mais surtout plus blanche de lui même.

    En 2016 déjà, une enquête de l’organisme de journalisme d’investigation ProPublica dévoilait qu’un programme informatique utilisé pour évaluer les risques de récidives signalait quasiment deux fois plus les personnes noires que blanches (45 % contre 24%).

    #algorithmes

  • L’UE va réclamer aux plateformes la transparence sur leurs #algorithmes
    https://www.mediapart.fr/journal/fil-dactualites/301020/l-ue-va-reclamer-aux-plateformes-la-transparence-sur-leurs-algorithmes?ong

    La Commission européenne va réclamer aux plateformes numériques comme Facebook, Twitter ou Google la transparence sur la manière dont leurs algorithmes recommandent du contenu, afin de « protéger notre démocratie », a annoncé vendredi la vice-présidente de la Commission européenne Margrethe Vestager.

    « Nous ne pouvons pas laisser les décisions qui affectent l’avenir de notre démocratie être prises dans le secret de quelques conseils d’administration d’entreprises », a déclaré la Danoise lors d’un discours devant l’organisation AlgorithmWatch.

    Mme Vestager a expliqué que la future directive sur les services numériques (« Digital Services Act »), que la Commission doit présenter en décembre, donnerait « à tous les services numériques le devoir de coopérer avec les régulateurs » et que les grandes plateformes devront « fournir plus d’informations sur le fonctionnement de leurs algorithmes lorsque les régulateurs le demandent ».

    Ces plateformes devront « dire aux utilisateurs comment leurs systèmes de recommandation décident du contenu à montrer », ce qui leur permettra « de juger » s’ils doivent « faire confiance à la vision du monde qu’elles donnent ».

    Elles devront aussi « fournir des rapports réguliers sur le contenu des outils de modération qu’elles utilisent » et « de meilleures informations sur les publicités que nous voyons », afin d’avoir « une meilleure idée de qui essaie de nous influencer ».

    Les algorithmes des géants du numérique sont régulièrement pointés du doigt. Certains ont déjà été manipulés, comme ce fut le cas avec Facebook lors du dernier scrutin présidentiel aux Etats-Unis et du référendum sur le Brexit au Royaume-Uni.

    Le secrétaire d’Etat français au numérique, Cédric O, a lui récemment dénoncé dans une tribune « l’opacité » des algorithmes et de la modération des contenus des réseaux sociaux, pointés du doigt après l’assassinat du professeur d’histoire Samuel Paty.

    « Ces algorithmes sont le secret du succès de ces énormes plateformes. Mais ils peuvent aussi avoir de graves effets sur la santé de notre démocratie », a souligné vendredi Mme Vestager. « Lorsque les systèmes de recommandation choisissent les informations à promouvoir et celles à cacher, ils affectent profondément ce que nous savons sur le monde ».

    « Tout cela ressemble un peu au Truman Show, ce film où Jim Carrey vit dans un monde qu’il croit réel, mais qui n’est en fait que le décor d’une émission de télévision. Le monde que nous voyons à travers ces plateformes semble si réel qu’il peut être difficile de se rappeler qu’il est en fait construit à travers les choix que font les algorithmes sur ce que nous devrions voir », a-t-elle insisté.

    • Spotify appears to have the capacity to create “hits” without even realizing it.
      (...)
      “What I find interesting about this story is that, from my research perspective, it really shows the power and influence that these music recommendation systems have,” she says. “But it is also extremely difficult to know how these systems work, and I think the only people who can answer that would be the engineers working at these companies, like Spotify. We’re not even sure if these people could answer why or how a recommendation system works as well, because they’re usually pretty complex things we’re dealing with here.”
      (...)
      Spotify further complicated the Autoplay situation with a bombshell development on Nov. 2: At some point in the near future, they’ll be rolling out a service that allows artists and labels to “identify music that’s a priority for them” within the Autoplay and Radio algorithms, in exchange for a “promotional recording royalty rate” applied to streams acquired through the new program. Spotify views this as an opportunity for creators to have “more opportunities to connect with new listeners.” But some, like Krukowski, view the move as a way for the company to simply pay less money out to songs that are doing well via the algorithms organically, like “Strange” and “Harness Your Hopes.” Even worse, some view it as a new version of streaming payola.

      “No doubt, there are sinister aspects to it,” Malkmus says of the cautious reading that Spotify might be promoting more neutral songs in artists’ libraries — to say nothing of the new tiered-royalty Autoplay adjustment, which was announced after the interviews for this story took place. “But it’s nothing that I feel that we’re surprised at anymore.”

      #autoplay

  • Être écoféministe | Jeanne Burgart Goutal
    Les Éditions L’échappée
    https://www.lechappee.org/collections/versus/etre-ecofeministe

    Je souhaitais en savoir plus sur l’#écoféminisme, Aude (#merci) m’a recommandé ce #livre. En plus de l’avoir trouvé très intéressant, j’ai appris des choses, l’approche et les arguments avancés résonnent bien avec mes propres ressentis.

    #Oppression des #femmes et #destruction de la #nature seraient deux facettes indissociables d’un modèle de #civilisation qu’il faudrait dépasser : telle est la perspective centrale de l’écoféminisme. Mais derrière ce terme se déploie une grande variété de #pensées et de #pratiques_militantes.
    Rompant avec une approche chic et apolitique aujourd’hui en vogue, ce livre restitue la richesse et la diversité des théories développées par cette mouvance née il y a plus de 40 ans : critique radicale du #capitalisme et de la #technoscience, redécouverte des sagesses et #savoir-faire traditionnels, réappropriation par les femmes de leur #corps, #apprentissage d’un rapport intime au #cosmos
    Dans ce road trip philosophique alternant reportage et analyse, l’auteure nous emmène sur les pas des écoféministes, depuis les Cévennes où certaines tentent l’aventure de la vie en autonomie, jusqu’au nord de l’Inde, chez la star du mouvement #Vandana_Shiva. Elle révèle aussi les ambiguïtés de ce courant, où se croisent Occidentaux en quête d’alternatives sociales et de transformations personnelles, ONG poursuivant leurs propres stratégies commerciales et #politiques, et #luttes concrètes de femmes et de communautés indigènes dans les pays du Sud.

    #colonialisme #agriculture #intersectionnalité