• Data Ecofeminism

    #Generative_Artificial_Intelligence (#GenAI) is driving significant environmental impacts. The rapid development and deployment of increasingly larger algorithmic models capable of analysing vast amounts of data are contributing to rising carbon emissions, water withdrawal, and waste generation. Generative models often consume substantially more energy than traditional models, with major tech firms increasingly turning to nuclear power to sustain these systems — an approach that could have profound environmental consequences.
    This paper introduces seven data ecofeminist principles delineating a pathway for developing technological alternatives of eco-societal transformations within the AI research context. Rooted in #data_feminism and ecofeminist frameworks, which interrogate about the historical and social construction of epistemologies underlying the hegemonic development of science and technology that disrupt communities and nature, these principles emphasise the integration of social and environmental justice within a critical AI agenda. The paper calls for an urgent reassessment of the GenAI innovation race, advocating for ecofeminist algorithmic and infrastructural projects that prioritise and respect life, the people, and the planet.

    https://arxiv.org/abs/2502.11086
    #données #écoféminisme #article_scientifique #IA #AI #intelligence_artificielle #écologie #environnement #féminisme #algorithmes #énergie #technologie #justice_sociale #justice_environnementale

    ping @fil

  • En Europe, les migrants premières victimes de l’intelligence artificielle

    Alors que se tient à Paris cette semaine le Sommet pour l’action sur l’intelligence artificielle (IA), chefs d’État, chefs d’entreprise, chercheurs et société civile sont appelés à se prononcer sur les #risques et les #limites de ses usages. Des #biais_discriminatoires et des #pratiques_abusives ont déjà été observés, en particulier dans la gestion européenne de l’immigration.

    Un #détecteur_d’émotions pour identifier les #mensonges dans un #récit, un #détecteur_d’accent pour trouver la provenance d’un ressortissant étranger, une analyse des #messages, des #photos, des #géolocalisations d’un #smartphone pour vérifier une #identité… voici quelques exemples de systèmes intelligents expérimentés dans l’Union européenne pour contrôler les corps et les mouvements.

    « Ici, les migrations sont un #laboratoire_humain d’#expérimentation_technologique grandeur nature », résume Chloé Berthélémy, conseillère politique à l’EDRi (European Digital Rights), un réseau d’une cinquantaine d’ONG et d’experts sur les droits et libertés numériques. « Les gouvernements et les entreprises utilisent les environnements migratoires comme une phase de #test pour leurs produits, pour leurs nouveaux systèmes de contrôle. »

    Des détecteurs de mensonges à la frontière

    L’un des plus marquants a été le projet #iBorderCtrl. Financé partiellement par des fonds européens, le dispositif prévoyait le déploiement de détecteurs de mensonges, basés sur l’analyse des #émotions d’un individu qui entrerait sur le sol européen. « Les #visages des personnes, en particulier des demandeurs d’asile, étaient analysés pour détecter si, oui ou non, ils mentaient. Si le système considérait que la personne était un peu suspecte, les questions devenaient de plus en plus compliquées. Puis, éventuellement, on arrivait à un contrôle plus approfondi par un agent humain », explique-t-elle.

    Expérimenté dans les #aéroports de Grèce, de Hongrie et de Lettonie, il ne serait officiellement plus utilisé, mais l’EDRi émet quelques doutes. « Dans ce milieu-là, on est souvent face à une #opacité complète et il est très dur d’obtenir des informations. Difficile de dire à l’heure actuelle si cette technologie est encore utilisée, mais dans tous les cas, c’est une volonté européenne que d’avoir ce genre de systèmes aux frontières. »

    Drones de surveillance, caméras thermiques, capteurs divers, les technologies de surveillance sont la partie émergée de l’iceberg, la face visible de l’intelligence artificielle. Pour que ces systèmes puissent fonctionner, il leur faut un carburant : les #données.

    Les bases de données se multiplient

    L’Europe en a plusieurs en matière d’immigration. La plus connue, #Eurodac – le fichier des #empreintes_digitales – vise à ficher les demandeurs et demandeuses d’asile appréhendés lors d’un passage de frontière de manière irrégulière. Créée en 2002, la nouvelle réforme européenne sur l’asile étend considérablement son pouvoir. En plus des empreintes, on y trouve aujourd’hui des photos pour alimenter les systèmes de #reconnaissance_faciale. Les conditions d’accès à Eurodac pour les autorités policières ont également été assouplies. « Elles pourront le consulter pour des objectifs d’enquêtes criminelles, on retrouve donc cette idée que de facto, on traite les demandeurs d’asile, les réfugiés, avec une présomption d’illégalité », conclut Chloé Berthélémy.

    Or, ces collectes d’informations mettent de côté un principe clef : celui du #consentement, condition sine qua non dans l’UE du traitement des données personnelles, et clairement encadré par le Règlement général de protection des données (#RGPD). Les politiques migratoires et de contrôles aux frontières semblent donc faire figures d’#exception. Lorsqu’une personne pose le pied sur le sol européen, ses empreintes seront collectées, qu’il soit d’accord ou non. Selon l’EDRi, « l’Union européenne est en train de construire deux standards différents. Un pour ceux qui ont les bons papiers, le bon statut migratoire, et un autre pour ceux qui ne les ont pas ».

    Un nouveau cadre juridique qui a d’ailleurs été attaqué en justice. En 2021, en Allemagne, la GFF, la Société des droits civils (qui fait partie du réseau de l’EDRi) triomphe de l’Office allemand de l’immigration, condamné pour pratiques disproportionnées. Textos, données de géolocalisation, contacts, historique des appels et autres #fichiers_personnels étaient extraits des #smartphones des demandeurs d’asile à la recherche de preuve d’identité.

    Automatisation des décisions

    Une fois les frontières passées, l’intelligence artificielle continue à prendre pour cible des étrangers, à travers sa manifestation la plus concrète : les #algorithmes. Examiner les demandes de #visa ou de #naturalisation, attribuer un #hébergement, faciliter l’organisation des #expulsions, prédire les flux migratoires… la multiplication des usages fait craindre aux chercheurs une administration sans guichet, sans visage humain, entièrement automatisée. Problème : ces systèmes intelligents commettent encore beaucoup trop d’#erreurs, et leur prise de décisions est loin d’être objective.

    En 2023, l’association La Quadrature du Net révèle que le code source de la Caisse nationale d’allocations familiales (Cnaf) attribue un « score de risque » à chaque allocataire. La valeur de ce score est ensuite utilisée pour sélectionner ceux qui feront l’objet d’un contrôle. Parmi les critères de calcul : avoir de faibles revenus, être au chômage, ou encore être né en dehors de l’Union européenne. « En assimilant la précarité et le soupçon de fraude, l’algorithme participe à une politique de #stigmatisation et de #maltraitance institutionnelle des plus défavorisés », estime Anna Sibley, chargée d’étude au Gisti. Quinze ONG ont d’ailleurs attaqué cet algorithme devant le Conseil d’État en octobre 2024 au nom du droit à la protection des données personnelles et du principe de non-discrimination.

    Autre exemple : l’IA a déjà été utilisée par le passé pour soutenir une prise de décision administrative. En 2023, le ministère de l’Intérieur a « appelé à la rescousse » le logiciel #Google_Bard, un outil d’aide à la prise de décision, pour traiter la demande d’asile d’une jeune Afghane. « Ce n’est pas tant le fait que l’intelligence artificielle ait donné une réponse négative qui est choquant. C’est plutôt le fait qu’un employé du ministère de l’Intérieur appuie sa réponse sur celle de l’IA, comme si cette dernière était un argument valable dans le cadre d’une décision de justice », analyse la chercheuse.

    #Dématérialisation à marche forcée

    En 2024, un rapport du Défenseur des droits pointait du doigt les atteintes massives aux droits des usagers de l’ANEF, l’administration numérique des étrangers en France. Conçue pour simplifier les démarches, l’interface permet le dépôt des demandes de titres de séjour en ligne.

    Pourtant, les #dysfonctionnements sont criants et rendent la vie impossible à des milliers de ressortissants étrangers. Leurs réclamations auprès du Défenseur des droits ont augmenté de 400% en quatre ans. Des #plaintes allant du simple problème de connexion aux erreurs de décisions de la plateforme. Un casse-tête numérique contre lequel il est difficile de se prémunir. « Les services d’accompagnement déployés sont trop limités », constate Gabrielle de Boucher, chargée de mission numérique droits et libertés auprès du Défenseur des droits. Selon elle, il est important que la France reconnaisse aux étrangers le droit de réaliser toute démarche par un canal humain, non dématérialisé, un accueil physique.

    Le biais discriminatoire

    Autre écueil de la dématérialisation croissante des administrations : le biais discriminatoire. Puisque les systèmes intelligents sont entraînés par des êtres humains, ces derniers reproduisent leurs biais et les transmettent involontairement à l’IA. Illustration la plus concrète : les erreurs d’#identification.

    En 2023, un homme a été arrêté aux États-Unis après que les logiciels de reconnaissance faciale l’ont désigné par erreur comme l’auteur de vols. « On peut légitimement avoir des craintes sur le respect des droits, puisqu’on sait, par exemple, que le taux d’erreur est plus élevé pour les personnes non blanches », s’inquiète Gabrielle du Boucher. Comme elles sont sous représentées dans les #bases_de_données qui nourrissent l’apprentissage de l’IA, celle-ci sera moins fiable que lorsqu’elle devra, par exemple, se concentrer sur les personnes blanches.

    https://www.infomigrants.net/fr/post/62762/en-europe-les-migrants-premieres-victimes-de-lintelligence-artificiell
    #IA #AI #intelligence_artificielle #migrations #réfugiés #victimes #frontières #technologie #contrôle #surveillance #accent #langue #discrimination

  • La Défenseure des droits s’alarme de « l’ampleur et l’augmentation des #discriminations en France »

    Dans son rapport annuel publié mardi 25 mars, Claire Hédon alerte sur l’ampleur de l’augmentation des discriminations en France, liées à l’origine particulièrement. Elle s’inquiète aussi des conséquences de la dématérialisation des services publics.

    https://www.humanite.fr/societe/claire-hedon/la-defenseure-des-droits-salarme-de-lampleur-et-laugmentation-des-discrimin

    • La Défenseure des droits dénonce les « excès de la dématérialisation mal pensée »
      https://archive.ph/https://www.mediapart.fr/journal/france/250325/la-defenseure-des-droits-denonce-les-exces-de-la-dematerialisation-mal-pense
      `
      Dans son rapport annuel publié mardi 25 mars, Claire Hédon, la Défenseure des droits, constate une augmentation des discriminations en lien avec l’origine. Elle pointe aussi les difficultés engendrées par les démarches numérisées dans les services publics.

      Claire Claire Hédon est inquiète de la fragilisation des #droits et #libertés à l’œuvre dans la société. « On oublie que les droits sont là pour protéger les personnes et qu’ils nous réunissent pour faire société », déclare la Défenseure des droits lors de la conférence de presse accompagnant la sortie du rapport annuel de l’institution, le 25 mars. Elle souhaite sonner « deux alertes lancinantes » concernant deux phénomènes préoccupants : les discriminations qui ne cessent d’augmenter et les « excès de la dématérialisation mal pensée ».

      En 2024, plus de 141 000 réclamations et demandes d’informations ont été adressées à l’institution. La plateforme de la Défenseure des droits, le 39 28, a connu un « pic d’appels » durant l’été 2024 concernant des propos haineux en raison de l’origine ou de la religion. Une hausse de 53 % a été relevée entre mai et juin 2024. Des chiffres à mettre en parallèle avec le fait qu’en 2020, 18 % de la population de 18 à 49 ans a déclaré être victime de #discrimination, selon l’enquête Trajectoires et origines. Le rapport s’appuie aussi sur l’enquête de victimation menée en 2024 par le ministère de l’intérieur, qui indique une « très forte hausse » de 52 % des faits de discrimination entre 2021 et 2022.

      Alors que les chiffres s’affolent, de manière presque contre-intuitive, les saisines sont, elles, en baisse de 15 %, dit le rapport. Les victimes semblent renoncer à agir, découragées par la procédure ou effrayées par les possibles représailles.
      La Défenseure des droits écrit : « La diminution paradoxale des réclamations que nous avons reçues cette année dans ce domaine met en lumière la difficulté des victimes à faire valoir leurs droits et la nécessité de s’emparer collectivement de cette problématique. »

      L’euphémisation des discriminations est brocardée par Claire Hédon dans son propos liminaire. Elle pointe le fait que les décideurs préfèrent parler de « diversité » et de « lutte contre le discours de haine ». « Or, il est important de parler de discrimination », ajoute-t-elle.

      « Maltraitance institutionnelle »

      L’autre motif d’alerte porte sur les affres de la dématérialisation pour les usagers des services publics, dans un contexte de désengagement de l’État et avec des infrastructures toujours plus éloignées. Cela engendre, selon elle, du découragement, de la résignation et de la lassitude. « Les personnes ne croient plus en l’État. »

      La dématérialisation partait d’une démarche louable, pointe Claire Hédon, à savoir : simplifier les démarches administratives. Or, c’est le contraire qui se produit alors même que les droits sociaux sont fragilisés, « lorsqu’un service a été entièrement dématérialisé sans que l’accompagnement nécessaire ait été prévu, lorsque l’information délivrée est insuffisante, lorsque les procédures de contrôle sont expéditives », peut-on lire dans le rapport.

      37 % des saisines de l’institution en 2024 portaient sur les difficultés d’accès au #titre_de_séjour et au renouvellement, ce qui en fait le premier motif de saisine de l’institution depuis 2022. Un chiffre qui était seulement de 10 % en 2019. De fait, les difficultés rencontrées par les usagers ressortissants #étrangers se sont aggravées depuis le déploiement de l’#administration_numérique pour les étrangers en France (#Anef), canal unique dématérialisé pour les demandes de titres de séjour et de renouvellement.

      Il n’est pas possible de corriger ou de modifier sa demande sur le site. Sans compter les #délais élastiques. Des milliers de personnes étrangères, faute d’obtenir un titre de séjour dans les temps, souvent un renouvellement, perdent leurs droits sociaux ou leur travail, comme Mediapart l’a raconté. Ces personnes précarisées se retrouvent alors en situation irrégulière alors qu’elles étaient en règle. Il s’agit, selon Claire Hédon, d’une « maltraitance institutionnelle ». [#clandestinisation]

      Le risque des algorithmes

      L’inquiétude de l’institution porte aussi sur la généralisation de l’Anef pour toutes les demandes concernant les titres de séjour dans quelques mois. Or, le site dysfonctionne, rappelle Claire Hédon. « On dit à nos interlocuteurs au ministère de l’intérieur que c’est impossible d’étendre l’Anef à toutes les demandes dans ces conditions.

      Concrètement, les réclamants récupèrent leur titre de séjour à un mois de la fin de validité, ils doivent tout recommencer. Le renouvellement automatique des API, les attestations provisoires d’instruction, pourrait désengorger les préfectures. » Une situation à ses yeux révélatrice : « Le degré d’effectivité des #droits_des_étrangers me paraît être un marqueur des droits et libertés dans notre pays. »
      Plus généralement, l’impossibilité pour les usagers de services publics de pouvoir se rendre dans un #accueil physique ou de joindre un·e agent·e au téléphone pénalise les moins familiers avec le numérique. Dans son rapport, l’institution rappelle que « la dématérialisation doit rester une voie d’accès supplémentaire au service public et ne pas se substituer aux guichets, aux échanges postaux ou par téléphone qui doivent demeurer de réelles alternatives pour contacter l’administration ».

      Il ne s’agit pas de pointer le travail des agent·es, insiste Claire Hédon, mais de dénoncer le désinvestissement de l’État dans les services publics. Les agences #France_services, faute de personnels spécialisés en leur sein, ne peuvent pallier ces difficultés.

      Or le problème perdure et s’accentue année après année, « aussi bien pour MaPrimeRénov’ que pour la question des pensions de retraite ». « Nous avons des réclamants qui attendent six mois, un an, dix-huit mois, pour toucher leur retraite. Ils restent sans revenus pendant toute cette période-là, avec des difficultés pour joindre quelqu’un », explique celle qui a déjà rendu plusieurs avis sur le sujet. La Défenseure des droits a aussi été saisie par des bénéficiaires du revenu de solidarité active (#RSA) en raison d’une prise en considération erronée de leurs #ressources. [mais pas seulement]

      Autre sujet dans la ligne de mire de la Défenseure des droits : la #lutte_contre_la_fraude lorsqu’elle se retourne contre les usagers, avec un point de vigilance sur l’intelligence artificielle ou les #algorithmes. Ceux programmés par la Caisse nationale d’allocations familiales ou par la Caisse nationale d’assurance-maladie à l’aide du data mining (« extraction de données ») risquent de reproduire des biais discriminatoires.

      Les logiciels d’affectation au lycée et dans l’enseignement supérieur, #Affelnet et #Parcoursup, risquent, eux aussi, de porter atteinte aux droits des élèves, pointe enfin le rapport. « Lorsqu’une décision administrative est dite partiellement automatisée, un agent public doit contribuer à la prise de décision par une action concrète et significative. La Défenseure des droits relève cependant que cette intervention se révèle parfois inexistante. » Un travail approfondi sur la question spécifique des algorithmes va être mené dans les prochains mois. En attendant, comme le veut l’usage, ce rapport va être remis au premier ministre et à Emmanuel Macron.

      #retraites #CNAV #CAF #data_mining

    • [Exemple] CAF BDR délai de traitement supérieur à 60 jours pour AAH
      https://www.plus.transformation.gouv.fr/experiences/5830113_caf-bdr-delai-de-traitement-superieur-a-60-jours-po

      Cette réponse a été générée par une #IA à 88 % et vérifiée par un agent.

      On notera le titre euphémisant en diable : il s’agit d’une #AAH non versée durant un trimestre.

      En réponse à une réclamation CAF, on a le plus souvent un « votre demande a été traitée », sans plus de précision, qui n’a aucun sens, si ce n’est d’accuser réception. Voilà une chose que l’IA va améliorer en fournissant tissant des phrases ou jamais les dédions de ne seront notifiées "en fait et en droit" comme le veut la loi, quasi systématiquement bafouée.

  • ‘I hope this isn’t for weapons’ : How Syrian #data_workers train AI

    The development and training of AI systems depend on hundreds of millions of data workers. Many of them are situated or displaced from the Global majority, and are generally kept in the dark on how the data they produce will be used.

    I met Fatma in June 2019 in Sofia, Bulgaria. Four years prior, she had been forced to leave her home in Aleppo with her whole family: her mother, father, older brother, and two younger siblings. Fatma was 17 when her parents paid the equivalent of nine thousand euros to men who smuggled the seven family members in the back of a van across landscapes and borders, until reaching Finland via Sofia. The smugglers had promised a house and a car in Finland for the sum paid, but this promise went unfulfilled. Instead, after six months, Fatma’s family was deported to Bulgaria because their “fingerprints were registered in Sofia first.” “We lost everything to have a good life because our lives were in danger,” she lamented. “Were they in danger because of the war?” I asked. “It was personal,” she replied cryptically.

    Fast forward to 2019, and Fatma, now 21, was living with her family in a refugee camp in the Bulgarian capital. While assisting her father at the camp’s hairdressing salon, she also worked part-time for the data-labeling company where I was conducting fieldwork. Interestingly, she was recruited by the company at the refugee camp. Following initial training in “digital skills” and English, Fatma was ready to assume her role as a data worker. During our initial conversation, she was at the company’s office, seated alongside Diana, another Syrian asylum seeker who was engaged in labeling images of people based on race, age, and gender. In contrast, Fatma was immersed in a project that involved satellite images and semantic segmentation—a critical task for computer vision that involves the meticulous separation and labeling of every pixel in an image. This form of data work holds particular importance in generating training data for AI, especially for computer vision systems embedded in devices such as cameras, drones, or even weapons. Fatma explained that the task basically consisted of separating “the trees from the bushes and cars from people, roads, and buildings.” Following this segmentation, she would attach corresponding labels to identify each object.
    Data Work Requires Skill

    Explained in this manner, the work might seem trivial and straightforward. Such tasks fall under what is known as microwork, clickwork, or, as I refer to it, data work. This constitutes the labor involved in generating data to train and validate AI systems. According to the World Bank, there are between 154 million and 435 million data workers globally, with many of them situated in or displaced from the World Majority. They often work for outsourcing platforms or companies, primarily as freelancers, earning a few cents per piece or task without the labor protections, such as paid sick leave, commonly found in more traditional employment relationships. Data workers generate data through various means that range from scraping information from the internet to recording their voices or uploading selfies. Similar to Fatma, they frequently engage in labeling tasks. Additionally, data workers may contribute to algorithm supervision, such as rating the outputs of recommender systems on platforms like Netflix or Spotify and assessing their usefulness, appropriateness, and toxicity. In other instances, data workers might be tasked with plainly impersonating non-existing AI systems and be instructed to “think like a robot” while pretending to be a chatbot, for instance.

    Despite its crucial role in the development and maintenance of AI technologies, data work is often belittled as micro or small, involving only a few clicks, and dismissed as low-skill or blue-collar. In fact, the platform Clickworker, a prominent provider of on-demand data work, claims on its website that “the tasks are generally simple and do not require a lot of time or skill to complete.” However, this assertion is inaccurate. During my fieldwork in Bulgaria, for instance, I attempted to segment and label satellite imagery, finding it extremely challenging. The work demands precision when drawing polygons around different objects in the pictures, which is also strenuous on the eyes and hands. Moreover, it requires contextual knowledge, including an understanding of what vegetation and vehicles look like in specific regions. Following the segmentation and labeling process by Fatma and her team, a rigorous quality check is conducted by a woman in the client’s company. Fatma’s manager in Bulgaria mentioned that the quality control person was “remarkably fast with the quality check and feedback” and added, “She’s able to do this quickly because she knows the images and the ground.” While taking note of this, I wondered how well the quality controller knows the ground. Does she come from the area where these images were taken? Is she, like Fatma, a refugee? Has her displacement been leveraged as expertise?

    I asked Fatma if the satellite images she was working on could be of Syria. She said she thought the architecture and vehicles looked familiar. Staring at the screen, she whispered, “I hope this isn’t for weapons.” Neither she nor I could be certain.
    The Known and the Unknown

    Fatma’s fear of the satellite images being used for AI weapons is not unfounded. The proliferation of autonomous drones and swarm technologies has experienced exponential growth in recent years, facilitated by the integration of AI in reconnaissance, target identification, and decision-making processes. Illustrating a poignant example, facial recognition technologies have been utilized to uphold the segregation and surveillance of the Palestinian people, while automated weapons have played a crucial role in the ongoing genocide in Gaza. Companies like the Israeli SmartShooter boast about their lethal capabilities with the slogan “One Shot, One Hit.”

    Surveillance drones, predictive analytics, and decision support systems are utilized for strategic planning in “threat anticipation” and real-time monitoring along border regions. For instance, the German Federal Office for Migration and Refugees (BAMF) employs image biometrics for identity identification and voice biometrics for dialect analysis to ascertain asylum seekers’ country of origin and evaluate their eligibility for asylum. This system purportedly recognizes dialects of Arabic, Dari, Persian/Farsi, Pashto, and Kurdish. As revealed by BAMF in response to a query initiated by German MPs, data workers subcontracted through the platform Clickworker (the same platform that claims tasks are simple and low-skill) participated in producing the voice samples required to develop the system.

    Fortunately, the data company in Bulgaria has a strong policy in place to reject requests related to warfare technologies. Fatma’s manager explained that “we have rejected projects related to (…) training artificial intelligence for different types of weapon applications. So, I felt that this really did not fit with our social mission, and when I responded to the client, I said that we’re working with conflict-affected people, and that’s why (…) But it was also a kind of boycott of such projects to be developed at all.” She added that the satellite imagery labeled by the team had been commissioned by a central European firm developing autonomous piloting systems for air transportation, not weapons. This information correlates with the client’s website. However, the website also states that their technology is additionally used for unmanned aerial vehicles (UAV), commonly known as drones, with applications including surveillance.
    Workers’ Ethical Concerns

    Privacy infringements and the potential for discriminatory profiling are among the most obvious concerns related to AI systems applied to border surveillance and warfare. Despite these risks disproportionately affecting their own communities, sometimes with lethal consequences, most data workers are kept in the dark concerning the ultimate purpose of the data they contribute to producing. The outsourcing of data work to external organizations, often situated far away from the requesters’ geographical location, complicates workers’ efforts to navigate the intricate supply chains that support the AI industry. Instructions given to data workers seldom provide details about the requester or the intended use of the data. Consequently, most data workers do not know the name and nature of the companies seeking their services, the products that will be trained on the datasets they generate, or the potential impacts of these technologies on individuals and communities. AI companies frequently rationalize the veil of secrecy as a means of safeguarding their competitive edge.

    The fact that data workers are integrated into industrial structures designed to keep them uninformed and subject to surveillance, retaliation, and wage theft does not mean that they do not have ethical concerns about their work and the AI applications it supports. In fact, there have been instances where data workers have explicitly alerted consumers to privacy-related and other ethical issues associated with the data they generate. For example, in 2022, Venezuelan data workers reported anonymously that Roomba robot vacuum cleaners capture pictures of users at home, which are then viewed by human workers.

    Amid the COVID-19 pandemic in 2021, I piloted a workshop series with fifteen data workers, this time located in Syria. The three-day event was designed to understand work practices and relationships in geographically distributed data-production contexts, creating a space for workers to discuss concerns. The workshop activities revealed that receiving information and having spaces to voice and discuss the ethical implications of the data they handle were of the utmost importance to the workers. They worried about the protection of data subjects’ privacy and advocated for a mandatory clause that would compel requesters to disclose the intended uses of the data. Additionally, the workers expressed concerns about the mental health implications of working with violent, offensive, or triggering data.

    Data workers possess a unique vantage point that can play a crucial role in the early identification of ethical issues related to data and AI. Encouraging consumers and society at large to align with them in advocating for increased transparency in the AI data production pipeline is essential. Workers like Fatma and her colleagues could offer valuable insights into the utilization of satellite images for surveillance technologies, for instance. Similarly, the native speakers who contributed their voices to generate audio snippets for dialect recognition may shed light on the applications of such systems against asylum seekers in Germany.

    Unfortunately, the challenge lies in the fact that the AI industry, for evident reasons, has structured its production processes for data workers to function more as silent tools than as whistleblowers.

    https://untoldmag.org/i-hope-this-isnt-for-weapons-how-syrian-data-workers-train-ai
    #travailleurs_de_données #entraînement #IA #AI #intelligence_artificielle #éthique #réfugiés #dublinés #camps_de_réfugiés #segmentation #travail #algorithmes #images_satellitaires #labeling #armes #armement #drones #voix #profiling #contrôles_frontaliers

  • ChatGPT’s Political Views Are Shifting Right, a New Analysis Finds

    While the chatbot still seems to lean left on many issues, its bias is changing.

    When asked about its political perspective, OpenAI’s #ChatGPT says it’s designed to be neutral and doesn’t lean one way or the other. A number of studies in recent years have challenged that claim, finding that when asked politically charged questions, the chatbot tends to respond with left-leaning viewpoints.

    That seems to be changing, according to a new study published in the journal Humanities and Social Sciences Communications by a group of Chinese researchers, who found that the political biases of OpenAI’s models have shifted over time toward the right end of the political spectrum.

    The team from Peking University and Renmin University tested how different versions of ChatGPT—using the GPT-3.5 turbo and GPT-4 models—responded to questions on the Political Compass Test. Overall, the models’ responses still tended toward the left of the spectrum. But when using ChatGPT powered by newer versions of both models, the researchers observed “a clear and statistically significant rightward shift in ChatGPT’s ideological positioning over time” on both economic and social issues.

    While it may be tempting to connect the bias shift to OpenAI and the tech industry’s recent embrace of President Donald Trump, the study authors wrote that several technical factors are likely responsible for the changes they measured.

    The shift could be caused by differences in the data used to train earlier and later versions of models or by adjustments OpenAI has made to its moderation filters for political topics. The company doesn’t disclose specific details about what datasets it uses in different training runs or how it calibrates its filters.

    The change could also be a result of “emergent behaviors” in the models like combinations of parameter weighting and feedback loops that lead to patterns that the developers didn’t intend and can’t explain.

    Or, because the models also adapt over time and learn from their interactions with humans, the political viewpoints they express may also be changing to reflect those favored by their user bases. The researchers found that the responses generated by OpenAI’s GPT-3.5 model, which has had a higher frequency of user interactions, had shifted to the political right significantly more over time compared to those generated by GPT-4.

    The researchers say their findings show popular generative AI tools like ChatGPT should be closely monitored for their political bias and that developers should implement regular audits and transparency reports about their processes to help understand how models’ biases shift over time.

    “The observed ideological shifts raise important ethical concerns, particularly regarding the potential for algorithmic biases to disproportionately affect certain user groups,” the study authors wrote. “These biases could lead to skewed information delivery, further exacerbating social divisions, or creating echo chambers that reinforce existing beliefs.”

    https://gizmodo.com/chatgpts-political-views-are-shifting-right-a-new-analysis-finds-2000562328

    #droite #AI #IA #intelligence_artificielle #droite #algorithmes #idéologie #openAI

  • #Intelligence_artificielle : les 7 choses qu’on ne vous dit pas

    Du 10 et 11 février, la France accueille le Sommet mondial sur l’Intelligence Artificielle. Au programme  : une vitrine sur l’avenir qui n’exposera pas les #dangers de l’IA. Bien que ces technologies offrent des avancées réelles - dans le domaine de la médecine par exemple - elle présente aussi des dangers sérieux pour les droits humains. Avec plusieurs organisations de la société civile, nous listons ici les faces cachées de l’IA qui ne seront pas présentées au sommet.

    En organisant à Paris le sommet mondial sur l’Intelligence artificielle (IA), Emmanuel Macron souhaite que «  la France ne passe pas à côté de cette révolution. » Sous couvert d’innovation, c’est la course à la productivité et au profit qui est en jeu. Au rythme foudroyant à laquelle l’IA se développe, les dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux que posent ces nouvelles technologies. Pourtant, l’un des plus grands enjeux est là.

    Développer l’IA pour continuer d’obtenir des avancées majeures dans des domaines comme la médecine oui, mais développer l’IA en mettant en péril des droits : c’est non. Les droits humains et la justice environnementale doivent être placés au cœur de la régulation de l’intelligence artificielle.

    Et parce que les dangers de l’IA ne figureront pas au programme officiel du Sommet mondial, nous vous les rappelons ici.

    1. L’IA perpétue le #racisme

    Pour fonctionner, l’IA s’appuie sur des #bases_de_données qui intègre les #préjugés et #biais des personnes qui l’ont créé. L’IA perpétue donc les #stéréotypes et accentue les #discriminations déjà existantes.

    ➡️Aux États-Unis, la police utilise une IA pour prédire la récidive criminelle. C’est le fait qu’une personne accusée va potentiellement commettre un nouveau un délit. Cette IA cible deux fois plus les accusés Noirs que les accusés Blancs.

    2. L’IA accentue le #sexisme

    L’intelligence artificielle s’impose comme un miroir de nos sociétés  : elle reflète, aussi, ses biais et accentue les #inégalités_de_genre. 

    ➡️En Autriche, des #algorithmes utilisés dans des outils d’accès à l’emploi ont écarté les femmes des secteurs informatique.

    3. L’IA permet la #cybercriminalité

    Les montages perçus les plus crédibles générés par IA sont un réel danger pour les femmes et les enfants.

    ➡️Les #deepfakes sont massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.

    4. L’IA impacte la planète

    ➡️D’ici 2027, l’IA générative nécessitera une alimentation en #électricité équivalente à celle de l’Argentine, cinq fois la France en superficie.

    Les pays du Sud sont les premiers impactés par les ravages écologiques de l’IA : les #data_center y pullulent, l’extraction de #minerais comme le #cobalt (utilisé pour la fabrication des #batteries) met en péril la santé des populations et entraîne la #pollution des eaux et des terres.

    Les émissions de CO2 des "géants de la Tech” ont augmenté de 30 à 50% en 2024 suite au développement fulgurant de l’intelligence artificielle.

    5. L’IA désinforme

    Beaucoup d’outils d’intelligence artificielle permettent et participent à la #désinformation  :

    ➡️Des «  #bots  », ces robots qui imitent l’activité humaine sur les réseaux sociaux pour manipuler l’information, en spammant du contenu, en renforçant la notoriété de comptes ou en diffusant de fausses informations.

    ➡️Montage photo généré par l’IA. Lors de la campagne américaine, Donald Trump a relayé une photo générée par IA montrant Kamala Harris de dos en leader communiste face à une foule de partisans. Une image vue 82 millions de fois.

    ➡️Les deepfakes, ces fausses vidéos de célébrité qui prolifèrent sur les réseaux sociaux, outil notamment utilisé lors de campagnes présidentielles pour attribuer de faux propos aux candidats en lice.

    À la vitesse laquelle se développe l’IA, il va devenir de plus en plus difficile de déceler le vrai du faux. 

    6. L’IA surveille

    Les systèmes d’IA sont aussi utilisés à des fins de #surveillance contre certaines populations. En témoigne les pratiques de la Chine, dotées d’outils dopées à l’IA pour surveiller la population ouïghoure. Et bien souvent, ces technologies sont développées par les pays occidentaux.

    ➡️L’IA est d’ailleurs déjà utilisée aux #frontières européennes à des fins de surveillance contre les personnes exilées. Parmi les outils  : des #détecteurs_de_mensonge et d’émotions sont utilisés pour contrôler les frontières. Baptisé #iBorderCtrl, le projet est financé par l’Union européenne et déjà testé dans 3 pays  : Hongrie, Grèce et Lettonie.

    7. L’IA peut tuer

    L’IA, c’est aussi ça  : des drones et autres armes sophistiquées capables de choisir leurs propres cibles et de les attaquer sans contrôle humain. Des robots-tueurs, décidant via leurs algorithmes de qui vit et de qui meurt, se développent et se vendent déjà sur le marché.

    ➡️À Gaza, l’armée israélienne a utilisé une IA appelée Lavender, censée cibler des terroristes mais qui ont provoqué la mort de milliers de civils gazaouis.

    https://www.amnesty.fr/actualites/intelligence-artificielle-les-sept-choses-qu-on-ne-vous-dit-pas

    #IA

    • TRIBUNE | « L’IA contre les droits humains, sociaux et environnementaux »

      Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles Attac, La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde » (https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj), qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?
      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.
      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux États-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.
      Premiers signataires

      David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      https://france.attac.org/actus-et-medias/salle-de-presse/article/l-ia-contre-les-droits-humains-sociaux-et-environnementaux

  • La #justice confirme enfin l’#illégalité de #Briefcam

    #Victoire totale aujourd’hui au tribunal administratif de Grenoble ! L’affaire opposant La Quadrature du Net à la ville de #Moirans, en Isère, s’achève par une décision reconnaissant l’illégalité du logiciel de #vidéosurveillance algorithmique Briefcam. La justice ordonne à la commune de cesser immédiatement l’utilisation de ce #logiciel.

    Le logiciel de Briefcam est installé en toute opacité dans de très nombreuses communes de France. Techniquement, il permet d’appliquer des #filtres_algorithmiques sur les images de vidéosurveillance pour suivre ou retrouver les personnes en fonction de leur apparence, leurs vêtement, leur genre ou encore leur visage via une option de reconnaissance faciale. Depuis des années, nous dénonçons la dangerosité de cette #vidéosurveillance_algorithmique (#VSA) qui est un outil inefficace et utilisé surtout pour le contrôle des populations dans l’#espace_public. En parallèle, nous rappelons constamment son illégalité manifeste et le laisser-faire des pouvoirs publics.

    Ainsi, nous avons récemment critiqué la prise de position de la CNIL venue au secours de la police et la gendarmerie nationale, qui utilisaient ce logiciel depuis 2015 et 2017 sans l’avoir déclaré. La CNIL avait validé leur interprétation juridique farfelue pour sauver leur utilisation de ce logiciel dans le cadre d’enquête.

    Or, dans cette affaire contre l’utilisation de Briefcam à Moirans, la CNIL était opportunément intervenue quelques semaines avant l’audience pour affirmer que Briefcam serait légal si utilisé par une commune pour répondre à des réquisitions judiciaires. La décision du #tribunal administratif de Grenoble vient donc contredire frontalement cette position : il estime que le logiciel Briefcam met en œuvre un traitement de #données_personnelles disproportionné et qui n’est pas prévu par la loi, y compris dans le cas particulier d’enquêtes judiciaires.

    Cette décision d’illégalité est une #victoire sans précédent dans notre lutte contre la VSA. Les habitant·es de toute ville, à l’instar de Saint-Denis, Reims ou encore Brest qui ont choisi de mettre en place ce type de #surveillance_algorithmique, peuvent légitimement en demander l’arrêt immédiat. Les promoteurs politiques et économiques de la #Technopolice doivent faire face à la réalité : leurs velléités de #surveillance et de #contrôle de la population n’ont pas leur place dans notre société. La CNIL n’a plus d’autre choix que d’admettre son erreur et sanctionner les communes qui continueraient d’utiliser de la VSA.

    https://www.laquadrature.net/2025/01/30/la-justice-confirme-enfin-lillegalite-de-briefcam
    #efficacité #inefficacité #algorithmes

  • Pour un universalisme minoritaire - avec #Bruno_Perreau

    Les condamnations répétées du wokisme, du communautarisme, du séparatisme, du « politiquement correct » reflètent la même peur des « #minorités » qui seraient devenues vindicatives voire « tyranniques »... Loin de ces fantasmes conservateurs reste ouverte la question de comment vivre les uns avec les autres dans une société plus juste ? Comment mener des combats minoritaires en échappant à l’#essentialisation ? Comment penser la présence minoritaire non pas comme une substance mais comme une relation ? C’est ce dont on va parler ce soir avec Bruno Perreau que nous recevons pour son livre Sphères d’injustice paru aux Éditions de La Découverte.

    https://spectremedia.org/les-oreilles-loin-du-front/?playing=2015
    #philosophie #justice #présence #co-présence #convergence_des_luttes #coalition

  • À #France_Travail, ces #algorithmes qui contrôleront les chômeurs - Hayet Kechit
    https://www.humanite.fr/social-et-economie/controle-des-chomeurs/a-france-travail-ces-algorithmes-qui-controleront-les-chomeurs

    Tripler le nombre de contrôles des demandeurs d’emploi pour atteindre le chiffre de 1,5 million d’ici à 2027. C’était l’objectif pharaonique fixé par l’exécutif macroniste en imposant la loi sur le plein-emploi qui entrera en vigueur en janvier 2025. À France Travail, cette « ambition » se traduira concrètement par la généralisation d’un dispositif dit « #CRE rénové » (contrôle de la recherche d’emploi) inclus dans le kit de cette loi.

    Ses conséquences promettent d’être redoutables pour les demandeurs d’emploi, passibles dès l’année prochaine de radiations automatiques. Comment en effet atteindre de tels volumes dans un contexte de suppressions de postes au sein de l’opérateur public, alors que les agents disent déjà être en tension sur leurs missions ?

    #paywall #loi_sur_le_plein-emploi #contrôle_des_chômeurs #radiations #guerre_aux_pauvres

  • Les droits des usagers des services publics face aux algorithmes et aux systèmes d’IA : points de vigilance et recommandations de la Défenseure des droits | Défenseur des Droits
    https://www.defenseurdesdroits.fr/les-droits-des-usagers-des-services-publics-face-aux-algorithmes-

    Face au nombre croissant de décisions administratives individuelles prises sur la base de résultats livrés par des algorithmes ou systèmes d’IA, la Défenseure des droits s’inquiète des risques qu’induit cette algorithmisation des services publics pour les droits des usagers. Elle présente plusieurs recommandations afin que les garanties prévues par la loi soient pleinement concrétisées.

    #discrimination_automatisée #algorithmes #IA #doits_sociaux #Kafka_on_line

  • L’algorithme de notation de la CNAF attaqué devant le Conseil d’État par 15 organisations
    https://www.laquadrature.net/2024/10/16/lalgorithme-de-notation-de-la-cnaf-attaque-devant-le-conseil-detat-par

    En cette veille de journée mondiale du refus de la misère, 15 organisations de la société civile attaquent l’algorithme de notation des allocataires des Caisses d’Allocations Familiales (CAF) en justice, devant le Conseil d’État, au…

    #Surveillance

  • Dans les algorithmes | ChatGPT : le mythe de la productivité
    https://danslesalgorithmes.net/2024/09/17/chatgpt-le-mythe-de-la-productivite

    les solutions d’IA et les entreprises technologiques promeuvent le « mythe de la productivité », l’idée selon laquelle économiser du temps et des efforts est mieux que de faire une activité particulière pour elle-même. Le mythe de la productivité suggère que tout ce à quoi nous passons du temps peut-être automatisé. La production peut-être accélérée, sans limite. Les raisons pour lesquelles nous le faisons, la profondeur que cela nous apporte n’ont pas d’importance. Selon ce mythe, le but de l’écriture c’est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne…

    #Intelligence_Artificielle #Réflexion_humaine #Algorithmes #écriture

  • Les smartphones bientôt interdits dans le réseau Wallonie-Bruxelles Enseignement bx1.be

    Les 373 écoles du réseau Wallonie-Bruxelles Enseignement, vont baliser l’usage du smartphone dès cette rentrée. Une interdiction sera d’application en maternelle, primaire et secondaire dans le courant de l’année, rapportent Le Soir et Sudinfo ce jeudi.

    La mesure du réseau WBE, soit les écoles officielles, concerne 132.600 élèves dans 373 établissements. Une cinquantaine d’établissements sont concernées en Région bruxelloise.

    Elle s’appliquera tout de suite pour un certain nombre d’écoles qui lancent l’expérience à la rentrée de lundi prochain (ou ont déjà interdit le smartphone depuis plusieurs années). Pour la plupart des autres établissements, le pas sera franchi dans le courant de cette année scolaire.
    . . . . .

    La suite et source : https://bx1.be/categories/news/les-smartphones-bientot-interdits-dans-le-reseau-wallonie-bruxelles-enseignement/?theme=classic

    #école #enseignement #enfants #apprentissage #cerveau #internet #smartphones #plateformes #streaming #algorithmes #Belgique #technologie

  • Les #algorithmes et l’#intelligence_artificielle contre les étrangers en Europe

    Si le Défenseur des droits n’est, pour l’instant, pas régulièrement saisi pour des situations mettant en cause l’usage des algorithmes et des systèmes de l’intelligence artificielle (IA), cette autorité administrative indépendante est toutefois attentive à leurs développements en France, comme au sein de l’Union européenne. Dans le sillage de la numérisation des services publics, le développement de l’IA à des fins de contrôle et de surveillance des personnes étrangères laisse, selon lui, craindre une fragilisation accrue de leurs droits fondamentaux contre laquelle la future législation européenne n’apportera visiblement pas toutes les garanties nécessaires.

    Le Défenseur des droits (DDD) est préoccupé par le déploiement des algorithmes et de l’intelligence artificielle (IA). L’institution s’est intéressée aux conséquences de la mise en place des nouvelles technologies, en particulier depuis 2018, en approfondissant les effets de la dématérialisation des services publics sur les usagers. Plusieurs rapports, avis [1] et décisions [2] du DDD ont été l’occasion de relever que les étrangers ont constitué l’un des premiers publics en France pour lequel la dématérialisation des démarches préfectorales a été mise en place de manière radicale et aveugle et ce, alors même que ces personnes se trouvent, la plupart du temps, dans des situations où elles cumulent les difficultés. En 2022, le Conseil d’État a exigé de l’administration qu’elle rétablisse, en parallèle du service proposé en ligne, un accueil physique pour la procédure de demande de titre de séjour, au regard du caractère particulièrement « complexe » et « sensible » de cette démarche. Il a considéré tout d’abord, que les usagers qui ne disposent pas d’un accès aux outils numériques, ou qui rencontrent des difficultés dans leur utilisation, doivent pouvoir être accompagnés. Ensuite, s’il apparaît que certains usagers sont dans l’impossibilité, malgré cet accompagnement, de recourir au téléservice, pour des raisons tenant à sa conception ou à son mode de fonctionnement, l’administration doit leur garantir une solution de substitution [3]. Ces conditions visent à prendre en compte les caractéristiques et situations particulières des étrangers demandant un titre de séjour, qui pourraient perdre le droit de se maintenir sur le territoire si leur demande n’était pas enregistrée. Force est de constater que la dématérialisation ne s’est pas faite au bénéfice des usagers.

    S’agissant du développement des algorithmes et des systèmes apprenants, on peut craindre que la technologie vienne fragiliser un peu plus les droits fondamentaux des étrangers, compte tenu du contexte européen et français de durcissement des politiques en matière d’asile, d’immigration et d’intégration [4]. À cet égard, on peut déjà relever que les personnes étrangères sont la cible de divers projets d’IA présentés comme toujours plus sophistiqués et systématiquement testés et déployés à des fins de contrôle et de surveillance.
    Algorithmes : des biais discriminatoires systématisés ?

    Peu de réclamations adressées au DDD visent ces nouveaux systèmes, opaques et encore rarement mis en cause, y compris au niveau européen. L’institution, en lien avec ses homologues européens membres du réseau Equinet et des partenaires nationaux dont la Commission nationale consultative des droits de l’Homme, se montre néanmoins attentive à leurs développements et à leurs risques inhérents.

    Des risques importants existent, liés aux biais discriminatoires* des algorithmes et au potentiel de systématisation des discriminations, du fait de l’usage grandissant de ces technologies.

    Les données mobilisées pour entraîner les systèmes algorithmiques peuvent en effet être biaisées lorsqu’elles sont la traduction mathématique des pratiques et comportements discriminatoires. Le risque d’amplifier, pour certains groupes sociaux, les discriminations systémiques opérant au sein de la société est avéré s’agissant des technologies biométriques [5]. En effet, elles ciblent le plus souvent les caractéristiques des individus qui les exposent à des discriminations (origine, sexe, identité de genre, apparence physique, état de santé, handicap, âge, etc.).
    Expérimentations aux frontières de l’Union européenne

    Dans le domaine des migrations, l’Union européenne (UE) finance, depuis 2016, un projet appelé iBorderCtrl, qui consiste à « tester de nouvelles technologies destinées à accroître l’efficacité de la gestion des contrôles aux frontières extérieures de l’Union [6] ». L’un des modules expérimentés a concentré les critiques : un détecteur de mensonges basé sur les émotions interprétées par une IA. Un douanier virtuel devait poser des questions et identifier les signaux non verbaux d’un mensonge en analysant les micro-expressions faciales du répondant. Selon les résultats, l’individu était redirigé soit vers les files d’attente rapides soit vers des contrôles poussés. Ce système a été testé aux frontières terrestres de l’UE en Hongrie, en Lettonie et en Grèce, et de nombreuses associations ont dénoncé une technologie hautement expérimentale visant des personnes en situation de grande vulnérabilité, ainsi que son manque de fiabilité (le système était crédité, en 2018, d’un taux de réussite autour de 75%, ce qui revient à considérer un quart des personnes concernées comme soupçonnées de mentir alors que ce n’est pas le cas) [7]. Dans la lignée des constats dressés s’agissant de la dématérialisation des services publics, on relève que ce sont là aussi des étrangers qui, sans être en situation de contester des procédures auxquelles ils doivent se soumettre, font l’objet du déploiement de technologies mises au service d’une politique et d’une rhétorique particulièrement dures.
    Biométrie : des droits fondamentaux fragilisés

    Dans son rapport Technologies biométriques : l’impératif respect des droits fondamentaux [8], le DDD a relevé les risques considérables d’atteintes aux droits et libertés que fait peser l’utilisation des systèmes automatisés reposant sur la biométrie, à commencer par le droit au respect de la vie privée et à la protection des données – questions qui relèvent en premier lieu du périmètre des compétences de la Commission nationale de l’informatique et des libertés (Cnil), avec laquelle l’institution collabore notamment sur les enjeux d’IA. En Italie, des technologies biométriques d’identification à distance ont été utilisées dans le cadre de la lutte contre l’immigration illégale : le système de reconnaissance faciale* SARI était déployé en temps réel pour identifier sur la voie publique les étrangers en situation irrégulière. Son utilisation a été interdite en 2021 par l’autorité italienne de protection des données [9].

    L’utilisation des technologies biométriques d’identification peut également avoir un effet dissuasif sur l’exercice de droits fondamentaux comme la liberté d’expression, celle d’aller et venir, la liberté d’association et plus largement l’accès aux droits. Le fait que ces technologies fonctionnent souvent à l’insu des personnes concernées tend à dissuader ces dernières d’exercer leurs droits, et cela indépendamment du niveau de déploiement, la crainte de la surveillance suffisant pour affecter notre comportement. Dans le domaine des migrations, l’effet dissuasif des technologies biométriques se traduit également par un risque d’exclusion, en particulier pour les personnes issues de groupes particulièrement discriminés. L’utilisation de technologies biométriques, de par leur effet dissuasif [10], peut priver les réfugiés et demandeurs d’asile de l’accès aux services de base essentiels.
    Les dangers des décisions administratives générées par l’IA

    Un autre risque identifié est lié à l’automatisation, explicite ou de fait, des décisions administratives individuelles. Le cadre légal, à savoir la loi « informatique et libertés » et le code des relations entre le public et l’administration, autorise, par exception et en dehors de la sphère pénale, l’automatisation intégrale tout en l’encadrant. Par principe, la réglementation relative à la protection des données personnelles exclut qu’une personne physique puisse faire l’objet d’une décision entièrement automatisée qui « produit des effets juridiques » ou l’affecte « de manière significative ». Des exceptions existent néanmoins. Dès lors, quand la décision est prise de façon entièrement automatisée, les garanties prévues sont-elles réellement appliquées ? Et quand la décision ne peut pas, légalement, reposer sur un procédé entièrement automatisé, quelle est réellement la substance de l’intervention humaine dans un contexte de traitement en masse des dossiers par algorithmes ? Ces questions font écho aux enjeux de la motivation de ces décisions et de l’effectivité du droit au recours.

    À l’heure de la numérisation et de l’« algorithmisation de l’administration [11] », ces problématiques irriguent, en France, les différentes sphères administratives, telle l’éducation, avec par exemple Affelnet et Parcoursup, et la gestion des prestations sociales et le contrôle des allocataires par la Caisse nationale des allocations familiales (Cnaf). Elles touchent aussi les personnes étrangères.

    Au Royaume-Uni, le Home Office, le ministère de l’intérieur britannique, était mis en cause en 2023 pour son utilisation, depuis 2019, d’un algorithme de détection des faux dans les demandes de mariage impliquant une personne non britannique et n’ayant pas de statut établi suffisant ou de visa valide, et ce, afin d’accélérer les enquêtes et de réduire les coûts [12]. L’évaluation des couples se fondait sur huit facteurs, dont la différence d’âge au sein du couple. Ceux signalés par l’algorithme faisaient l’objet d’une enquête approfondie, pouvant conduire les autorités à demander des documents prouvant l’authenticité de la relation. Selon le Home Office, la nationalité n’était pas prise en compte par l’algorithme, mais une évaluation, communiquée à l’association Public Law Project, montre que les personnes de nationalités bulgare, grecque, roumaine et albanaise étaient plus susceptibles d’être identifiées par l’algorithme. Ce dernier se révèle donc indirectement discriminatoire à l’égard des personnes sur la base de la nationalité.

    En France, un fonctionnaire du ministère de l’intérieur a utilisé un outil d’IA générative* pour examiner une demande de visa déposée par une jeune femme afghane se trouvant en Iran [13]. Il s’agissait a priori d’une initiative personnelle, donc hors du cadre de l’expérimentation gouvernementale sur « l’intelligence artificielle au service de l’amélioration de la qualité des services publics », lancée à l’automne 2023, qui prévoit bien l’usage de l’IA dite « générative » (qui produit par exemple du texte) en matière d’aide à la rédaction de réponses aux avis des usagers sur la plateforme Services Publics +. Les prolongements de cette expérimentation devront être scrutés de près en tant qu’ils concernent les droits des usagers du service public et d’éventuelles discriminations.
    Le projet de règlement de l’UE sur l’IA

    Au regard des risques identifiés, le DDD est intervenu à plusieurs reprises dans le cadre de l’élaboration du projet de règlement sur l’IA porté par l’UE pour appeler à la nécessaire prise en compte des droits fondamentaux et du principe de non-discrimination.

    Schématiquement, ce futur « AI Act » est conçu selon une approche par les risques. Sont interdits les systèmes d’IA présentant un risque inacceptable, tel le « score social » par lequel un système d’IA est utilisé pour « classer les personnes physiques en fonction de leur comportement, de leur statut économique, de leurs caractéristiques personnelles » avec, à la clef, un traitement préjudiciable ou défavorable [14]. Le futur règlement vise aussi à imposer des contraintes aux fournisseurs et utilisateurs de systèmes d’IA « à haut risque » et à ne soumettre les autres systèmes qu’à des obligations d’information. Dans ce cadre, certains systèmes d’IA utilisés pour la gestion de la migration, de l’asile et des contrôles aux frontières ont été inscrits dans la catégorie « à haut risque » dans les projets de réglementation. On y trouve notamment « les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes […] pour les assister dans l’examen des demandes d’asile, de visa et de permis de séjour ainsi que les réclamations connexes, dans le but de vérifier l’éligibilité des personnes physiques qui demandent un statut, y compris pour évaluer la fiabilité des preuves » ou « les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes pour évaluer des risques, y compris un risque de sécurité, un risque de migration irrégulière […] posé par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre [15] ».

    L’enjeu de la catégorisation dans les systèmes d’IA « à haut risque » réside dans le respect d’obligations telles que d’assurer un système de gestion des risques, de contrôler la qualité des données, de respecter la transparence et fournir l’information aux utilisateurs, de prévoir une surveillance humaine, ou encore de garantir la précision, la robustesse, la conformité et la sécurité du système ainsi que les actions correctrices nécessaires.

    Certaines des demandes formulées par le DDD [16] avec ses homologues européens et nationaux, et soutenues par plusieurs organisations de la société civile, ont été prises en compte, en particulier la possibilité pour toute personne physique ou morale considérant que ladite réglementation a été violée, de déposer une plainte auprès de l’autorité nationale chargée de son application. D’autres, en revanche, n’ont pas été suivies d’effet : de larges exceptions sont ainsi prévues concernant l’utilisation de systèmes biométriques pour identifier des personnes en temps réel dans l’espace public, ce qui exigera nécessairement une attention particulière au moment du déploiement de ces systèmes, au regard des risques exposés.

    Il convient de relever enfin que ce futur « AI Act » et les garanties qu’il offrira, ne s’appliqueront qu’à certains systèmes d’IA mis sur le marché, en service, ou dont les résultats sont utilisés dans le territoire de l’UE. Or des systèmes de reconnaissance faciale et d’autres systèmes de surveillance de masse ont été développés et vendus par des entreprises installées dans l’UE (et en particulier en France, en Suède et aux Pays-Bas), et déployés dans des lieux comme les territoires palestiniens occupés ou la Chine, où ils ont été utilisés pour opprimer davantage des groupes et communautés déjà marginalisés [17]. Il serait, en outre, difficile de conclure sans mentionner que les « travailleurs et travailleuses du clic », chaînon indispensable à la fabrication des systèmes d’IA [18] dans l’UE (pour l’annotation des données, par exemple), dont la rémunération à la tâche est très faible [19], font l’objet d’une sous-traitance et d’une externalisation massive dans certains pays pauvres.

    [1] DDD, Dématérialisation et inégalités d’accès aux services publics, 2019 ; Dématérialisation des services publics : trois ans après, où en est-on ?, 2022. Voir aussi l’avis 21-03 du 28 avril 2021 relatif aux moyens consacrés par les préfectures à l’instruction des demandes de titres de séjour.

    [2] DDD, décision n° 2020-142 du 10 juillet 2020.

    [3] CE, 3 juin 2022, n° 452798. Voir les observations portées par le DDD dans le cadre de ce dossier à la demande du CE (24 février 2022, n° 2022-061).

    [4] DDD, avis 23-07 du 24 novembre 2023 relatif au projet de loi pour contrôler l’immigration, améliorer l’intégration.

    [5] DDD-Cnil, Algorithmes : prévenir l’automatisation des discriminations, 2020.

    [6] CJUE, affaire C-135/22 P, arrêt du 7 septembre 2023.

    [7] Eleftherios Chelioudakis, « Greece : Clarifications sought on human rights impacts of iBorderCtrl », EDRI, 21 novembre 2018 ; « Des détecteurs de mensonge expérimentés aux frontières extérieures de l’Europe », Le Monde, 31 août 2019.

    [8] DDD, Technologies biométriques : l’impératif respect des droits fondamentaux, 2021.

    [9] Avis de l’autorité italienne de protection des données sur le système SARI Real Time, 25 mars 2021.

    [10] Rapport de Tendayi Achiume, Rapporteuse spéciale sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l’intolérance qui y est associée, 10 novembre 2020.

    [11] Boris Barraud, « L’algorithmisation de l’administration », Revue Lamy Droit de l’immatériel, n° 150, 2018.

    [12] « Legal action launched over sham marriage screening algorithm », BBC News, 17 février 2023.

    [13] « Darmanin laisse l’intelligence artificielle juger le droit d’asile », Le Canard enchaîné, 4 octobre 2023.

    [14] « Loi sur l’IA de l’UE : première réglementation de l’intelligence artificielle », Parlement européen, 9 juin 2023. Une telle définition fait penser au système de « crédit social » à la chinoise : voir Emmanuel Dubois de Prisque, « Le système de crédit social chinois. Comment Pékin évalue, récompense et punit sa population », Futuribles, n° 434, 2020.

    [15] EU Council, Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts – Analysis of the final compromise text with a view to agreement, ST 5662 2024 INIT – NOTE, 26 janvier 2024 (traduction de l’auteure).

    [16] DDD, « Intelligence artificielle : la Défenseure des droits appelle à garantir le droit de la non-discrimination dans les discussions européennes », 28 septembre 2023 et « Règlement européen sur l’intelligence artificielle : la Défenseure des droits et la CNCDH, en lien avec leurs homologues européens, appellent à la nécessaire prise en compte des droits fondamentaux et du principe de non-discrimination », 29 novembre 2023.

    [17] Amnesty International, EU’s AI Act and Human Rights, octobre 2023.

    [18] Voir Antonio Casilli « Digital Labor : travail, technologies et conflictualités », La revue des médias, 7 septembre 2015.

    [19] En 2023, un sous-traitant d’OpenAI avait payé moins de deux dollars de l’heure des personnes au Kenya pour « nettoyer » ChatGPT de ses contenus les plus toxiques, voir « Exclusive : OpenAI Used Kenyan Workers on Less Than $ 2 Per Hour to Make ChatGPT Less Toxic », Time, 18 janvier 2023.

    https://www.gisti.org/spip.php?article7245
    #migrations #AI #IA #réfugiés #contrôles_frontaliers #frontières #biométrie #droits_fondamentaux #droits_humains #discriminations #biais #expérimentation

  • Des interfaces truquées sur tous les sites web contrôlés par le SPF Economie Agence Belga

    Des interfaces truquées ou « dark pattern », conçues pour inciter les consommateurs à entreprendre des actions qui ne sont souvent pas à leur avantage, ont été retrouvées sur tous les sites web belges contrôlés lors d’une enquête internationale menée par 27 autorités de protection des consommateurs et 26 autorités de protection de la vie privée.

    Dans 70% des cas belges, deux pratiques douteuses au moins étaient utilisées, prévient mardi le SPF Economie.

    Les contrôles, qui ont eu lieu entre le 29 janvier et le 2 février dernier, ont mis l’accent sur les sites web et les applications proposant des abonnements à des produits ou à des services. « Il s’agit par exemple de la livraison hebdomadaire de repas ou de fleurs, mais aussi d’abonnements à des plateformes de streaming ou à des contrats d’entretien. Les entreprises ont été sélectionnées sur la base de signalements et d’un échantillonnage », précise le SPF Economie.

    Plus de 600 sites internet ont été contrôlés dans le monde, dont 13 en Belgique. « En Belgique, des pratiques ont été détectées particulièrement fréquemment au cours de la campagne de contrôle : des pratiques suspectées d’être ’sournoises’, telles que l’impossibilité de désactiver le renouvellement automatique d’un abonnement lors de l’achat, et des pratiques ’d’interface interference’, telles que le pré-cochage des abonnements », détaille le SPF.

    Des interfaces truquées ou « dark pattern » ont été détectées sur 75,7 % des entreprises contrôlées au cours d’une enquête internationale. Elles sont conçues pour inciter les consommateurs à entreprendre des actions qui ne sont souvent pas à leur avantage. Au niveau belge, tous les sites web contrôlés présentaient au moins un dark pattern, et près de 70 % d’entre eux ont même eu recours à deux pratiques trompeuses ou plus.

    Source : https://www.lalibre.be/economie/conjoncture/2024/07/09/des-interfaces-truquees-sur-tous-les-sites-controles-par-le-spf-economie-IQC

    #internet #smartphones #commerce #interfaces #applications #services #plateformes #streaming #abonnements #dark_pattern #algorithmes

  • À France Travail, l’essor du contrôle algorithmique
    https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique

    « Score de suspicion » visant à évaluer l’honnêteté des chômeur·ses, « score d’employabilité » visant à mesurer leur « attractivité », algorithmes de détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à…

    #Données_personnelles #Surveillance

    • Au nom de la « rationalisation » de l’action publique et d’une promesse « d’accompagnement personnalisé » et de « relation augmentée », se dessine ainsi l’horizon d’un service public de l’#emploi largement automatisé. Cette automatisation est rendue possible par le recours à une myriade d’#algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos #données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de #surveillance de masse visant à un #contrôle_social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social.

      De la CAF à France Travail : vers la multiplication des « scores de suspicion »

      C’est, ici encore, au nom de la « lutte contre la fraude » que fut développé le premier algorithme de profilage au sein de #France_Travail. Les premiers travaux visant à évaluer algorithmiquement l’honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants »1, France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à Cap Gemini, une multinationale du CAC402.

      La notation des chômeur·ses est généralisée en 2018.

      #chômeurs #guerre_aux_pauvres

  • Le techno-contrôle des migrations ⋅ GISTI
    http://www.gisti.org/article7241

    Depuis 2010, l’Union européenne investit massivement dans le développement des technologies du #big_data et de l’intelligence artificielle (#IA), c’est-à-dire de machines entraînées pour intervenir, de façon plus ou moins autonome, dans la #surveillance des frontières et des populations. À toutes les étapes de leur parcours, les individus sont soumis – le plus souvent à leur insu – à une panoplie de dispositifs numériques destinés à tracer leurs déplacements et analyser leurs comportements. Les outils de contrôle s’autonomisent, les services publics se numérisent, les décisions administratives s’« algorithmisent », inscrivant le traitement des étrangers – et des pauvres – dans une logique de police prédictive. Cette nouvelle économie du contrôle des frontières repose sur la captation et l’exploitation exponentielle des traces numériques des personnes.

    Mais de quoi parle-t-on lorsqu’on évoque l’automatisation du contrôle des frontières par le biais de ces technologies ? Quelles transformations génère cet exercice du pouvoir, invisible et de plus en plus automatisé ? Et que prévoit le législateur pour garantir aux personnes étrangères qui y sont assujetties l’accès effectif à leurs droits ? Autant de questions auxquelles ce dossier tente d’apporter des éléments de réponse, pour contribuer à lutter contre l’opacité qui caractérise cette politique au nom de la préservation des intérêts commerciaux de l’industrie du #contrôle_migratoire et de la sécurité nationale.

    L’expansion des outils de l’IA ouvre de toute évidence un nouveau front de luttes pour la défense des droits des personnes étrangères, cobayes du développement de ces nouvelles technologies, qui à n’en pas douter, vont progressivement s’étendre à l’ensemble du corps social…

    #techno_contrôle #algorithmes #europe_sécuritaire #GISTI

  • Radio Canada Des entrepreneurs dénoncent une mise à jour « catastrophique » de google Philippe de Montigny - Marjorie April

    Des entrepreneurs et des créateurs web constatent une chute vertigineuse de l’achalandage de leurs sites et de la découvrabilité de leurs contenus depuis de récentes mises à jour des algorithmes de google.

    Depuis ces mises à jour, Béatrice Bernard-Poulin dit avoir perdu environ 75 % du trafic organique sur son blogue. La majorité de l’achalandage sur son site web provenait de google, qui est de loin le moteur de recherche le plus populaire du monde. “Je n’avais pas réalisé que j’étais autant dépendante de google”, dit-elle.


    Son blogue Béatrice comprend une panoplie d’articles sur les finances personnelles et la consommation, ainsi qu’une boutique où elle vend des outils budgétaires numériques.

    Pour les revenus, ça a été pas mal catastrophique.
    Une citation de Béatrice Bernard-Poulin, entrepreneure, auteure et conférencière

    L’algorithme “contenu utile” (ou Helpful Content, en anglais), qui existe depuis deux ans, a été modifié en septembre dernier afin de privilégier les publications “qui apportent une réelle valeur ajoutée” aux internautes. À l’inverse, les contenus rédigés pour bien se classer dans les moteurs de recherche sont pénalisés.

    Béatrice Bernard-Poulin remet en question l’argument du contenu utile. Elle a remarqué, par exemple, que ses articles informatifs ont été relégués au bas des résultats de recherche — au profit de sites de voyagistes et de contenus commandités.

    Les réseaux sociaux lui ont servi à bâtir une communauté de lecteurs, mais l’entrepreneure s’est distanciée de certaines plateformes qui ont récemment ajouté des fonctionnalités payantes pour qu’elle puisse interagir avec ses abonnés.

    “Même si j’avais vécu des changements d’algorithme sur les médias sociaux avant, on dirait que je ne pensais pas nécessairement que c’était possible que google fasse un changement qui ait un impact de ce niveau-là”, dit-elle.

    “J’avais un peu mis tous mes œufs dans le même panier.”
    Béatrice Bernard-Poulin est conceptrice d’un blogue spécialisé en finances personnelles et d’une boutique en ligne où elle vend des outils budgétaires.

    La Montréalaise dit maintenant chercher un travail d’appoint pour lui permettre d’arrondir ses fins de mois. “Je vais continuer d’essayer de trouver une solution parce que je tiens à mon site web. Je crois qu’il est pertinent. Il aide les gens. Je reçois ces commentaires-là tous les jours”, affirme Béatrice Bernard-Poulin.

    “Mais je ne peux plus le faire à temps plein. Je dois aller me chercher un salaire ailleurs malheureusement”, dit-elle.

    Déjouer les algorithmes ?
    google a aussi complété le mois dernier une mise à jour majeure de ses algorithmes, qui lui permet de déceler plus efficacement des publications générées par l’intelligence artificielle et lutter contre le pollupostage, soit des contenus jugés de faible valeur.

    Résultat : de nombreux sites signalent une dégringolade massive dans le classement, alors que d’autres n’apparaissent plus du tout dans les résultats de recherche.

    Selon Stéphane Hamel, spécialiste en marketing numérique et chargé d’enseignement à l’Université Laval, le moteur de recherche lance un message clair : “Créez du contenu pour des humains, n’essayez pas de déjouer l’algorithme.”

    Ironiquement, google a annoncé mardi que les résultats de recherche apparaîtront dorénavant sous forme de réponses concoctées par son nouvel outil d’intelligence artificielle (IA) générative. Ces réponses automatisées paraîtront au-dessus des liens vers des sites web et des articles de nouvelles.

    Ce qui peut être frustrant, c’est que google décide unilatéralement de changer les règles du jeu.
    Une citation de Stéphane Hamel, spécialiste en marketing numérique et chargé d’enseignement, Université Laval

    google n’a pas donné suite à nos demandes répétées d’entrevue et de commentaires.

    Dans un article publié sur son blogue google Search Central (Nouvelle fenêtre), l’entreprise explique que l’objectif de sa mise à jour au début du printemps était “d’améliorer la qualité de la recherche en affichant moins de contenu qui semble avoir été conçu pour générer des clics, et plus de contenu que les internautes trouvent utile.”

    Son classement s’appuie dorénavant sur “divers signaux et systèmes”, précise google. “Aucun système unique n’est utilisé pour identifier les contenus utiles”, peut-on lire dans l’article.

    “Les entreprises qui se sont retrouvées à perdre du trafic organique peut-être vont être portées à augmenter leur budget au niveau de la publicité google, donc ça sert bien google”, affirme Stéphane Hamel.

    Il explique que l’entreprise donne des conseils vagues – sur l’utilisation d’hyperliens et de mots clés, par exemple – sans préciser concrètement ce qui influence le classement. “Ça, c’est leur recette secrète”, dit-il.
    L’expert dénonce le manque de transparence du géant américain. “Je pense que c’est malheureusement l’état de l’écosystème numérique dans lequel on est”, dit-il.

    “Tout ce que google conseille, je l’ai pratiquement fait. J’ai consulté des spécialistes qui n’arrivent pas non plus à mettre le doigt sur le problème exact”, affirme Jennifer Doré Dallas, qui a vu une baisse de plus de 60 % de l’achalandage sur son blogue de voyage depuis les changements d’algorithme.

    La créatrice de contenu dit avoir perdu “des milliers de dollars” par mois en commissions d’affiliation et en revenus publicitaires. Ses revenus de la plateforme de publicité Mediavine ont chuté d’au moins 40 %, souligne-t-elle.
    “C’est tout simplement comme si des années et des années de travail se sont effondrées”, affirme la conceptrice du blogue Moi, mes souliers.

    Comment s’adapter aux nouvelles règles ?
    Une entrepreneure torontoise dit avoir réussi à éviter la chute de trafic rapportée par d’autres créateurs de contenu.

    Karima-Catherine Goundiam, la fondatrice de la plateforme de réseautage pour entrepreneurs B2BeeMatch, affirme que l’achalandage de son site est demeuré relativement stable depuis ces récentes mises à jour. “En fait, on a eu une légère hausse de notre côté parce que, justement, nous avons refusé la pression de créer du contenu en masse”, explique-t-elle.

    Karima-Catherine Goundiam, fondatrice et PDG de B2BeeMatch, dit avoir travaillé fort pour optimiser son site afin qu’il demeure pertinent aux yeux du nouvel algorithme de google.

    En plus de favoriser des échanges entre chefs d’entreprise, investisseurs et jeunes pousses, le site propose des publications rédigées par son équipe, ainsi que du contenu créé par ses abonnés et révisé à l’interne.

    Karima-Catherine Goundiam dit avoir consulté des spécialistes en référencement afin d’optimiser sa découvrabilité dans les moteurs de recherche, sans toutefois suivre tous leurs conseils à la lettre. “C’est probablement ce qui nous a sauvés”, affirme la PDG de B2BeeMatch, qui souhaite assurer la pérennité de sa plateforme.

    Tout ce qui est référencement, ce ne sera jamais une science qui va vous être donnée et ce ne sera jamais final.
    Une citation de Karima-Catherine Goundiam, fondatrice et PDG de B2BeeMatch

    Pour aiguiller les créateurs de contenu, google les renvoie à une liste de questions (Nouvelle fenêtre) leur permettant d’évaluer la qualité de leurs publications, leur niveau d’expertise et l’expérience du lecteur sur leur page web.

    “Les systèmes de classement automatisé de google sont conçus pour inclure dans les meilleurs résultats de recherche des informations utiles et fiables, qui ont été créées pour aider les internautes et non pour améliorer le classement d’un site”, peut-on lire sur le blogue de l’entreprise.

    google, qui détient plus de 90 % du marché mondial des moteurs de recherche, fait d’ailleurs l’objet de poursuites aux États-Unis.

    Le géant américain est notamment accusé d’avoir abusé de sa position dominante, en signant des contrats illégaux avec Apple et Samsung pour que son application soit installée par défaut sur leurs téléphones intelligents. Un jugement est attendu au cours des prochaines semaines, ce qui pourrait forcer l’entreprise à se départir de certaines de ses activités ou à changer ses pratiques.

    Reste à voir si la question des algorithmes sera abordée dans la décision du tribunal. “Peut-être que ça va changer, mais ça risque de prendre beaucoup de temps”, estime Stéphane Hamel, de l’Université Laval.

    #créateurs_web #algorithmes #google #trafic #IA #hyperliens #référencement #internet #bigdata #domination #gafam

    Source : https://ici.radio-canada.ca/nouvelle/2072674/google-algorithme-mise-a-jour-trafic-web

  • La Tribune : Amazon abandonne ses magasins sans caisse... en réalité gérés par des travailleurs indiens à distance Marine Protais

    Le géant du e-commerce, qui opère également des magasins physiques, renonce à sa technologie Just Walk Out dans ses supermarchés Amazon Fresh aux États-Unis. Ce système permet à ses clients de faire leurs emplettes sans passer par l’étape de la caisse. Mais il nécessite des caméras, des capteurs et surtout le travail de 1.000 travailleurs indiens, donnant l’illusion de l’automatisation.


    Pour faire ses courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre ses produits et de sortir. (Crédits : Amazon)

    En 2016, on les annonçait comme le futur du commerce. Plus besoin de caissiers, ni de vigiles, ni même de sortir votre portefeuille. Pour faire vos courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre vos produits et de sortir. Le montant de vos achats était calculé à la sortie du magasin grâce à un système mêlant caméras et capteurs décrit comme automatique, puis directement débité sur votre carte bancaire.

    Mais nous voici en 2024, et le géant du e-commerce, diversifié dans les magasins physiques, abandonne en partie cette technologie, nous apprend le média américain The Information https://www.theinformation.com/articles/amazons-grocery-stores-to-drop-just-walk-out-checkout-tech . Elle sera supprimée des 27 magasins « Amazon Fresh » américains (des supermarchés où l’on trouve des produits frais), où elle était installée. En guise de remplacement, ces magasins seront équipés de caddies « intelligents », capables de scanner automatiquement les produits, rapporte le média d’investigation américain. L’information a ensuite été confirmée auprès d’AP https://apnews.com/article/amazon-fresh-just-walk-out-bb36bb24803bd56747c6f99814224265 par un porte-parole de l’entreprise. Le système Just Walk Out restera pour le moment dans les plus petites boutiques « Amazon Go », et chez la centaine de partenaires de la firme.

    L’illusion de l’automatisation
    Pour se passer de caissier sur place, le système « Just Walk Out » nécessite son lot de caméras et de capteurs, permettant de suivre le client en magasin, mais surtout d’humains, chargés de vérifier à distance les achats des clients via les caméras. The Information rapporte que plus de 1.000 personnes en Inde sont chargées de ce travail.

    En plus de cette automatisation illusoire, le système « Just Walk Out » faisait depuis quelques années l’objet de critiques. Les clients se plaignent de tickets de caisse reçus des heures après leurs achats, ou de commandes mal gérées par le système. En 2023, la firme avait d’ailleurs annoncé une réorganisation de ses magasins, pour rendre les technologies moins visibles et l’ambiance moins froide. Et le rythme d’ouvertures des enseignes avait été revu à la baisse.

    Par ailleurs, la technologie soulève des questions quant à la protection de la vie privée. Fin 2023, plusieurs consommateurs ont lancé une class action, accusant Amazon de collecter les données biométriques des clients, la forme de leur main et de leur visage ainsi que la tonalité de leur voix, via le système Just Walk Out sans demander leur consentement. Une pratique contraire à une loi de l’Illinois sur le traitement des données biométriques.

    Les entrepôts « automatisés » d’Amazon également surveillés par des travailleurs indiens
    Comme le note le chercheur Antonio Casilli, spécialiste du « travail du clic », cette histoire est banale. Sur X, il rappelle qu’en 2023, Time nous apprenait qu’Alexa, l’assistant virtuel de l’entreprise de Seattle, fonctionnait grâce à l’écoute de 30.000 travailleurs qui annotaient les conversations des utilisateurs pour améliorer les algorithmes gérant l’assistant.

    Et en 2022, The Verge rapportait que les entrepôts automatisés d’Amazon nécessitaient le travail de vigiles, à distance toujours, de travailleurs au Costa-Rica et en Inde, chargés de regarder les images des caméras plus de 40 heures par semaine pour 250 dollars par mois.

    #IA#intelligence_artificielle : #Fumisterie , #arnaque ou #escroquerie ? #amazon #caméras #capteurs #automatisation #technologie #travail #Entrepôts #algorithmes #Alexa

    Source : https://www.latribune.fr/technos-medias/informatique/amazon-abandonne-ses-magasins-sans-caisse-en-realite-geres-par-des-travail

    • Amazon : pourquoi la tech autonome “Just Walk Out” passe à la trappe
      Confirmation sur le blog d’Olivier Dauvers, le web grande conso

      Amazon vient d’annoncer l’abandon de la technologie Just Walk Out dans ses magasins Fresh aux États-Unis (une cinquantaine d’unités dont la moitié sont équipés). Just Walk Out c’est la techno, totalement bluffante, de magasin autonome sans caisses que je vous ai montrée en vidéo dès 2020 (ici) ou encore à Washington et Los Angeles dans de vrais formats de supermarché Whole Foods (ici et là). 

      Des centaines de caméras dopées à l’IA au plafond couplées à des balances sur les étagères permettent de pister l’intégralité du parcours d’achat du client, lequel s’affranchit du passage en caisse. Bluffant (vraiment) je vous dis. 


      un de ces magasins où l’être humain est bani

      Appelons un chat un chat, pour Amazon, ce revirement est un aveu d’échec cuisant. Car la vente de ses technos est au cœur du modèle économique d’Amazon dans le retail physique. Si le groupe lui-même ne parvient pas à prouver la viabilité de Just Walk Out, quel concurrent irait l’acheter ?

      Ce qu’il faut retenir de cet abandon ? Que les technos de magasins autonomes ne sont, pour l’heure, déployables que sur de (très) petits formats bénéficiant d’un flux clients très élevé. Pour des raisons assez évidentes de Capex/m2… mais aussi de supervision humaine. Car, à date, l’IA seule n’est pas en mesure de gérer tous les scénarios de course (dont les tentatives de démarque), obligeant un visionnage de contrôle par l’humain (localisé dans des pays à bas salaire). 

      #techno #échec

      Source : https://www.olivierdauvers.fr/2024/04/04/amazon-pourquoi-la-tech-autonome-just-walk-out-passe-a-la-trappe