• Importante panne technologique chez McDonald’s AP

    Des pannes de système chez McDonald’s étaient signalées dans le monde entier vendredi, forçant à fermer certains restaurants pendant des heures et entraînant des plaintes de clients sur les réseaux sociaux, dans ce que la chaîne de restauration rapide a appelé une « panne technologique » qui est en cours de réparation.

    McDonald’s Corp, dont le siège est à Chicago, a assuré que les problèmes n’étaient pas liés à une attaque de cybersécurité, sans donner plus de détails sur leur cause.

    “Nous sommes au courant d’une panne technologique qui a affecté nos restaurants ; le problème est en train d’être résolu”, a déclaré le géant du hamburger dans un communiqué. “Nous remercions nos clients pour leur patience et nous nous excusons pour les désagréments que cela a pu causer.”

    Un peu plus tôt, McDonald’s au Japon avait indiqué sur X, anciennement Twitter, que “les opérations sont temporairement interrompues dans un grand nombre de nos magasins à travers le pays”, évoquant une “défaillance du système”.

    Le site Downdetector a également signalé un pic de problèmes avec l’application McDonald’s au cours des dernières heures.

    Panne généralisée dans le monde

    Certains restaurants McDonald’s fonctionnaient à nouveau normalement après la panne, les clients ayant commandé et obtenu leur repas à Bangkok, Milan et Londres.

    Dans un restaurant de Bangkok, la porte était recouverte d’un panneau de contreplaqué portant la mention “les techniciens mettent à jour le système” et s’excusant pour la gêne occasionnée, alors même que les clients pouvaient à nouveau commander et payer numériquement.

    Un porte-parole de McDonald’s au Danemark a annoncé que la “défaillance technologique” avait été résolue et que les restaurants étaient ouverts.

    Un employé d’un restaurant de Milan a indiqué que le système était resté hors ligne pendant quelques heures et qu’un technicien les avait aidés à le remettre en marche.

    Des médias ont rapporté que des clients d’Australie et du Royaume-Uni s’étaient plaints de problèmes de commande, y compris un client australien qui a posté une photo sur X indiquant qu’un kiosque n’était pas disponible.

    “Tous les restaurants McDonald’s sont connectés à un réseau mondial et c’est ce qui a posé problème”, a expliqué Patrik Hjelte, propriétaire de plusieurs restaurants McDonald’s dans le centre de la Suède, près de la frontière norvégienne, au journal local Nya Wermlands Tidning.

    #bug #algorithme #surveillance #technologisme (inutile) #macdo #mcdonald's #malbouffe #junk_food #multinationales

    Source : https://ici.radio-canada.ca/nouvelle/2057443/restauration-mcdonald-panne-bug-informatique-probleme-monde

  • Rénover #Cleveland : démolition, #racisme et #agriculture_urbaine dans l’Amérique abandonnée
    https://metropolitiques.eu/Renover-Cleveland-demolition-racisme-et-agriculture-urbaine-dans-l-A

    Un autre #déclin urbain est-il possible ? Dans leur dernier ouvrage, Max Rousseau et Vincent Béal éclairent les ambiguïtés d’une politique qui organise la décroissance et la #ségrégation raciale de Cleveland, entre management par les algorithmes et verdissement de la ville. Nous sommes dans la #Rust_Belt, dans l’envers méconnu de la première puissance mondiale, l’Amérique qui connait la désurbanisation, marquée par la crise des subprimes, le racisme et la ségrégation. Nous sommes plus précisément à #Commentaires

    / déclin, #désinstrualisation, ségrégation, racisme, agriculture urbaine, #États-Unis, Cleveland, Rust Belt, #algorithme, #démolition, renouvellement (...)

    #renouvellement_urbain
    https://metropolitiques.eu/IMG/pdf/met_calenge-gerardot.pdf

  • Border security with drones and databases

    The EU’s borders are increasingly militarised, with hundreds of millions of euros paid to state agencies and military, security and IT companies for surveillance, patrols and apprehension and detention. This process has massive human cost, and politicians are planning to intensify it.

    Europe is ringed by steel fences topped by barbed wire; patrolled by border agents equipped with thermal vision systems, heartbeat detectors, guns and batons; and watched from the skies by drones, helicopters and planes. Anyone who enters is supposed to have their fingerprints and photograph taken for inclusion in an enormous biometric database. Constant additions to this technological arsenal are under development, backed by generous amounts of public funding. Three decades after the fall of the Berlin Wall, there are more walls than ever at Europe’s borders,[1] and those borders stretch ever further in and out of its territory. This situation is the result of long-term political and corporate efforts to toughen up border surveillance and controls.

    The implications for those travelling to the EU depend on whether they belong to the majority entering in a “regular” manner, with the necessary paperwork and permissions, or are unable to obtain that paperwork, and cross borders irregularly. Those with permission must hand over increasing amounts of personal data. The increasing automation of borders is reliant on the collection of sensitive personal data and the use of algorithms, machine learning and other forms of so-called artificial intelligence to determine whether or not an individual poses a threat.

    Those without permission to enter the EU – a category that includes almost any refugee, with the notable exception of those who hold a Ukrainian passport – are faced with technology, personnel and policies designed to make journeys increasingly difficult, and thus increasingly dangerous. The reliance on smugglers is a result of the insistence on keeping people in need out at any cost – and the cost is substantial. Thousands of people die at Europe’s borders every year, families are separated, and people suffer serious physical and psychological harm as a result of those journeys and subsequent administrative detention and social marginalisation. Yet parties of all political stripes remain committed to the same harmful and dangerous policies – many of which are being worsened through the new Pact on Migration and Asylum.[2]

    The EU’s border agency, Frontex, based in Warsaw, was first set up in 2004 with the aim of providing technical coordination between EU member states’ border guards. Its remit has been gradually expanded. Following the “migration crisis” of 2015 and 2016, extensive new powers were granted to the agency. As the Max Planck Institute has noted, the 2016 law shifted the agency from a playing “support role” to acting as “a player in its own right that fulfils a regulatory, supervisory, and operational role.”[3] New tasks granted to the agency included coordinating deportations of rejected refugees and migrants, data analysis and exchange, border surveillance, and technology research and development. A further legal upgrade in 2019 introduced even more extensive powers, in particular in relation to deportations, and cooperation with and operations in third countries.

    The uniforms, guns and batons wielded by Frontex’s border guards are self-evidently militaristic in nature, as are other aspects of its work: surveillance drones have been acquired from Israeli military companies, and the agency deploys “mobile radars and thermal cameras mounted on vehicles, as well as heartbeat detectors and CO2 monitors used to detect signs of people concealed inside vehicles.”[4] One investigation described the companies that have held lobbying meetings or attended events with Frontex as “a Who’s Who of the weapons industry,” with guests including Airbus, BAE Systems, Leonardo and Thales.[5] The information acquired from the agency’s surveillance and field operations is combined with data provided by EU and third country agencies, and fed into the European Border Surveillance System, EUROSUR. This offers a God’s-eye overview of the situation at Europe’s borders and beyond – the system also claims to provide “pre-frontier situational awareness.”

    The EU and its member states also fund research and development on these technologies. From 2014 to 2022, 49 research projects were provided with a total of almost €275 million to investigate new border technologies, including swarms of autonomous drones for border surveillance, and systems that aim to use artificial intelligence to integrate and analyse data from drones, satellites, cameras, sensors and elsewhere for “analysis of potential threats” and “detection of illegal activities.”[6] Amongst the top recipients of funding have been large research institutes – for example, Germany’s Fraunhofer Institute – but companies such as Leonardo, Smiths Detection, Engineering – Ingegneria Informatica and Veridos have also been significant beneficiaries.[7]

    This is only a tiny fraction of the funds available for strengthening the EU’s border regime. A 2022 study found that between 2015 and 2020, €7.7 billion had been spent on the EU’s borders and “the biggest parts of this budget come from European funding” – that is, the EU’s own budget. The total value of the budgets that provide funds for asylum, migration and border control between 2021-27 comes to over €113 billion[8]. Proposals for the next round of budgets from 2028 until 2035 are likely to be even larger.

    Cooperation between the EU, its member states and third countries on migration control comes in a variety of forms: diplomacy, short and long-term projects, formal agreements and operational deployments. Whatever form it takes, it is frequently extremely harmful. For example, to try to reduce the number of people arriving across the Mediterranean, member states have withdrawn national sea rescue assets (as deployed, for example, in Italy’s Mare Nostrum operation) whilst increasing aerial surveillance, such as that provided by the Israel-produced drones operated by Frontex. This makes it possible to observe refugees attempting to cross the Mediterranean, whilst outsourcing their interception to authorities from countries such as Libya, Tunisia and Egypt.

    This is part of an ongoing plan “to strengthen coordination of search and rescue capacities and border surveillance at sea and land borders” of those countries. [9] Cooperation with Tunisia includes refitting search and rescue vessels and providing vehicles and equipment to the Tunisian coastguard and navy, along with substantial amounts of funding. The agreement with Egypt appears to be structured along similar lines, and five vessels have been provided to the so-called Libyan Coast Guard in 2023.[10]

    Frontex also plays a key role in the EU’s externalised border controls. The 2016 reform allowed Frontex deployments at countries bordering the EU, and the 2019 reform allowed deployments anywhere in the world, subject to agreement with the state in question. There are now EU border guards stationed in Albania, Montenegro, Serbia, Bosnia and Herzegovina, and North Macedonia.[11] The agency is seeking agreements with Niger, Senegal and Morocco, and has recently received visits from Tunisian and Egyptian officials with a view to stepping up cooperation.[12]

    In a recent report for the organisation EuroMed Rights, Antonella Napolitano highlighted “a new element” in the EU’s externalisation strategy: “the use of EU funds – including development aid – to outsource surveillance technologies that are used to entrench political control both on people on the move and local population.” Five means of doing so have been identified: provision of equipment; training; financing operations and procurement; facilitating exports by industry; and promoting legislation that enables surveillance.[13]

    The report highlights Frontex’s extended role which, even without agreements allowing deployments on foreign territory, has seen the agency support the creation of “risk analysis cells” in a number of African states, used to gather and analyse data on migration movements. The EU has also funded intelligence training in Algeria, digital evidence capacity building in Egypt, border control initiatives in Libya, and the provision of surveillance technology to Morocco. The European Ombudsman has found that insufficient attention has been given to the potential human rights impacts of this kind of cooperation.[14]

    While the EU and its member states may provide the funds for the acquisition of new technologies, or the construction of new border control systems, information on the companies that receive the contracts is not necessarily publicly available. Funds awarded to third countries will be spent in accordance with those countries’ procurement rules, which may not be as transparent as those in the EU. Indeed, the acquisition of information on the externalisation in third countries is far from simple, as a Statewatch investigation published in March 2023 found.[15]

    While EU and member state institutions are clearly committed to continuing with plans to strengthen border controls, there is a plethora of organisations, initiatives, campaigns and projects in Europe, Africa and elsewhere that are calling for a different approach. One major opportunity to call for change in the years to come will revolve around proposals for the EU’s new budgets in the 2028-35 period. The European Commission is likely to propose pouring billions more euros into borders – but there are many alternative uses of that money that would be more positive and productive. The challenge will be in creating enough political pressure to make that happen.

    This article was originally published by Welt Sichten, and is based upon the Statewatch/EuroMed Rights report Europe’s techno-borders.

    Notes

    [1] https://www.tni.org/en/publication/building-walls

    [2] https://www.statewatch.org/news/2023/december/tracking-the-pact-human-rights-disaster-in-the-works-as-parliament-makes

    [3] https://www.mpg.de/14588889/frontex

    [4] https://www.theguardian.com/global-development/2021/dec/06/fortress-europe-the-millions-spent-on-military-grade-tech-to-deter-refu

    [5] https://frontexfiles.eu/en.html

    [6] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [7] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [8] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [9] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-

    [10] https://www.statewatch.org/media/4103/eu-com-von-der-leyen-ec-letter-annex-10-23.pdf

    [11] https://www.statewatch.org/analyses/2021/briefing-external-action-frontex-operations-outside-the-eu

    [12] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-, https://www.statewatch.org/publications/events/secrecy-and-the-externalisation-of-eu-migration-control

    [13] https://privacyinternational.org/challenging-drivers-surveillance

    [14] https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf

    [15] https://www.statewatch.org/access-denied-secrecy-and-the-externalisation-of-eu-migration-control

    https://www.statewatch.org/analyses/2024/border-security-with-drones-and-databases
    #frontières #militarisation_des_frontières #technologie #données #bases_de_données #drones #complexe_militaro-industriel #migrations #réfugiés #contrôles_frontaliers #surveillance #sécurité_frontalière #biométrie #données_biométriques #intelligence_artificielle #algorithmes #smugglers #passeurs #Frontex #Airbus #BAE_Systems #Leonardo #Thales #EUROSUR #coût #business #prix #Smiths_Detection #Fraunhofer_Institute #Engineering_Ingegneria_Informatica #informatique #Tunisie #gardes-côtes_tunisiens #Albanie #Monténégro #Serbie #Bosnie-Herzégovine #Macédoine_du_Nord #Egypte #externalisation #développement #aide_au_développement #coopération_au_développement #Algérie #Libye #Maroc #Afrique_du_Nord

  • Médicaments non délivrés, devis et facturation en panne… Une cyberattaque perturbe sérieusement le système de santé aux États-Unis Ingrid Vergara

    La cyberattaque d’une filiale de la plus importante compagnie d’assurance-santé américaine tourne à la crise d’ampleur aux États-Unis. Victime d’un rançongiciel qui affecte une de ses divisions depuis le 21 février, le groupe UnitedHealthcare n’est plus en mesure d’assurer de nombreuses tâches nécessaires au bon fonctionnement du système de santé. Des médecins qui ne peuvent plus savoir si un patient bénéficie ou non d’une assurance-santé, des pharmacies incapables de transmettre les demandes de remboursement de patients, des factures d’hôpitaux non réglées, des retards dans les délivrances d’ordonnances de médicaments…

    Les réactions en chaîne s’étendent et s’aggravent au fur et à mesure que les jours passent. Car UnitedHealthcare est la plus grande plateforme d’échange de paiements entre médecins, pharmacies, prestataires de soins de santé et patients du système de santé américain. Sa filiale Change gère la facturation de quelque 67.000 pharmacies, . . . . .

    #Santé #internet #sécurité_informatique #cyberattaques #cybersécurité #malware #usa #UnitedHealthcare #algorithme #juste_à_temps #dématérialisation #intelligence_artificielle #artificial-intelligence #blockchain #IA

    Source et suite (payante) : https://www.lefigaro.fr/secteur/high-tech/medicaments-non-delivres-devis-et-facturation-en-panne-une-cyberattaque-per

  • Une brève histoire de l’évolution des recommandations algorithmiques

    –> Il y a d’abord la première génération de la recommandation, celle des recommandations sommaires qui associent un produit à un autre.
    Sur les réseaux sociaux, la logique consiste à s’abonner aux gens qui nous intéressent pour être notifié de ce qu’ils ont publiés. C’est ce que l’on peut appeler l’âge de la souscription et le modèle des recommandations simples (2000-2010).

    –> Dans le modèle en réseau qui lui succède, la propagation d’un message ne dépend plus seulement des personnes auxquelles vous êtes abonnées, mais est amplifiée ou rétrogradée par les effets de réseaux. Plus un message est relayé, plus il est amplifié. Ce sont les réactions des autres qui structurent la recommandation. Les contenus sont scorés selon l’intérêt des utilisateurs et la viralité. C’est l’âge du réseau et du modèle des propagations (2010-2016).

    –> Avec la montée en puissance du machine learning, les recommandations se complexifient et prennent en compte de + en + de critères. La recommandation se base sur la similarité : on vous recommande ce qui a plu à des gens qui vous sont similaires parce qu’ils ont les mêmes comportements que vous sur les réseaux. C’est l’âge algorithmique et le modèle de la similarité (2016-2021) qui rendra les grandes plateformes de la recommandation incontournables.

    –> Mais, la recherche d’un engagement optimal ou idéal s’effondre. Confrontées à leurs effets (l’assaut du capitole en est le symbole), les plateformes dégradent volontairement la performance de certaines recommandations, comme l’information ou les hyperliens. Elles assument être à la recherche de leur rentabilité, et se mettent à amplifier leur modèle commercial, notamment la publicité, jusqu’à s’y noyer. C’est ce que l’on peut appeler l’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial (depuis 2021…).

    Un âge du cynisme dans lequel, faute de régulation pertinente, nous risquons d’être coincés un moment ! J’en parle plus longuement par ici : https://hubertguillaud.wordpress.com/2024/02/20/une-breve-histoire-de-levolution-des-recommandations-algor
    #algorithmes #recommandation

    • La construction des prix à la SNCF, une socio-histoire de la tarification. De la #péréquation au yield management (1938-2012)

      Cet article analyse les conditions de production et de légitimation des systèmes de prix des billets de train en France, depuis la création de la SNCF en 1938. Initialement fondé sur le principe d’un tarif kilométrique uniforme, le système historique de péréquation est lentement abandonné au cours des décennies d’après-guerre, au profit d’une tarification indexée sur les coûts marginaux. Au tournant des années 1980-1990, ce paradigme est lui-même remplacé par un dispositif de tarification en temps réel – le yield management – visant à capter le maximum du surplus des consommateurs. Les transformations des modèles tarifaires à la SNCF, qui s’accompagnent d’une redéfinition de la notion éminemment polymorphe de service public ferroviaire, résultent du travail de quelques acteurs de premier plan. Ces « faiseurs de prix », qui mobilisent les instruments de la discipline économique et usent de leur capacité d’influence, agissent dans des contextes (politiques, sociaux, techniques et concurrentiels) particuliers, qui rendent possibles, nécessaires et légitimes les innovations qu’ils proposent.

      https://www.cairn.info/revue-francaise-de-sociologie-2014-1-page-5.htm

      #Jean_Finez

    • Noël : est-ce vraiment moins cher de réserver son train SNCF 3 mois à l’avance ?

      C’est un fait : les tarifs des trajets en train pour la période de Noël ont explosé entre octobre et fin décembre 2023. Nous avons suivi, semaine après semaine, leur évolution. Voici les résultats, parfois surprenants, de notre enquête.

      « Plus on réserve un train à l’avance, plus les prix sont bas. » La phrase de la SNCF semble logique. Mais est-elle vérifiée ? À l’approche des fêtes de Noël, nous avons décidé de nous lancer dans une petite enquête. Numerama a relevé les tarifs d’une vingtaine de trajets en train à travers la France, sur les douze dernières semaines, pour en mesurer l’évolution.

      Nous avions une question principale : est-ce vrai qu’il vaut mieux réserver son billet de train trois mois à l’avance, pour le payer moins cher ? Suivie d’une autre : comment les tarifs évoluent-ils à travers le temps, et à quel rythme les trains deviennent-ils complets ?

      Nous avons choisi arbitrairement dix allers-retours à travers la France. La date est toujours la même, pour simuler un voyage pour les fêtes de fin d’année : un aller le 22 décembre, un retour le 27 décembre. Nous avons choisi un train par jour et suivi l’évolution du tarif des billets chaque semaine, à compter du mercredi 4 octobre, soit la date de l’ouverture des ventes (qui avaient d’ailleurs mis en panne SNCF Connect).
      Prendre ses billets tôt pour Noël permet d’éviter le pire

      Après douze semaines de relevés et une agrégation des données, le premier constat est clair : les tarifs ont énormément augmenté sur cette période. Il est évident que, même s’il y a des exceptions, il reste très intéressant de prendre son billet le plus tôt possible. C’est d’ailleurs ce que la SNCF nous a confirmé, par mail : « Plus on réserve à l’avance, plus les prix sont bas. Le mieux est donc de réserver dès l’ouverture des ventes, ou alors dans les semaines qui suivent. »

      Sur ce graphique, nous avons matérialisé la hausse de tous les trajets confondus. À part une ou deux exceptions (en TER), tous les billets ont augmenté, parfois beaucoup. Certains trajets se sont retrouvés complets très vite — nous les avons matérialisés avec un petit rond barré sur le graphique ci-dessous.

      Les prix peuvent parfois varier du simple au double. Le trajet Nantes-Bordeaux, par exemple, est passé de 58 euros à 136 euros (dernières places en première classe), soit une augmentation de 164 %. Un Strasbourg-Paris a terminé à 153 euros, au lieu de 93 euros il y a trois mois.

      Des hausses de prix jusqu’à 150 %

      Au global, les TGV sont les trains qui subissent les plus grosses hausses à travers le temps, sauf quelques exceptions (Marseille-Nice n’a pas changé d’un iota au fil des 12 semaines, par exemple).

      Sur cette carte réalisée par l’équipe design de Numerama, Adèle Foehrenbacher et Claire Braikeh, on observe quels sont les trajets qui ont subi la plus forte hausse (en rouge foncé), par rapport à ceux qui n’ont pas beaucoup bougé sur 3 mois (en rose).

      Pour les retours de Noël sur la journée du 27 décembre, les trajets les plus onéreux sont les mêmes (Paris-Toulouse, Paris-Strasbourg, Nantes-Bordeaux).

      Certains billets sont moins chers quelques jours avant le départ

      Lorsque nous avons commencé cette enquête, nous nous sommes demandé s’il serait possible qu’un billet devienne moins cher à l’approche de la date du voyage, ce qui est plutôt contre-intuitif. Une occurrence est venue, sur la dernière semaine, être l’exception qui confirme la règle : le trajet Paris-La Rochelle (en jaune ci-dessous) est devenu, au dernier moment, moins cher à l’approche du voyage, par rapport au tarif d’il y a trois mois.

      Autre cas curieux : nous avons constaté au fil des semaines une variation à la baisse sur le trajet Nancy-Grenoble, avec une correspondance. « Ce phénomène est extrêmement rare », nous assure la SNCF. « Nancy-Grenoble n’est pas un train direct. Il se peut que l’un des deux trains se remplissent moins vite et que des petits prix aient été rajoutés à un moment donné », explique-t-on. Le voyage a fini par augmenter de nouveau, pour devenir complet deux semaines avant le départ.

      Le trajet n’est pourtant pas le seul exemple. Prenons le trajet en TER et Train NOMAD Caen-Le Havre. Le 4 octobre, le voyage revenait à 38,4 euros. Surprise ! Dès la semaine suivante, il est tombé à 18 euros, pour rester fixe pendant plusieurs mois. Jusqu’au 13 décembre, où le prix a re-grimpé jusqu’à 48 euros — l’horaire du train de départ ayant été modifié de quelques minutes. Ici, ce n’est pas la SNCF, mais les conseils régionaux qui valident les prix. Par mail, l’établissement régional des lignes normandes nous assure que « la baisse des prix 15 jours après l’ouverture des ventes est impossible ». C’est pourtant le constat que nous avons fait, dès une semaine après l’ouverture.

      Pourquoi de telles hausses ?

      Cela fait plusieurs années que la SNCF a commencé à modifier la manière dont elle décide des tarifs, selon le journaliste spécialisé Gilles Dansart. La compagnie aurait décidé de « faire payer beaucoup plus cher à mesure que l’on s’approche de la date de départ du train », alors qu’auparavant, elle se calquait sur la longueur des kilomètres parcourus pour étalonner ses prix, a-t-il analysé sur France Culture le 21 décembre.

      Contactée, la SNCF nous explique : « Les prix sont les mêmes que pour n’importe quelles dates. Il n’y a pas de prix spécifiques pour Noël. Ce qui fait évoluer les prix, c’est le taux de remplissage et la demande. À Noël les trains se remplissent plus vite et les paliers maximum peuvent être atteints plus rapidement. »

      Ces paliers sont un véritable enjeu, lorsque l’on voit que certains trajets se retrouvent complets très rapidement — le Paris-Toulouse du 22 décembre s’est en effet retrouvé complet, selon nos constats, en à peine une semaine, début octobre.

      En 10 ans, la SNCF a perdu 105 TGV, soit 30 000 sièges, a calculé récemment France 2 dans un reportage. « On n’arrivait plus à remplir les TGV, il y avait des taux d’occupation à moins de 60 % », a expliqué à leur micro Christophe Fanichet, directeur général de SNCF Voyageurs.

      Cette politique de financement de la SNCF ne va pas aller en s’arrangeant pour les voyageurs et voyageuses : l’entreprise a déjà entériné une augmentation du prix des TGV pour 2024, rappelle le Parisien.

      https://www.numerama.com/vroom/1593454-noel-est-ce-vraiment-moins-cher-de-reserver-son-train-3-mois-a-lav

    • Mais on sait que l’investissement sur l’infra était sous dimensionnée autour de 2005, donc voir monter les coûts de péages de l’infra n’a rien d’anormal.
      Nos voisins sont-ils sous le prix réel ? Alors il vont subir un effet boomerang plus tard (effet dette).

  • Why Eating Disorder Content Keeps Spreading on Platforms Like TikTok - The New York Times
    https://www.nytimes.com/2024/02/06/well/move/tiktok-legging-legs-eating-disorders.html?campaign_id=2&emc=edit_th_2024020

    Talya Minsberg

    By Talya Minsberg
    Feb. 6, 2024

    In late January, a volunteer at the help line for the National Alliance for Eating Disorders fielded a call from someone who had seen an alarming trend on TikTok. The hashtag #legginglegs had started taking off as users posted about the slim bodies seemingly deemed the most desirable for leggings.

    The organization, which works directly with social media companies including TikTok, Meta and Pinterest, quickly flagged the trend to TikTok. Less than a day later, the platform banned the hashtag and began directing users who searched for it toward the organization’s hotline and other resources.

    Trends like “legging legs” are part of a long history of harmful body image content that has proliferated online since the early days of the internet. “The minute they ban one hashtag, another one will pop up,” said Amanda Raffoul, an instructor at Harvard Medical School and Boston Children’s Hospital who studies eating disorders. But she and other eating disorder experts said that the evolution of social media platforms has presented an even more vexing issue: how to approach algorithms that build on a user’s interests to curate a feed that can quickly turn dangerous for people who are particularly vulnerable.

    For example, if a teenager searched for healthy snack ideas or interacted with certain cooking posts, a platform may then serve videos about low-calorie foods. That may signal an interest in weight loss — and soon, that teenager might see advice for restricting snacks or tips for crash diets. A user’s feed could then be filled with posts supporting unhealthy behaviors, or celebrating one body type over others.

    “I don’t think we are in a space where we can ignore the harms that can be happening in the algorithm,” said Johanna Kandel, the chief executive officer of the National Alliance for Eating Disorders. “The fact is that individuals can start a journey of health and wellness and within a few minutes can be served content that is extremely unhealthy for them.”

    #TikTok #Apparence_corporelle #Santé_publique #Algorithme

  • Le coût du travail humain reste généralement inférieur à celui de l’IA, d’après le MIT FashionNetwork.com ( Bloomberg )

    Pour le moment, employer des humains reste plus économique que de recourir à l’intelligence artificielle pour la majorité des emplois. C’est en tout cas ce qu’affirme une étude menée par le Massachusetts Institute of Technology, alors que bon nombre de secteurs se sentent menacés par les progrès faits par l’IA.

    Il s’agit de l’une des premières études approfondies réalisées à ce sujet. Les chercheurs ont établi des modèles économiques permettant de calculer l’attractivité de l’automatisation de diverses tâches aux États-Unis, en se concentrant sur des postes “digitalisables“, comme l’enseignement ou l’intermédiation immobilière.

    Source : https://fr.fashionnetwork.com/news/premiumContent,1597548.html

    #ia #intelligence_artificielle #algorithme #surveillance #ai #google #technologie #facebook #technologisme #travail #biométrie #bigdata #coût #MIT

  • Et si les #réseaux sociaux devenaient une chance pour nos #démocraties ? @AnneAlombert @jeancattan
    https://theconversation.com/et-si-les-reseaux-sociaux-devenaient-une-chance-pour-nos-democratie

    **Reprendre la main sur les algorithmes**

    C’est pour orienter les réseaux sociaux vers des architectures permettant de créer des espaces de débat, d’apprentissage, d’échanges et de coopération que nous devons agir en premier lieu, avant même de nous intéresser à la modération des contenus qui y circulent. Le règlement européen sur les services numériques le permet en théorie, mais il faudra que la Commission européenne se mobilise en ce sens. Ce qui n’est pas le cas aujourd’hui. Jusqu’à présent, le débat a bien plus porté sur le nombre de modérateurs de tel ou tel réseau ou le nombre de contenus retirés que sur la structure des réseaux sociaux en elle-même. Ce qui risque surtout de nous épuiser pour un résultat très relatif.

    Pour nous assurer que les réseaux servent une société démocratique où le débat, la construction collective et l’écoute sont privilégiés, nous devrions nous préoccuper de la manière dont les infrastructures numériques sont conçues, développées et financées. Comme les réseaux sociaux dominants sont structurellement fondés sur l’économie de l’attention, l’enfermement de leurs utilisateurs et l’amplification des contenus polémiques et choquants, nous devrions aussi décider de ne plus laisser aux mains du seul réseau social, c’est-à-dire d’une entreprise privée, le monopole de déterminer le flux algorithmique, soit le choix des contenus apparaissant sur nos fils d’actualités.

    Une telle proposition est une exigence minimale pour tendre vers une plus grande réappropriation des réseaux sociaux par les utilisateurs. Elle a d’ailleurs déjà été faite sous diverses formes, que ce soit par des spécialistes du numérique, la Comission nationale consultative des droits de l’homme (CNCDH), des #journalistes ou des #chercheurs. Ainsi, il s’agit non plus seulement de forcer la plate-forme à accentuer tel ou tel paramètre de leur #algorithme mais de contester le fait que la recommandation soit le seul fait de la plate-forme.

    Pour justifier ce principe, nous pouvons nous demander si une fois une taille critique et une certaine concentration du marché atteintes, il est bien légitime de laisser uniquement à des entreprises privées le soin de décider ce qui doit être vu ou ce qui doit être invisibilisé dans l’espace médiatique numérique. Quand bien même certains d’entre nous souhaiteraient s’abandonner aux algorithmes de #TikTok ou de #Twitter, pourquoi tout un chacun devrait-il s’y plier ? Est-ce à un acteur unique de déterminer les critères en fonction desquels les contenus apparaissent ou disparaissent de nos écrans ?

  • Le #règlement européen sur l’IA n’interdira pas la #surveillance_biométrique de masse

    Le 8 décembre 2023, les législateurs de l’#Union_européenne se sont félicités d’être parvenus à un accord sur la proposition de #règlement tant attendue relative l’intelligence artificielle (« #règlement_IA »). Les principaux parlementaires avaient alors assuré à leurs collègues qu’ils avaient réussi à inscrire de solides protections aux #droits_humains dans le texte, notamment en excluant la #surveillance_biométrique_de_masse (#SBM).

    Pourtant, malgré les annonces des décideurs européens faites alors, le règlement IA n’interdira pas la grande majorité des pratiques dangereuses liées à la surveillance biométrique de masse. Au contraire, elle définit, pour la première fois dans l’#UE, des conditions d’utilisation licites de ces systèmes. Les eurodéputés et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.

    L’UE entre dans l’histoire – pour de mauvaises raisons

    La coalition #Reclaim_Your_Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquées de par leur conception, et qu’elles n’ont pas leur place dans une société démocratique. La police et les autorités publiques disposent déjà d’un grand nombre de données sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos #visages et nos #corps sur simple pression d’un bouton.

    Pourtant, malgré une position de négociation forte de la part du Parlement européen qui demandait l’interdiction de la plupart des pratiques de SBM, très peu de choses avaient survécu aux négociations du règlement relatif à l’IA. Sous la pression des représentants des #forces_de_l’ordre, le Parlement a été contraint d’accepter des limitations particulièrement faibles autour des pratiques intrusives en matière de SBM.

    L’une des rares garanties en la matière ayant apparemment survécu aux négociations – une restriction sur l’utilisation de la #reconnaissance_faciale a posteriori [par opposition à l’utilisation en temps réel] – a depuis été vidée de sa substance lors de discussions ultérieures dites « techniques » qui se sont tenues ces dernière semaines.

    Malgré les promesses des représentants espagnols en charge des négociations, qui juraient que rien de substantiel ne changerait après le 8 décembre, cette édulcoration des protections contre la reconnaissance faciale a posteriori est une nouvelle déception dans notre lutte contre la #société_de_surveillance.

    Quel est le contenu de l’accord ?

    D’après ce que nous avons pu voir du texte final, le règlement IA est une occasion manquée de protéger les #libertés_publiques. Nos droits de participer à une #manifestation, d’accéder à des soins de #santé_reproductive ou même de nous asseoir sur un #banc pourraient ainsi être menacés par une surveillance biométrique omniprésente de l’#espace_public. Les restrictions à l’utilisation de la reconnaissance faciale en temps réel et a posteriori prévues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privées ni aux autorités administratives.

    Nous sommes également déçus de voir qu’en matière de « #reconnaissance_des_émotions » et les pratiques de #catégorisation_biométrique, seuls des cas d’utilisation très limités sont interdits dans le texte final, avec d’énormes lacunes.

    Cela signifie que le règlement IA autorisera de nombreuses formes de reconnaissance des émotions – telles que l’utilisation par la police de systèmes d’IA pour évaluer qui dit ou ne dit pas la #vérité – bien que ces systèmes ne reposent sur aucune base scientifique crédible. Si elle est adoptée sous cette forme, le règlement IA légitimera une pratique qui, tout au long de l’histoire, a partie liée à l’#eugénisme.

    Le texte final prévoit également d’autoriser la police à classer les personnes filmées par les caméras de #vidéosurveillance en fonction de leur #couleur_de_peau. Il est difficile de comprendre comment cela peut être autorisé étant donné que la législation européenne interdit normalement toute #discrimination. Il semble cependant que, lorsqu’elle est pratiquée par une machine, les législateurs considèrent de telles #discriminations comme acceptables.

    Une seule chose positive était ressorti des travaux techniques menés à la suite des négociations finales du mois de décembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait à la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face » ait réclamé des règles encore plus strictes en la matière, cela constituait un progrès significatif par rapport à la situation actuelle, caractérisée par un recours massif à ces pratiques par les États membres de l’UE.

    Il s’agissait d’une victoire pour le Parlement européen, dans un contexte où tant de largesses sont concédées à la surveillance biométrique. Or, les négociations menées ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement à accepter de supprimer cette limitation aux #crimes_transfrontaliers graves tout en affaiblissant les garanties qui subsistent. Désormais, un vague lien avec la « #menace » d’un crime pourrait suffire à justifier l’utilisation de la #reconnaissance_faciale_rétrospective dans les espaces publics.

    Il semblerait que ce soit la #France qui ait mené l’offensive visant à faire passer au rouleau compresseur notre droit à être protégés contre les abus de nos données biométriques. À l’approche des #Jeux_olympiques et paralympiques qui se tiendront à Paris cet été, la France s’est battue pour préserver ou étendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systèmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux négociateurs du Parlement n’ont pas réussi à la contrer dans cette démarche.

    En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous #surveillance_algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.

    https://www.laquadrature.net/2024/01/19/le-reglement-europeen-sur-lia-ninterdira-pas-la-surveillance-biometriq
    #surveillance_de_masse #surveillance #intelligence_artificielle #AI #IA #algorithme

    voir aussi :
    https://seenthis.net/messages/1037288

  • Notation des allocataires : face aux faits, la CAF s’enferme dans le déni et la mauvaise foi
    https://www.laquadrature.net/2024/01/11/notation-des-allocataires-face-aux-faits-la-caf-senferme-dans-le-deni-

    Retrouvez l’ensemble de nos travaux sur l’utilisation par les administrations sociales d’algorithmes de notations sur notre page dédiée et notre Gitlab. « Nous n’avons pas à rougir ou à nous excuser ». Voilà comment le directeur de la…

    #Surveillance

  • Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète

    Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.

    La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.

    A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.

    Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.

    Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.

    La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.

    #Reconnaissance_faciale

    Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.

    Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.

    Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.

    A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.

    « Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.

    « Des progrès dans de nombreux domaines »

    L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.

    La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.

    Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).

    A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».

    Des « systèmes susceptibles de modifier votre #comportement »

    Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.

    La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »

    Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »

    Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.

    Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.

    https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
    #vidéosurveillance #AI #IA #caméras_de_vidéosurveillance

  • « L’algorithme de la #CAF conduit à un surcontrôle des populations les plus précaires » | Alternatives Economiques
    https://www.alternatives-economiques.fr/lalgorithme-de-caf-conduit-a-un-surcontrole-populations-plus-pr/00109069

    Fin novembre et début décembre, l’association La Quadrature du Net et le journal Le Monde ont chacun fait paraître une enquête sur l’utilisation du data mining (l’exploration de données) par les caisses d’allocations familiales (CAF), pour détecter les indus et les fraudes. Les deux enquêtes montrent que ce système, qui permet de scanner des milliers de données de 32 millions de personnes (les allocataires et leurs proches) et sur la base duquel sont déclenchés les contrôles, cible les plus pauvres, notamment les mères isolées.

    L’algorithme utilisé attribue un score de risque aux allocataires allant de 0 à 1. Plus on est proche de 1, plus on est exposé à la probabilité d’un contrôle. Parmi les critères pénalisants, le fait d’avoir changé de loyer plus de quatre fois en un an et demi, d’avoir un enfant à charge de 19 ans ou plus, ou encore de déclarer chaque trimestre ses ressources pour percevoir l’allocation adulte handicapé (AAH).

    • on sait _qui_ à pondu ledit algorithme, sur ordre de qui, et selon les specification de qui ? ou c’est secret défense ? (voire, secret défonce)

    • #Notation des allocataires : fébrile, la CAF s’enferme dans l’#opacité

      Alors que la contestation monte (voir ici, ici, ici ou ici) concernant son algorithme de notation des allocataires à des fins de #contrôle_social, la CAF choisit de se réfugier dans l’opacité tout en adaptant, maladroitement, sa politique de communication. Suite à son refus de communiquer le code source de son algorithme, nous avons saisi la Commission d’Accès aux Documents Administratifs (CADA).

      Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de #profilage attribuant à chaque allocataire une note ou « #score_de_risque ». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.

      Cet algorithme symbolise l’étendue des #dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de #tri et d’#évaluation continue de chacun de nos faits et gestes.

      Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.

      Pour en avoir le coeur net, nous avons donc demandé à la CAF de nous communiquer le #code source de son algorithme1. Et sa réponse est affligeante2.

      Sortir de la précarité pour “tromper l’algorithme”

      Si la CAF a bien accepté de nous communiquer le code de l’algorithme… ce n’est qu’après avoir masqué la quasi-totalité des noms des variables comme on peut le voir sur l’illustration de cet article, qui est une photo de ce que la CAF nous a répondu.

      En d’autres termes, le fichier fourni nous permet simplement d’apprendre combien de #critères sont utilisés pour le calcul de la note des allocataires. Rien de plus. Ce qui n’empêche pas la CAF de préciser dans son courrier qu’elle espère que sa communication nous « permettra de comprendre le modèle »3.

      Les responsables de la CAF ont toutefois tenu à justifier le caviardage du fichier. Ces dernier·es précisent que le #code_source a été « expurgé des mentions qui, si elles étaient communiquées, pourraient donner des indications aux fraudeurs pour tromper l’algorithme »4. Et pour être tout à fait honnête, nous n’étions pas préparé·es à cette réponse.

      La CAF croit-elle vraiment que les critères liés à la #précarité (situation professionnelle instable, faibles revenus, logement situé dans un quartier défavorisé…) pourraient être modifiés par la seule volonté de l’allocataire ? Qu’afin d’augmenter leur note et de « flouer » l’algorithme, des millions d’allocataires pourraient décider, d’un coup, de sortir de la pauvreté ?

      Ce raisonnement frise l’#absurdité. A vrai dire, il est méprisant et insultant pour celles et ceux vivant des situations difficiles.

      Pire, le secrétaire général de la CAF entretient publiquement la confusion entre #fraudes et #erreurs de déclarations involontaires, prenant ainsi le risque de stigmatiser les personnes ciblées par l’algorithme, et ce, dans le seul but de justifier l’opacité de son institution.

      En réponse à un journaliste de Radio France5 l’interrogeant sur la réponse de la CAF à notre demande, il l’expliquait en disant qu’« il y a un certain nombre de données dont on pense que, si elles sont connues, peuvent nourrir des stratégies de contournement de personnes dont le but c’est de frauder le système ». Et d’ajouter : « Il faut que l’on ait un coup d’avance ».

      Faut-il donc lui rappeler que l’algorithme de la CAF n’est pas entraîné à détecter les fraudes mais les erreurs de déclaration, par définition involontaires6. Et que sa réponse pourrait donc être reformulée ainsi : « Nous ne communiquerons pas le code de l’algorithme de peur que les allocataires arrêtent de faire des erreurs ».

      De notre point de vue, cette réponse révèle l’ampleur de l’embarras des responsables de la CAF vis-à-vis de leur algorithme. Ils et elles ont peut-être en tête le scandale entourant un algorithme, en tout point similaire, de notation des allocataires ayant été utilisé aux Pays-Bas et dont les suites ont amené à la démission du gouvernement7 ?

      #Déni_de_justice

      Pire, cette opacité est aussi appliquée, à l’échelle individuelle, aux allocataires ayant été séléctionné·es par l’algorithme pour être controlé·es et qui chercheraient à obtenir des informations sur la raison de ce contrôle. Et ce, alors même que la loi prévoit que tout individu ayant fait l’objet d’une décision prise sur le fondement d’un traitement algorithmique (ici le fait d’être contrôlé) a le droit de connaître les données utilisées ainsi que les #paramètres de cet algorithme8. Ce qui signifie que les personnes ayant fait l’objet d’un contrôle9 sont censées avoir un droit d’accès plus étendu qu’une association comme la Quadrature.

      Nous avons pu consulter la réponse à la demande d’informations réalisée par une personne ayant été contrôlée sur la base de sa note. Le courrier, signé par le délégué à la protection des données de la CNAF, se contente de renvoyer l’allocataire à la page “Internet et Libertés” de la CAF.

      Sur cette page sont présents deux documents relatifs à l’algorithme de notation : un communiqué de la CAF et l’avis de la CNIL associé10. Aucun ne fournit d’informations sur les paramètres utilisés par l’algorithme, ni sur leur impact sur le score de risque.

      Cette réponse est un déni de justice pour celles et ceux ayant fait l’objet d’un contrôle déclenché algorithmiquement, l’opacité entretenue par la CAF les empếchant de contester juridiquement le bien-fondé du contrôle dont ielles ont fait l’objet.
      La discrimination : un savoir-faire à protéger

      Nous avions aussi demandé la liste des variables utilisées pour l’entraînement du modèle, c’est à dire sa phase de création. Cette question est importante car elle permet de comprendre l’étendue des données utilisées par l’algorithme. Et donc le degré d’intrusion dans la vie privée des allocataires que la construction d’un tel modèle nécessite.

      En effet, en mettant régulièrement en avant dans sa communication que son algorithme n’utilise « que » quelques dizaines de variables11, la CAF fait mine d’ignorer qu’elles sont le fruit d’une sélection qui nécessite l’analyse d’un nombre bien plus grand de variables au préalable12.

      Et la justification apportée par les responsables de la CAF est, là aussi, déconcertante. Ces dernier·es avancent que la communication de ces variables n’est pas possible car elles constituent un « savoir-faire »13. La CAF souhaiterait-elle monétiser son algorithme et le revendre à d’autres administrations ? Penserait-elle pouvoir équiper les équipes de contrôleurs.ses des institutions sociales du monde entier de son algorithme assimilant les plus précaires à de potentiel·le·s fraudeurs ou fraudeuses ?

      A défaut de réponse, nous nous en remettons à ce que, techniquement, tout·e data-scientist ferait pour entraîner un modèle le plus « précis » possible. Il suffirait de partir de l’intégralité des variables à sa disposition et, par itérations successives, décider lesquelles garder pour le modèle final. Dans cette hypothèse, ce serait alors la quasi-totalité des variables détenues par la CAF sur chaque allocataire qui serait utilisée pour l’entraînement de son modèle.

      Ceci serait cohérent avec un document publié en 2013 dans lequel un statisticien de la CAF que « les statisticiens chargés de la modélisation disposaient d’environ un millier d’informations par allocataire contrôlé » et que « la base d’apprentissage contient toutes les données habituelles des fichiers statistiques »14.
      Vingt ans de développement… et aucun compte-rendu de réunions

      Quant à notre demande relative aux documents internes (notes, comptes-rendus, échanges…) concernant le développement de l’algorithme, la CAF nous a tout simplement répondu qu’en presque 20 ans de travail aucune réunion technique n’a fait l’objet de compte-rendu…15

      Pour être tout à fait honnête, c’est une première dans l’histoire de nos demandes CADA.
      Le retour de l’alibi technique

      A ceci s’ajoute, depuis le début de l’année, la mise en place de ce qui apparaît comme une véritable communication de crise par l’institution autour de son algorithme. En juin 2022, la CAF a notamment publié un communiqué intitulé « Contrôle et datamining » dans lequel elle tente de répondre aux critiques soulevées par son algorithme16.

      A sa lecture, on prend toute la mesure du rôle d’alibi technique à une politique de contrôle discriminatoire que joue l’algorithme, ce que nous dénoncions déjà ici.

      L’algorithme y est décrit comme étant un objet purement scientifique dont le caractère politique est nié. Il est ainsi expliqué que la note des allocataires est le fruit d’une « démarche scientifique d’étude statistique […] menée par des experts » se fondant sur des critères « scientifiquement pondérés » ayant été sélectionnés « sur seuls critères statistiques ». Le secrétaire général de la CAF ajoute17 de son côté que cet outil serait un « miroir des situations statistiques » servant à identifier des « environnements de risques ».

      Ce faisant, les responsables de la CAF cherchent à nier leur responsabilité (politique) dans la conduite, et la validation, d’une politique de contrôle discriminatoire. Nul part n’apparaît que que si les erreurs se concentrent sur les plus précaires, c’est tout simplement parce qu’au fil des ans se sont multipliées les règles et contraintes encadrant l’accès aux minima sociaux, et ce, dans le seul but de restreindre leur accessibilité18.

      On mesure enfin l’impact des logiques gestionnaires appliquées aux institutions sociales. Logiques réduisant des millions de vies et d’histoires, à de simples notions statistiques, déshumanisantes, froides et vides de sens.
      Communication mensongère

      La deuxième partie du document est consacrée à un « Vrai/Faux » portant sur l’algorithme où transpire la malhonnêteté intellectuelle.

      A l’affirmation « Les scores de risques les plus élevés concernent toujours les plus pauvres », la CAF répond Faux car « les scores de risques sont calculés pour tous les allocataires ». Ce qui n’a tout simplement aucun sens…

      A la question « Les contrôleurs sont payés aux résultats », la CAF répond que ce serait faux, bien qu’elle admette que l’Etat lui fixe bien un objectif à atteindre en termes de détection de fraude. Ici encore, l’institution joue avec les mots. S’il est vrai que les contrôleurs.ses n’ont pas de « prime sur leurs résultats », ils et elles touchent un intéressement, tout comme l’ensemble du personnel de la CAF, dont le montant dépend bien de l’atteinte de ces objectifs de contrôle19.

      A la question « Plus de 1000 données concernant les allocataires sont utilisées dans le modèle de datamining des CAF », la CAF répond que seules une quarantaine seraient utilisées. Elle détourne ainsi la question puisque – comme expliqué ci-dessus – elle omet de dire que ces quarante variables sont sélectionnées après une phase d’entraînement du modèle qui nécessite l’utilisation, et le traitement, de plus de mille variables par allocataire20.

      Enfin, aux questions « Les contrôleurs de la Caf ont accès à toutes les infos qu’ils souhaitent à l’insu des allocataires », et « Les allocations sont suspendues pendant le contrôle », la CAF répond que non car « aucune demande n’est faite à d’autres administrations, sans en avoir averti auparavant l’allocataire, aucune procédure vis-à-vis d’un tiers n’est engagée à l’insu de celui-ci. » Et ajoute que, lors d’un contrôle, « les allocations ne sont pas suspendues ».

      Sur ces deux derniers points, nous vous invitons à lire les témoignages collectés par le Défenseur des Droits, les collectifs « Stop Contrôles », « Changer de Cap » et différentes associations de lutte contre la précarité21 qui alertent depuis des années sur les suspensions abusives d’allocations pendant les contrôles et les pratiques invasives (consultation des comptes bancaires, relevés d’électricité, analyse de l’adresse IP etc…) des contrôleurs·ses de la CAF à l’insu des allocataires.
      Fraude à enjeux et lutte contre le non-recours : des contre-feux médiatiques

      A ceci s’ajoute diverses annonces de la CAF participant à nourrir une stratégie de diversion médiatique autour de son algorithme de notation.

      Dans son dernier rapport annuel sur la « lutte contre la fraude », nulle référence n’est faite à l’algorithme alors que celui-ci était mis à l’honneur, en première page, l’année précédente. La CAF précisant au passage qu’il était loué par la Cour des Comptes et l’Assemblée Nationale.

      A sa place, la CAF a préféré cette année mettre en avant son équipe de contrôleur.ses dédiée à la « lutte contre la fraude à enjeux »22, c’est à dire des fraudes organisées (usurpation d’identités, faux documents, fraude au RIB) à grande échelle. Soit 30 agentes et agents qui d’après les dires de la CAF sont, ni plus ni moins, chargé·es de « protéger le système de sécurité sociale français des risques de pillage » et qui font rentrer la CAF dans « une nouvelle dimension de la lutte contre la fraude »23.

      A titre de comparaison, nous tenons à rappeler que ce sont pas moins de 700 contrôleuses et contrôleurs qui, guidé·es par son algorithme discriminatoire, sont chargé·es de traquer les moindre erreurs de déclaration faites par les plus précaires.

      Deuxième angle d’attaque : la mise en avant de l’utilisation d’algorithmes de profilage à des fins de lutte contre le non-recours24. Comme si l’application des techniques de profilage à des fins « positives » pouvait justifier leur application à des fins répressives. Sur ce sujet, la CAF omet pourtant de dire le plus important : depuis maintenant plus de 10 ans, elle a systématiquement favorisé l’application de ces techniques à des fins de contrôle plutôt que de lutte contre le non-recours.

      Ses équipes de « data-scientist » regrettaient dès 2013 que les techniques de profilage des allocataires soient uniquement utilisées à des fins de contrôle et non de lutte contre le non recours25. Cette réalité est rappelée dans un rapport de l’Assemblée Nationale daté de 2016 qui précise que « l’extension explicite de l’usage du data mining à d’autres fins, notamment celle de lutte contre le non-recours, était envisageable dès l’origine, mais cette possibilité a été écartée, au moins dans les premières années d’utilisation de cet outil »26. Il aura fallu attendre 2017 pour que la CAF commence à mener des expérimentations, et il semblerait qu’aujourd’hui le profilage contre le non-recours est limité à la prime d’activité et l’allocation de soutien familial27.

      Le sociologue Vincent Dubois ajoute que cette situation « interroge sur la réalité des slogans institutionnels “tous les droits rien que les droits” qui en fait est beaucoup plus tournée vers l’identification des indus, frauduleux ou non, que vers les cas de non-recours qui sont en fait beaucoup plus nombreux »28.

      En tout état de cause, l’histoire politique de l’utilisation par la CAF des techniques de profilage à des fins de lutte contre le non-recours ne semble pas très glorieuse.

      Ce dernier point interroge aussi sur le fantasme entretenu autour de l’automatisation de l’état social pour répondre aux problèmes sociaux. A l’heure où le gouvernement lance l’expérimentation d’un « RSA sous conditions », la mise en avant de solutions techniques pour lutter contre le non-recours dépolitise la question de l’accès aux droits. Tout en taisant les problèmes que génèrent, pour des millions de personnes, la dématérialisation des services publics.

      Enfin, la CAF a annoncé en grande pompe la nomination d’une médiatrice nationale chargée, entre autres, des questions de données personnelles à la CNAF29 en juin 2022. Parmi ses missions : « la protection des données et de la sécurité des usagers dans le cadre des systèmes d’information. » Et le communiqué accompagnant sa nomination ajoute qu’elle « sera également la référente nationale déontologie ». Nous serions plus que ravi·es d’entendre son avis sur l’algorithme de notation de la CAF.
      Lutter au-delà de la transparence

      La transparence que nous exigeons auprès de la CAF ne doit pas masquer le fond du problème. En un sens, ce que nous savons déjà de l’algorithme de cette institution, sans même avoir eu accès à son code, nous suffit à nous y opposer.

      La transparence n’est donc pas une fin en soi : c’est un moyen que nous souhaitons mobiliser pour mettre en lumière, et critiquer, un discours politique cherchant à légitimer la volonté de contrôle d’un appareil étatique via l’entretien d’un discours de suspicion généralisée et la stigmatisation de certaines catégories de la population.

      Volonté de contrôle qui, hélas, profite aujourd’hui de la puissance des outils numériques et de l’exploitation de nos données personnelles afin de toujours plus nous évaluer et, ainsi, nous trier.

      A l’heure où un nombre toujours plus grand d’institutions, sociales et policières, mettent en place de telles solutions de surveillance algorithmique, nous continuerons de les documenter et de faire ce que nous pouvons, à notre niveau, pour les contrer.

      Au côté des collectifs Stop Contrôles, Changer de Cap et de toutes les associations et collectifs de lutte contre la précarité qui font face, depuis des années, aux dérives du tout numérique et au développement sans limite des politiques de contrôle social, nous espérons que vous serez nombreux.ses à nous rejoindre.

      Enfin, nous ne doutons pas que ce sentiment d’injustice est partagé par la plupart des employé·es de la CAF. C’est pourquoi nous tenons à encourager celles et ceux qui, révolté·es par ces pratiques, pourraient nous aider à les documenter. Vous pouvez nous contacter par mail, téléphone, en venant nous rendre visite ou déposer de manière anonyme des documents sur notre SecureDrop. A l’heure où les responsables de la CAF font le choix de l’opacité, nous avons plus que jamais besoin de vous.

      https://www.laquadrature.net/2022/12/23/notation-des-allocataires-febrile-la-caf-senferme-dans-lopacite
      déjà sur seenthis (via @colporteur) :
      https://seenthis.net/messages/984668

      #algorithme #discrimination #mères_isolées #risque

    • C’est la réponse qui a toujours été faite aux syndicats qui réclament depuis des années les barèmes et algo pour pouvoir contester dans le cadre des TRÈS nombreuses erreurs de calcul.

      « gna gna gna, vous allez tricher ! ».

      Marrant comme on accuse toujours l’autre de ses propres turpitudes.

      Oui, des fois, les gens pourraient refuser une miette de boulot de merde qui va faire sauter tous leurs droits de manière disproportionnée et les foutre encore plus dans la merde. Oui, des fois, les gens pourraient s’organiser pour ne pas se retrouver dans une trappe à contrôle ou une situation encore plus dégradée.

      Oui, t’imagine ? Les gens pourraient juste faire valoir leurs droits si souvent déniés sans même avoir à avancer un début de justification.

      Et ils pourraient se rendre compte que ce n’est pas l’algo, mais bien un agent malintentionné qui a niqué leur dossier.

    • y aurait pas moyen de « retourner » (comme une chaussette) leur truc de la caf ? Genre, une expérience de science participative :-) on pourrait : 1./ demander que le "score" soit communiqué à chaque administré (e.g. via CNIL), 2./ collecter score et infos perso sur la base du volontariat, éventuellement en anonymisant les données, et 3./ faire un modèle « externe » avec ces données, le publier, et enfin 4./ s’en servir pour identifier les cas de non-recours (et au moins les compter)

  • De l’inégale géonumérisation du Monde - AOC media
    https://aoc.media/analyse/2023/12/31/de-linegale-geonumerisation-du-monde-2

    Ainsi, une forme de géonumérisation généralisée du Monde[1] se met progressivement en place. Ce terme permet de souligner l’importance de porter un regard, non sur un domaine particulier (la cartographie, la statistique, la topographie, etc.) ou un métier spécifique (les photo-interprètes, les arpenteurs-géomètres, les géomaticiens, etc.), mais sur des processus diffus et multiples qui se sont accélérés depuis une trentaine d’années autour de la transcription sous forme de données numériques de la plupart des objets, êtres, phénomènes, dispositifs, activités, images, œuvres de fiction, etc., localisables sur la surface terrestre. Or, cette géonumérisation du Monde est opérée par des systèmes opaques qui s’apparentent, de plus en plus, à de véritables boîtes noires algorithmiques.
    Ouvrir les boîtes noires algorithmiques

    Les systèmes géonumériques que nous utilisons au quotidien – des cartes en ligne comme Google Maps aux services de géolocalisation pour commander un taxi – sont personnalisés en fonction de nos centres d’intérêt (ou plutôt de la façon dont l’algorithme nous a profilé) et configurés en fonction des objectifs de leurs commanditaires. Ils sont donc avant tout des opérateurs de tri, de filtre, de combinaison, de fusion, d’appariement, d’intersection, d’extraction, d’union, de conversion, de re-projection… et in fine seulement de représentations cartographiques des données dont ils disposent. Soit autant d’opérations qui relèvent de choix techniques et politiques dont les intentionnalités comme la performativité méritent d’être analysées.

    Noyé sous un déluge de données numériques, comme le titrait, dès 2010, The Economist, le spectacle cartographique qui nous est donné à voir tous les jours n’a donc rien d’une évidence. Il mérite qu’on en analyse ses coulisses et secrets de fabrication. La métaphore naturalisante du déluge ravive d’ailleurs, une fois encore, les croyances positivistes autour des données dont Bruno Latour a pourtant clairement explicité dès 1987 qu’elles n’étaient pas données, mais fabriquées et que, par la même, on devrait plutôt les appeler des obtenues[2]. Rien d’inédit, donc, à souligner aujourd’hui l’impérieuse nécessité d’une dénaturalisation des données, fussent-elles embarquées dans des algorithmes qui les traitent et les redistribuent à la volée. Sauf que ces derniers se révèlent particulièrement opaques et qu’il est devenu complexe d’identifier où sont désormais les blancs des cartes et quels sont les effets potentiels de ces mises en invisibilité des lacunes cartographiques contemporaines.

    #Cartes #Cartographie #Algorithmes #Géonumérisation

  • Misère de nos vies "numériques" :

    Pourquoi le mot “viol” est devenu “vi*l” sur TikTok et autres réseaux sociaux
    https://www.telerama.fr/plateformes/pourquoi-le-mot-viol-est-devenu-vi-l-sur-tiktok-et-autres-reseaux-sociaux-7

    « On m’interviewe sur le déni du viol dans la société française et je découvre dans la vidéo publiée sur Instagram que le terme “viol” a été bipé et que le mot complet n’apparaît pas en sous-titre. C’est très violent. » Le 20 novembre, la journaliste Alice Géraud, coauteure de la série Sambre, sur Dino Scala, violeur qui a fait plus de quarante victimes, découvre sur les réseaux sociaux le montage de son entretien donné quelques jours plus tôt au média Télé 7 jours. Dans les sous-titres, il est écrit « vi*l ». Alice Géraud confie à Télérama : « C’est une mise en abyme assez étonnante du déni du viol. » Jérémy Parayre, rédacteur en chef de Télé 7 jours, revient sur ce choix : « La question s’est posée dans l’équipe et j’ai moi-même été choqué par ce bipage. Mais comme nous voulions que son discours soit audible par notre communauté tout en évitant le déréférencement de notre vidéo par les plateformes… C’était la solution. Oui, c’est contradictoire, je comprends sa réaction. »

    Télé 7 jours n’est pas le seul média à utiliser cette pratique. Il suffit de faire un tour sur Instagram, TikTok et YouTube pour constater la disparition du mot viol. À la place, on peut lire « vi*l » ou « vi0l » sur les réseaux sociaux de médias comme Brut, Hugo Décrypte, Urbania ou Le Parisien. Certains vont jusqu’à camoufler les termes « sexe », « attentat » ou « prostituée ».

    En cause ? La peur du « shadowban ». Sur les réseaux du groupe Meta ou sur TikTok, ce « bannissement de l’ombre » toucherait les profils publics. Un compte peut être banni temporairement par la modération de ces entreprises s’il utilise certains termes ou images. Parfois, le nom de l’utilisateur n’apparaît plus dans la barre de recherche alors que son compte est toujours en ligne. D’autres fois, sa story n’est plus visible ou ses posts ne sont plus mis en avant dans l’onglet « discover » ou dans les « feeds » de ses abonnés. La plateforme ne prévient jamais l’internaute. Il prend connaissance de son invisibilisation grâce aux statistiques de son compte : un nombre de vues qui flanche, moins de partages des publications, etc.

    https://justpaste.it/4hbxx

    #bipage #shadowban #réseaux_sociaux #algorithmes

  • La bulle de filtres : comment les réseaux sociaux nous confortent dans « nos propres croyances et opinions »
    https://www.francetvinfo.fr/replay-radio/le-fil-des-reseaux/la-bulle-de-filtres-les-reseaux-sociaux-nous-confortent-dans-nos-propre

    Pour inciter les internautes à rester sur les plateformes, les algorithmes repèrent les intérêts de chacun et proposent un contenu personnalisé. Au point de limiter la diversité d’opinion.
    Article rédigé par France Info - Audrey Abraham
    Radio France
    Publié le 25/12/2023 07:49 Mis à jour le 26/12/2023 10:09
    Temps de lecture : 2 min

    Vous vous êtes probablement déjà demandé pourquoi vous tombez toujours sur les mêmes vidéos de cuisine, de déco, de chatons sur Instagram, Tiktok ou encore Facebook. Cela n’a rien d’un hasard, ça a même un nom ! C’est ce qu’on appelle la bulle de filtres et les algorithmes en sont responsables. Concrètement, le moindre click, le moindre like est mémorisé et indique vos préférences à la plateforme pour personnaliser le contenu qui vous est proposé.
    à lire aussi Les algorithmes d’Instagram facilitent la vente de pédopornographie, selon des chercheurs

    Olivier Ertzscheid est maître de conférences à l’université de Nantes : « Les propriétaires de ces plateformes se disent ’Pour garder les gens attentifs pour que les gens restent sur nos plateformes il faut qu’on leur serve des choses dont on sait déjà qu’elles les intéressent et donc plutôt que de leur présenter des opinions, des avis différents, on va leur présenter des choses qui vont dans le sens de ce qu’on appelle leur propre biais de croyances.’ Si ce sont des gens qui ont une passion pour la gastronomie on va leur afficher toujours plus de sites en lien avec la gastronomie. »

    Voilà comment chacun à notre niveau, en sélectionnant les comptes que nous avons envie de suivre, les contenus que nous avons envie de partager, nous alimentons sans nous en rendre compte cette bulle de filtre, « alors que la promesse initiale des réseaux sociaux, c’est de vous exposer à plein de gens différents, de diversités de culture, d’opinions, de points de vue, d’avis, reprend Olivier Ertzscheid. Finalement, on s’aperçoit qu’on nous expose de plus en plus à de l’identique, à des choses qui nous confortent pour nos propres croyances et opinions. » Les vidéos de cuisine, de musique, de paysages sont donc concernées. Ce que l’on peut considérer comme du contenu léger mais pas uniquement. Le contenu politique est aussi soumis au mécanisme des algorithmes.
    Un usage politique

    C’est dans ce cas de figure que la bulle de filtres est moins anodine et mérite d’être davantage questionnée. On le sait sur les réseaux sociaux tout est mélangé. Il n’y a pas d’un côté le contenu divertissant, de l’autre les sujets politiques. Le flux est constant, continu... Les discours sont plus ou moins explicites.

    Alors notre faculté de discernement s’altère : « De toute éternité, l’être humain, a toujours des biais et il adore se conforter, se vautrer dans ses propres biais culturels, sociologiques, politiques, etc. Là où ça devient problématique c’est à partir du moment où tout ça est brassé sans qu’on ait de ligne éditoriale claire. Les gens qui en général vont acheter le journal ou lire le journal ’Libération’. Il est assez rare que ce soit aussi des gens qui vont lire le journal ’Valeurs Actuelles’. Parce qu’ils savent ce qu’ils vont chercher. Ils savent que ’Libération’ est à gauche et que ’Valeurs Actuelles’ est très à droite. À l’échelle des médias sociaux, ce qui est compliqué c’est quand on n’a pas les codes pour décrypter les intentions, sachant qu’il y a toujours des intentions qui peuvent être basiquement commerciales et de plus en plus souvent aussi politiques. »

    Impossible d’y échapper, les algorithmes sont l’essence même des réseaux sociaux. L’important c’est d’en être conscient. Les autorités de régulation imposent d’ailleurs aux plateformes d’être plus transparentes avec les utilisateurs, qui on le rappelle sont parfois mineurs, en expliquant notamment autant que possible la manière dont fonctionnent leurs algorithmes.

    #Olivier_Ertzscheid #Algorithmes #Médias_sociaux

  • La #désinformation qui déstabilise la #démocratie

    « La désinformation est un bouton fantastique sur lequel appuyer pour déstabiliser les démocraties. C’est la #menace la plus sournoise. Parce que la démocratie fonctionne si on a accès à l’#information, pour pouvoir porter un jugement et participer au #débat_public ». C’est ainsi que le professeur adjoint en communication publique et politique à l’ENAP, Philippe Dubois, résumait le problème qui était au coeur du forum La démocratie au temps de la désinformation, tenu le 30 novembre à Montréal.

    La démocratie recule, soulignait d’ailleurs cette année un rapport du Varieties of Democracy Institute de l’Université de Göteborg (Suède) (https://v-dem.net/documents/29/V-dem_democracyreport2023_lowres.pdf), fruit d’une collaboration de près de 4000 experts de 180 pays. La désinformation, la #polarisation et l’#autocratisation se renforcent mutuellement.

    Avec l’ajout récent de la Thaïlande et du Mali, pour la première fois depuis plus de 20 ans, la liste des pays compte plus d’#autocraties que de démocraties : 5,7 milliards de personnes vivent dans des autocraties (72% de la population mondiale) contre 1 milliard de personnes pour les démocraties libérales —soit à peine 13%. Et près d’un tiers du premier groupe vit même au sein d’autocraties fermées (Chine, Iran, Myanmar et Vietnam, par exemple).

    Bref, le niveau de démocratie pour le citoyen mondial moyen est en recul, pour revenir au niveau de 1986. L’Europe de l’Est et l’Asie centrale, ainsi que l’Amérique latine et les Antilles, ont retrouvé leur niveau de la fin de la guerre froide.

    « C’est souvent un idéal que l’on prend pour acquis avec ses opportunités de délibération : presse libre, débats publics, et des institutions publiques pour faire fonctionner cela », avance Philippe Dubois. Ce « modèle le moins pire », comme l’aurait dit Churchill, « a bien souffert lors de la récente pandémie ». Avec ses mesures exceptionnelles et restrictives, la Covid-19 a vu reculer, de manière temporaire, certains droits et libertés. Cela a entaché la confiance dans les institutions démocratiques, et dans leurs acteurs, confiance qui n’était déjà pas si élevée avant la crise sanitaire.

    Or, les #réseaux_sociaux jouent eux aussi un rôle dans cette #régression. Peut-être parce qu’ils répercutent plus les #frustrations et la #colère que la #raison et les #nuances, il y aurait, semble-t-il, plus de cyniques et de mécontents qu’avant. Certaines tranches de la population s’avèrent aussi moins attachées à la démocratie, comme les jeunes, qui s’informent eux-mêmes davantage que les plus vieux par les algorithmes. « Cela ne signifie pas qu’ils rejettent la démocratie. Cela signifie plutôt qu’ils partagent davantage un type de contenu » qui la rejette, note le chercheur.

    L’École des médias de l’UQAM avait mandaté cet été la firme Léger pour sonder la population québécoise sur leurs perceptions sur des enjeux liés à la démocratie et à la désinformation. Le rapport montre que 25% de la population québécoise pense que les gouvernements cachent la réalité sur la nocivité des vaccins —18% pensent que c’est probable, alors que 8% pensent que c’est certain.

    C’est une #méfiance envers les institutions qui augmente, tout comme celle envers les #médias, car selon ce sondage, 44% de la population québécoise pense que les médias manipulent l’information qu’ils diffusent.

    En quête de #littératie_scientifique

    « Nous vivons une #crise_épistémologique avec une remise en question des #figures_d’autorité » constatait, lors du forum du 30 novembre, le professeur au département sciences humaines, lettres et communications de la TÉLUQ, Normand Landry. « Les gens parlent d’#esprit_critique mais c’est un mot galvaudé : où est notre capacité de se remettre en question et de changer d’idées et d’admettre nos erreurs ? »

    D’où l’importance de l’#éducation_aux_médias et de la littératie scientifique, soulignait-on dans ce forum organisé par les Fonds de recherche du Québec. Mélissa Guillemette, rédactrice en chef du magazine Québec Science, note que « moins de la moitié des Canadiens ont des bases solides en science (42%), c’est donc à mettre au premier plan. La littératie en santé au Québec reste elle aussi très faible chez 2 personnes sur 3 et pour 95% des 60 ans et plus, il s’avère même difficile de comprendre un médecin. »

    Les #jeunes ont particulièrement du mal à distinguer le #vrai du #faux. « Les adolescents ont du mal à reconnaître la désinformation. Ils manquent de bons critères d’évaluation pour juger de la qualité d’une bonne information », relève l’étudiante à la maîtrise en sciences de l’éducation de l’Université de Sherbrooke, Élise Rodrigue-Poulin.

    « Chez les enseignants aussi, le niveau de pensée critique varie souvent de faible à moyen. Et lorsque la nouvelle fait appel à trop d’#émotion, la plupart d’entre nous ne sommes plus capables de l’évaluer correctement », ajoute-t-elle.

    La solution serait de s’éduquer à reconnaître la désinformation, mais il faudrait aussi développer du contenu scolaire pour soutenir l’esprit critique chez les jeunes – et par ricochet, le personnel enseignant. Des éléments inclus dans le nouveau programme Culture et citoyenneté québécoise, vont dans ce sens.

    Ce serait toutefois insuffisant. « Le programme a plusieurs points positifs : donner des outils et des critères sur les informations et les médias, et l’explication de ce qu’est la démocratie. Comme enseignante, je trouve ça bon, mais il n’est pas obligatoire cette année et il a été présenté aux enseignants quelques jours avant la rentrée », explique Mme Rodrigue-Poulin. Il doit être implanté dans toutes les écoles en septembre 2024.

    Normand Landry renchérit : « Je salue l’adoption d’un programme mais je le pense moins sérieux dans le soutien à développer ce savoir. Depuis plus de 20 ans, l’#école développe du contenu d’éducation aux médias – par exemple, sur les compétences numériques, adopté en 2019 – mais sans se donner les conditions de déploiement et des ressources pour les enseignants. »

    La désinformation à gogo

    « Nous sommes dans une espèce de jungle et trouver la vérité, c’est un casse-tête. La désinformation, cela ne date pas d’hier mais c’est le volume qui augmente. », rappelle Nicolas Garneau, chercheur postdoctoral en informatique à l’Université de Copenhague.

    Et nous pouvons tous partager de la désinformation. Les réseaux sociaux sont conçus pour nous inviter à générer du contenu – « exprimez-vous », « posez des actions » – à partir de messages qui en appellent à nos #émotions.

    Il faut donc apprendre à se méfier des choix des #algorithmes et développer son esprit critique – « d’où ça sort ? », « quelle est la source de l’info ? »

    « Il ne faut pas oublier que ce sont des modèles économiques basés sur nos données. Ils enregistrent ce que l’on regarde et lorsqu’on s’exprime. Les plateformes exploitent nos #failles_psychologiques », rappelle Emmanuelle Parent, directrice générale et recherche du Centre pour l’intelligence émotionnelle en ligne (Le Ciel).

    Le professeur en journalisme à l’École des médias de l’Université du Québec à Montréal, Jean-Hugues Roy, s’intéresse plus spécifiquement à Facebook. Il remarque qu’il y a beaucoup de contenus viraux —et religieux— qui circulent. Qui plus est, en l’absence de véritables informations – en raison du blocage du contenu des médias par Meta – « il n’y a plus rien de pertinent. C’est un véritable marché aux puces de #contenus_viraux dont certains peuvent être toxiques. Cela peut prendre l’apparence de contenu journalistique, en ajoutant des éléments mensongers et trompeurs uniquement pour faire des clics. »

    Il est temps d’encadrer ces plateformes, poursuit-il. Une démarche entamée par le Canada avec le projet de loi C-18 qui vise à forcer les « géants du web » à indemniser les médias d’information —c’est ce projet de loi qui est la raison du boycottage des médias entrepris en ce moment par Meta au Canada.

    « Ce sont des entreprises privées et on s’attend à ce qu’elles prennent leurs responsabilités ou que les autorités le fassent. Nous avons une agence d’inspection des aliments au Canada, il est possible d’imaginer une agence d’inspection des réseaux sociaux alors que nos vies sont dessus et qu’ils font beaucoup d’argent avec nos données », pense M. Roy.

    Autrement dit, il faut un encadrement de ces outils par l’humain. « Leur raison d’être est de nous donner un coup de main, pas de décider à notre place », tranche encore Nicolas Garneau.

    https://www.sciencepresse.qc.ca/actualite/2023/12/15/desinformation-destabilise-democratie

  • Thomas Piketty : « L’idéologie antipauvres finit par conduire à une dégradation générale de la qualité du service public »
    https://www.lemonde.fr/idees/article/2023/12/09/thomas-piketty-l-ideologie-antipauvres-finit-par-conduire-a-une-degradation-

    Ce n’est pas en se défoulant sur les plus précaires que l’on va résoudre les problèmes sociaux, plaide l’économiste dans sa chronique.

    Disons-le d’emblée : l’enquête édifiante publiée par Le Monde sur les procédures intrusives et ubuesques subies par des milliers d’allocataires des caisses d’allocations familiales (CAF) pose des problèmes fondamentaux pour l’avenir de la Sécurité sociale et des services publics, en France, en Europe et dans le monde. En épluchant des milliers de lignes de code indûment dissimulées, en rencontrant des personnes fragilisées et des parents isolés injustement pourchassés pour des trop-perçus imaginaires, les journalistes ont montré les conséquences dramatiques de ces pratiques algorithmiques aveugles sur les existences quotidiennes.

    Encore faut-il préciser que les agents des CAF sont souvent (? ndc) les premiers à dénoncer ces pratiques imposées par leur direction et par les responsables politiques à l’institution sociale à laquelle ils sont attachés. Rappelons que les CAF gèrent avec des moyens limités non seulement les allocations familiales, mais aussi le revenu de solidarité active (revenu de base et complément de revenu pour les bas salaires), les allocations logement, celles destinées aux parents isolés ou aux personnes handicapées, les prestations liées aux gardes d’enfants, etc., soit au total près de 14 millions d’allocataires (environ la moitié des ménages).

    Les coûts de fonctionnement des CAF comme des caisses de l’Assurance-maladie et de l’ensemble des caisses de la Sécurité sociale ont toujours été extrêmement modestes : entre 2 % et 3 % des prestations versées suivant les cas, contre 15 % à 20 % pour les compagnies d’assurances privées. Cette efficacité publique est une bonne chose en soi, à condition toutefois de ne pas pousser trop loin dans cette direction.
    Le problème est que le pouvoir politique n’a cessé de faire pression sur les caisses pour réduire toujours davantage ces coûts. La situation s’est notamment dégradée à la suite de l’arrivée au pouvoir en 2007 de Nicolas Sarkozy, qui a mis en avant la nécessité d’une chasse sans merci à la fraude sociale et les allocataires soupçonnés de ruiner le système.

    Glorification des « premiers de cordée »

    Et qu’importe si toutes les études montrent que la fraude fiscale et l’évasion en col blanc portent sur des montants autrement importants. Puisqu’il est compliqué de s’en prendre aux plus riches, vengeons-nous sur les plus pauvres ! Cette glorification des « premiers de cordée » et cette stigmatisation des plus #pauvres (réputés incapables de « traverser la rue » pour trouver un emploi, et régulièrement accusés de coûter un « pognon de dingue ») se sont encore accentuées avec Emmanuel Macron depuis 2017. Sommées de débusquer les #fraudeurs et de faire du chiffre avec des moyens humains réduits, les CAF se sont alors lancées dans la dérive algorithmique mise au jour par les journalistes. [dès 2010, en fait,c-à-d sous Hollande ndc]

    Le pire dans cette évolution est que l’#idéologie_antipauvres finit par conduire à une dégradation générale de la qualité du service public. Si vous n’en avez pas fait l’expérience vous-même, demandez autour de vous. Depuis plusieurs années, si vous envoyez un message aux CAF sur l’interface prévue à cet effet, la machine vous répond que les messages traités actuellement sont ceux réceptionnés il y a trois mois, et que le vôtre devra attendre (six mois plus tard, il attend toujours).

    En revanche, si l’on vous reproche un trop-perçu, parfois fantaisiste, il faut payer tout de suite, sans recours possible. Pour ceux qui en ont les moyens, ces situations ubuesques sont pénibles mais gérables. Pour tous ceux dont les finances sont tendues, c’est insupportable. De toute évidence, les #CAF ne disposent pas des moyens humains permettant de rendre un service de qualité et de traiter correctement les usagers, ce qui est extrêmement douloureux pour toutes les personnes impliquées.

    Cette dégradation du service public se retrouve dans de multiples domaines, par exemple avec des délais de plus de six mois pour obtenir des papiers d’identité, des procédures de remboursement toujours trop lourdes auprès de l’Assurance-maladie et des mutuelles, ou encore l’opacité extrême des #algorithmes d’affectation dans l’enseignement supérieur, dans un contexte de pénurie de places et de moyens dans les filières les plus recherchées.

    Stratégie de droite

    La stratégie de la droite visant à stigmatiser les pauvres et les « assistés » comme responsables des maux du pays est doublement perdante : elle fragilise les plus modestes et conduit à la dégradation du service public pour tous et au règne du chacun-pour-soi, au moment même où nous aurions besoin de socialiser davantage de ressources pour pourvoir aux besoins criants dans la santé, l’éducation et l’environnement. La vérité est que c’est dans le secteur privé que se trouvent les gaspillages et les rémunérations indues, et non dans les caisses sociales et les services publics.

    Cette nouvelle idéologie antipauvres est d’autant plus inquiétante qu’elle est au cœur des recompositions politiques actuelles. La loi antisquatteurs adoptée fin 2022 par une coalition RN-LR-Renaissance en est l’incarnation. Elle montre aussi les impasses de cette approche : ce n’est pas en se défoulant sur les plus #précaires et en fragilisant l’ensemble des #locataires à grands coups de bail raccourci de location meublée et d’expulsion accélérée que l’on va résoudre les problèmes de logement des dizaines de millions de ménages mal logés et mal isolés.

    Cette question est aussi l’occasion de combattre le RN sur le seul terrain qui vaille : celui des faiblesses et des incohérences de son programme. La conversion sociale du RN est un leurre. Le parti reste profondément imprégné de libéralisme économique, comme le montre sa volonté de supprimer l’impôt sur la fortune immobilière, de la même façon que Jean-Marie Le Pen voulait supprimer l’impôt sur le revenu dans les années 1980. Il est plus que temps de sortir des obsessions identitaires actuelles et de remettre les questions socio-économiques au centre du débat public.

    https://seenthis.net/messages/1028926

  • #Interpol makes first border arrest using Biometric Hub to ID suspect

    Global database of faces and fingerprints proves its worth.

    European police have for the first time made an arrest after remotely checking Interpol’s trove of biometric data to identify a suspected smuggler.

    The fugitive migrant, we’re told, gave a fake name and phony identification documents at a police check in Sarajevo, Bosnia and Herzegovina, while traveling toward Western Europe. And he probably would have got away with it, too, if it weren’t for you meddling kids Interpol’s Biometric Hub – a recently activated tool that uses French identity and biometrics vendor Idemia’s technology to match people’s biometric data against the multinational policing org’s global fingerprint and facial recognition databases.

    “When the smuggler’s photo was run through the Biometric Hub, it immediately flagged that he was wanted in another European country,” Interpol declared. “He was arrested and is currently awaiting extradition.”

    Interpol introduced the Biometric Hub – aka BioHub – in October, and it is now available to law enforcement in all 196 member countries.

    Neither Interpol nor Idemia immediately responded to The Register’s questions about how the technology and remote access works.

    But Cyril Gout, Interpol’s director of operational support and analysis, offered a canned quote: “The Biometric Hub helps law enforcement officers know right away whether the person in front of them poses a security risk.”

    That suggests Interpol member states’ constabularies can send biometric data to BioHub from the field and receive real-time info about suspects’ identities.

    The multinational policing org has said that Hub’s “biometric core” combines Interpol’s existing fingerprint and facial recognition databases, which both use Idemia tech, with a matching system also based on Idemia’s biometric technology.

    Interpol and Idemia have worked together for years. In 1999, he police organization chose Idemia to develop its fingerprint database, called the Automated Fingerprint Identification System (AFIS). And then in 2016, Interpol inked another contract with Idemia to use the French firm’s facial recognition capabilities for the Interpol Face Recognition System (IFRS).

    According to Idemia, the latest version of its Multibiometric Identification System, MBIS 5, uses “new generation algorithms which provide a higher matching accuracy rate with a shorter response time and a more user-friendly interface.”

    In its first phase, Interpol will use MBIS 5 to identify persons of interest (POIs) for police investigations.

    A second phase, which will take two years to become fully operational, will extend the biometric checks to border control points. During this phase the system will be able to perform up to one million forensic searches per day – including fingerprints, palm prints, and portraits.

    Interpol expects the combined fingerprints and facial recognition system will speed future biometric searches. Instead of running a check against separate biometric databases, BioHub allows police officers to submit data to both through one interface, and it only requires human review if the “quality of the captured biometric data is such that the match falls below a designated threshold.”

    To address data governance concerns, Interpol claims BioHub complies with its data protection framework. Additionally, scans of faces and hands uploaded to the Hub are not added to Interpol’s criminal databases or made visible to other users. Any data that does not result in a match is deleted following the search, we’re told.

    While The Register hasn’t heard of any specific data privacy and security concerns related to BioHub, we’re sure it’s only a matter of time before it’s misused.

    America’s Transportation Security Agency (TSA) over the summer also said it intends to expand its facial recognition program, which also uses Idemia’s tech, to screen air travel passengers to 430 US airports. The TSA wants that capability in place within ten years.

    The TSA announcement was swiftly met with opposition from privacy and civil rights organizations, along with some US senators who took issue [PDF] with the tech.

    https://www.theregister.com/2023/12/01/interpol_biohub_arrest

    #frontières #contrôles_frontaliers #technologie #empreintes_digitales #biométrie #Interpol #migrations #asile #réfugiés #Biometric_Hub #Balkans #route_des_Balkans #Bosnie-Herzégovine #Idemia #reconnaissance_faciale #passeurs #BioHub #extradition #sécurité #risque #interopérabilité #base_de_données #Automated_Fingerprint_Identification_System (#AFIS) #Interpol_Face_Recognition_System (#IFRS) #Multibiometric_Identification_System #MBIS_5 #algorithmes #persons_of_interest (#POIs) #portraits #Transportation_Security_Agency (#TSA)

  • Comment la CAF a traité mon dossier avec un « robot à dettes » | Le Club
    https://blogs.mediapart.fr/lucieinland/blog/150421/comment-la-caf-traite-mon-dossier-avec-un-robot-dettes

    26 mars, appel de la CAF. Le conseiller confirme que c’est bien « le logiciel » qui a traité mon dossier selon certains paramètres. Jugé trop complexe depuis la déclaration de création de micro-entreprise, il a été remis à zéro puis re-traité, d’où la demande de documents. Malgré mes questions je n’ai pas compris pourquoi seule ma situation d’auto-entrepreneuse est retenue, bien qu’aussi salariée, avec les déclarations de revenus adéquates. Le mail notifiant ma dette a été envoyé dès que l’algorithme a détecté une erreur dans mon dossier. La machine menace d’abord, les humain·es vérifient ensuite. Seul mon mail a permis à la CAF de classer vite et correctement mon dossier. Et ce sont bien leurs outils automatisés qui m’ont mis en difficulté.

  • Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable – La Quadrature du Net
    https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais

    C’est en transformant les allocataires en « assisté·es », puis en risques pour la survie de notre système social que le discours de « lutte contre l’assistanat » a fait de leur contrôle un impératif de « bonne gestion »18. Qu’importe que toutes les estimations montrent que la « fraude sociale » est marginale et que c’est au contraire le non-recours aux aides qui se révèle être un phénomène massif.

    Devenu objectif institutionnel, le contrôle doit être rationalisé. Le numérique devient alors l’outil privilégié de « la lutte contre la fraude sociale » par la capacité qu’il offre aux dirigeant·es de répondre aux injonctions de résultats tout en offrant un alibi technique quant aux pratiques de discrimination généralisée que leur tenue impose.

    Ces logiques sont saillantes dans la réponse écrite par la CAF pour s’opposer à la transmission du code de son algorithme, avant d’y être contrainte par la Commission d’Accès aux Documents Administratifs (CADA). Elle assume ouvertement un discours policier en avançant comme principal argument que cette communication consisterait en une « atteinte à la sécurité publique » car « en identifiant les critères constituant des facteurs de ciblage, des fraudeurs pourraient organiser et monter des dossiers frauduleux ».

    Enfin, un chiffre transmis dans la même réponse témoigne de l’emballement gestionnaire à l’œuvre et vient souligner la disproportion entre les moyens techniques déployés et les enjeux financiers. L’algorithme est entraîné pour détecter des trop-perçus s’élevant à 600 euros sur deux ans. Soit donc, 32 millions d’intimités violées par un algorithme à la recherche de… 25 euros par mois.

  • Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable
    https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais

    Après plus d’un an de mobilisation contre les pratiques de notation des allocataires de la CAF au côté des collectifs Stop Contrôles et Changer de Cap, et après avoir détaillé le fonctionnement de l’algorithme de…

    #Surveillance

    • A noter que, dans des versions précédentes de l’algorithme, le fait d’être né hors de l’UE était aussi un critère pour cibler les contrôles (dénoncé par le Défenseur des droits). Dans les versions qu’a pu étudier la Quadrature du net, des variables sont caviardées (cachées) par la #CNAF, donc on ne sait pas tout ce qui est utilisé.

      Si on est un peu cynique, on pourrait se dire que, après tout, si les personnes n’ont pas triché, même ciblées, elles ne risquent rien, et qu’au pire, après avoir été contrôlées, elles auront simplement leurs justes #droits (éventuellement recalculés) et donc que, même ciblés, ces contrôles sont un moindre mal face à l’impératif de #lutte_contre_la_fraude. Or ces contrôles pénalisent fortement aussi les personnes qui n’ont rien à se reprocher, qui ont déclaré de façon exacte et en temps voulu tous leurs changements de situation, etc.

      Car, ce que ne dit pas l’article (il ne peut pas tout dire), qui a été dénoncé par « Changer de cap », et qui doit être ajouté, c’est qu’ une grande partie des contrôles est automatisé sous la forme de courrier envoyé automatiquement par la machine (l’algorithme) aux allocataires dès lors qu’un changement est signalé (lors de la déclaration trimestrielle de ressources typiquement) et/ou que leur score de risque (score de suspicion) dépasse un certain niveau. Ce courrier les prévient qu’ ils doivent répondre à un questionnaire de contrôle (avec d’éventuelles pièces justificatives à envoyer) et que, sans attendre, les droits sont suspendus à cette réponse. Ce qui fait que, dans l’attente de l’envoi du courrier par l’allocataire mais aussi du temps mis par la CAF pour ensuite traiter/instruire ce courrier (souvent des semaines !!!), les personnes se retrouvent sans plus aucune prestation, sans plus aucune ressource parfois. Et, pour celles qui ne répondent pas (n’ont pas vu le courrier, parfois arrivé sur leur boite internet allocataire) ou encore ne parviennent pas à obtenir certaines pièces justificatives, cela se traduit par des #ruptures_de_droits et la réclamation d’#indus.

      Et, après de telles mésaventures/maltraitances institutionnelles qui peuvent se renouveler, beaucoup arrêtent les frais, renoncent à faire valoir leur droit...

      (reçu par mel)

      #étrangers_hors_UE

    • Dans la vie de Juliette, mère isolée, précaire et cible de l’algorithme des CAF (Le Monde)
      https://archive.is/aREy2

      « Le Monde » raconte comment une bénéficiaire du RSA est devenue un dossier « à risque » pour l’organisme, et les conséquences de ce ciblage sur sa vie.

      « J’étais dans la merde financièrement et psychologiquement. Mon père venait de mourir d’un cancer en moins de six mois, j’étais extrêmement fragile. » C’est peu dire que l’année 2023 commençait déjà mal pour Juliette (les prénoms d’allocataires ont été modifiés à leur demande). Divorcée depuis cinq ans, sans pension alimentaire, elle vit seule avec son fils cadet de 14 ans, en garde alternée.

      Sa séparation l’a poussée dans la spirale de la #précarité. Depuis des années, les allocations familiales et les aides au logement lui sont vitales. Juliette n’est jamais restée inactive bien longtemps, mais son CV « atypique », comme elle dit, rebute beaucoup d’employeurs, malgré un bac + 5 en communication. « Les boulots salariés, je les tiens un an et je finis en burn-out », raconte la mère de famille de 50 ans, un peu gênée, assise au milieu de sa petite cuisine en formica remplie de ses trouvailles de brocantes.

      #mère_isolée

      Profilage et discriminations : enquête sur les dérives de l’algorithme des caisses d’allocations familiales
      https://archive.is/JoTma

      Depuis 2010, la CAF note ses treize millions de foyers d’allocataires pour orienter ses contrôles. « Le Monde » a enquêté sur ce système, accusé de discriminer les plus vulnérables.

      Dis-moi qui tu es, l’algorithme dira si tu es #suspect. A la Caisse nationale des allocations familiales (#CNAF), où la recherche des erreurs de déclaration et des #fraudes s’est industrialisée au cours des dernières années, un outil a été érigé en totem : le data mining (exploration de données). La priorisation des dossiers à contrôler repose aujourd’hui quasi exclusivement sur un « score de risque » calculé pour chaque allocataire suivant une batterie de critères personnels.

      Ce système fait la fierté de l’institution, qui en vante les performances. Mais les alertes se multiplient sur les possibles dérives de cet algorithme, baptisé « data mining données entrantes » (DMDE). Plusieurs associations ont accusé la CNAF de discriminer les plus vulnérables au sein des publics à qui elle verse chaque mois le revenu de solidarité active (RSA), les aides au logement ou encore les allocations familiales.

  • Greek data watchdog to rule on AI systems in refugee camps

    A forthcoming decision on the compliance of surveillance and security systems in Greek refugee camps could set a precedent for how AI and biometric systems are deployed for ‘migration management’ in Europe

    Greece’s data protection watchdog is set to issue a long-awaited decision on the legality of controversial high-tech surveillance and security systems deployed in the country’s refugee camps.

    The Greek Data Protection Authority’s (DPA) decision, expected by the end of the year, concerns in part a new multimillion-euro Artificial Intelligence Behavioural Analytics security system, which has been installed at several recently constructed refugee camps on the Aegean islands.

    The system – dubbed #Centaur and funded through the European Union (EU) – relies on algorithms and surveillance equipment – including cameras, drones, sensors and other hardware installed inside refugee camps – to automatically detect purported threats, alert authorities and keep a log of incidents. Hyperion, another system that relies on biometric fingerprint data to facilitate entry and exit from the refugee camps, is also being examined in the probe.

    Centaur and #Hyperion came under investigation in March 2022, after several Greek civil society organisations and a researcher filed a complaint to the Greek DPA questioning the legality of the programs under Greek and European laws. The Greek DPA’s decision could determine how artificial intelligence (AI) and biometric systems are used within the migration management context in Greece and beyond.

    Although the data watchdog’s decision remains to be seen, a review of dozens of documents obtained through public access to documents requests, on-the-ground reporting from the islands where the systems have been deployed, as well as interviews with Greek officials, camp staff and asylum seekers, suggest the Greek authorities likely sidestepped or botched crucial procedural requirements under the European Union’s (EU) privacy and human rights law during a mad rush to procure and deploy the systems.

    “It is difficult to see how the DPA will not find a breach,” said Niovi Vavoula, a lecturer at Queen Mary University of London, who petitioned the Greek DPA alongside Greek civil society organisations Homo Digitalis, The Hellenic League for Human Rights, and HIAS Greece.

    She said “major shortcomings” identified include the lack of appointment of a data protection officer at the Greek Migration Ministry prior to the launch of its programs.

    Security systems a hallmark of new EU camps

    Centaur and Hyperion are hallmarks of Greece’s newest migrant facilities, also known as Closed Controlled Access Centres (CCACs), which began opening in the eastern Aegean in 2021 with funding and supervision from the European Commission (EC). Greek authorities have lauded the surveillance apparatus at the revamped facilities as a silver-bullet solution to the problems that plagued previous makeshift migrant camps in Greece.

    The Centaur system allows authorities to monitor virtually every inch of the camps’ outdoor areas – and even some indoor spaces – from local command and control centres on the islands, and from a centralised control room in Athens, which Greece’s former migration minister Notis Mitarachi unveiled with much fanfare in September 2021.

    “We’re not monitoring people. We’re trying to prevent something bad from happening,” Anastasios Salis, the migration ministry’s director general of ICT and one of the self-described architects of the Centaur system, told me when I visited the ministry’s centralised control room in Athens in December 2021. “It’s not a prison, okay? It’s something different.”

    Critics have described the new camps as “prison-like” and a “dystopian nightmare”.

    Behind closed doors, the systems have also come under scrutiny by some EU authorities, including its Fundamental Rights Agency (FRA), which expressed concerns following a visit to one of the camps on Samos Island in May 2022.

    In subsequent informal input on Greece’s refugee camp security measures, the FRA said it was “concerned about the necessity and proportionality of some of the measures and their possible impact on fundamental rights of residents” and recommended “less intrusive measures”.

    Asked during the control room tour in 2021 what is being done to ensure the operation of the Centaur system respects privacy laws and the EU’s General Data Protection Regulation (GDPR), Salis responded: “GDPR? I don’t see any personal data recorded.”

    ‘Spectacular #experimentation’

    While other EU countries have experimented with myriad migration management and surveillance systems, Greece’s refugee camp deployments are unique.

    “What we see in Greece is spectacular experimentation of a variety of systems that we might not find in this condensed way in other national contexts,” said Caterina Rodelli, a policy analyst at the digital rights non-profit Access Now.

    She added: “Whereas in other European countries you might find surveillance of migrant people, asylum seekers … Greece has paved the way for having more dense testing environments” within refugee camps – particularly since the creation of its EU-funded and tech-riddled refugee camps.

    The #Samos facility, arguably the EU’s flagship camp, has been advertised as a model and visited by officials from the UK, the US and Morocco. Technology deployments at Greece’s borders have already been replicated in other European countries.

    When compared with other Mediterranean states, Greece has also received disproportionate funding from the EU for its border reinforcement projects.

    In a report published in July, the research outfit Statewatch compared commission funds to Greece between 2014 and 2020 and those projected to be paid between 2021 and 2027, finding that “the funding directed specifically towards borders has skyrocketed from almost €303m to more than €1bn – an increase of 248%”.

    Greece’s Centre for Security Studies, a research and consulting institution overseen by the Greek minister of citizen protection, for example, received €12.8m in EU funds to develop border technologies – the most of any organisation analysed in the report during an eight-year period that ended in 2022.

    Surveillance and security systems at Greek refugee camps are funded through the EU’s Covid recovery fund, known formally as the European Commission’s Recovery and Resilience Facility, as well as the Internal Security Fund.
    Early warnings

    At the heart of the Greek DPA probe are questions about whether Greece has a legal basis for the type of data processing understood to be required in the programs, and whether it followed procedures required under GDPR.

    This includes the need to conduct data protection impact assessments (DPIAs), which demonstrate compliance with the regulation as well as help identify and mitigate various risks associated with personal data processing – a procedure the GDPR stipulates must be carried out far in advance of certain systems being deployed.

    The need to conduct these assessments before technology deployments take place was underscored by the Greek DPA in a letter sent to the Greek migration ministry in March 2022 at the launch of its probe, in which it wrote that “in the case of procurement of surveillance and control systems” impact studies “should be carried out not only before their operation, but also before their procurement”.

    Official warnings for Greece to tread carefully with the use of surveillance in its camps came as early as June 2021 – months before the opening of the first EU-funded camp on Samos Island – when the FRA provided input on the use of surveillance equipment in Greek refugee camps, and the Centaur project specifically.

    In a document reviewed by Computer Weekly, the FRA wrote that the system would need to undergo “a thorough impact assessment” to check its compatibility with fundamental rights, including data protection and privacy safeguards. It also wrote that “the Greek authorities need to provide details on the equipment they are planning to use, its intended purpose and the legal basis for the automated processing of personal data, which to our understanding include sensitive biometric data”.
    A botched process?

    However, according to documents obtained through public record requests, the impact assessments related to the programs were only carried out months after the systems were deployed and operational, while the first assessments were not shared with the commission until late January 2022.

    Subsequent communications between EU and Greek authorities reveal, for the first time, glaring procedural omissions and clumsy efforts by Greek authorities to backpedal into compliance.

    For example, Greece’s initial assessments of the Centaur system covered the use of the CCTV cameras, but not the potentially more sensitive aspects of the project such as the use of motion analysis algorithms and drones, a commission representative wrote to Greek authorities in May 2022. The representative further underscored the importance of assessing “the impact of the whole project on data protection principles and fundamental rights”.

    The commission also informed the Greek authorities that some areas where cameras were understood to have been placed, such as common areas inside accommodation corridors, could be deemed as “sensitive”, and that Greece would need to assess if these deployments would interfere with data protection, privacy and other rights such as non-discrimination or child rights.

    It also requested more details on the personal data categories being processed – suggesting that relevant information on the categories and modalities of processing – such as whether the categories would be inferred by a human or an algorithm-based technology – had been excluded. At the time, Greek officials had reported that only “physical characteristics” would be collected but did not expand further.

    “No explanation is provided on why less intrusive measures cannot be implemented to prevent and detect criminal activities,” the commission wrote, reminding Greece that “all asylum seekers are considered vulnerable data subjects”, according to guidelines endorsed by the European Data Protection Board (EDPB).

    The FRA, in informal input provided after its visit to the Samos camp in May 2022, recommended basic safeguards Greece could take to ensure camp surveillance systems are in full compliance with GDPR. This included placing visible signs to inform camp residents and staff “about the operation of CCTV cameras before entering a monitored area”.

    No such signs were visible in the camp’s entry when Computer Weekly visited the Samos camp in early October this year, despite the presence of several cameras at the camp’s entry.

    Computer Weekly understands that, as of early October, procedural requirements such as impact assessments had not yet been finalised, and that the migration ministry would remain in consultation with the DPA until all the programs were fully GDPR-compliant.

    Responding to Computer Weekly’s questions about the findings of this story, a Greek migration ministry spokesperson said: “[The ministry] is already in open consultation with the Greek DPA for the ‘Centaur’ and ‘Hyperion’ programs since March 2022. The consultation has not yet been completed. Both of these programs have not been fully implemented as several secondary functions are still in the implementation phase while the primary functions (video surveillance through closed circuit television and drone, entry – exit through security turnstiles) of the programs are subject to continuous parameterisation and are in pilot application.

    “The ministry has justified to the Greek DPA as to the necessity of implementing the measure of installing and operating video surveillance systems in the hospitality structures citing the damage that the structures constantly suffer due to vandalism, resulting in substantial damage to state assets … and risking the health of vulnerable groups such as children and their companions.”

    The commission wrote to Computer Weekly that it “do[es] not comment on ongoing investigations carried out by independent data protection authorities” and did not respond to questions on the deployment of the systems.

    Previous reporting by the Greek investigative outlet Solomon has similarly identified potential violations, including that the camp programs were implemented without the Greek ministry of migration and asylum hiring a data protection officer as required under the GDPR.
    Lack of accountability and transparency?

    The commission has said it applies all relevant checks and controls but that it is ultimately up to Greece to ensure refugee camps and their systems are in line with European standards.

    Vavoula, the researcher who was involved in the Greek DPA complaint, said the EU has been “funding … these initiatives without proper oversight”.

    Saskia Bricmont, a Belgian politician and a Member of the European Parliament with the Greens/European Free Alliance, described unsuccessful efforts to obtain more information on the systems deployed at Greece’s camps and borders: “Neither the commission nor the Greek authorities are willing to share information and to be transparent about it. Why? Why do they hide things – or at least give the impression they do?”

    The European Ombudsman recently conducted a probe into how the commission ensures fundamental rights are being respected at Greece’s EU-funded camps. It also asked the commission to weigh in on the surveillance systems and whether it had conducted or reviewed the data protection and fundamental rights impact assessments.

    The commission initially reported that Greece had “completed” assessments “before the full deployment of the surveillance systems”. In a later submission in August, however, the commission changed its wording – writing instead that the Greek authorities have “drawn up” the assessments “before the full deployment” of the tools.

    The commission did not directly respond to Computer Weekly’s query asking it to clarify whether the Greek authorities have “completed” or merely “drawn up” DPIAs, and whether the commission’s understanding of the status of the DPIAs changed between the initial and final submissions to the European ombudsman.

    Eleftherios Chelioudakis, co-founder of the Greek digital rights organisation Homo Digitalis, rejected the suggestion that there are different benchmarks on deployment. “There is no legal distinction between full deployment of a system or partial deployment of a system,” he said. “In both cases, there are personal data processing operations taking place.”

    Chelioudakis added that the Greek DPA holds that even the mere transmission of footage (even if no data is recorded/stored) constitutes personal data processing, and that GDPR rules apply.
    Check… check… is this camera on?

    Greek officials, initially eager to show off the camps’ surveillance apparatus, have grown increasingly tight-lipped on the precise status of the systems.

    When visiting the ministry’s centralised control room at the end of 2021, Computer Weekly’s reporter was told by officials that three camps – on Samos, Kos and Leros islands – were already fully connected to the systems and that the ministry was working “on a very tight timeframe” to connect the more than 30 remaining refugee camps in Greece. During a rare press conference in September 2022, Greece’s then-migration minister, Notis Mitarachi, said Centaur was in use at the three refugee camps on Samos, Kos and Leros.

    In October 2022, Computer Weekly’s reporter was also granted access to the local control room on Samos Island, and confirmed that monitoring systems were set up and operational but not yet in use. A drone has since been deployed and is being used in the Samos camp, according to several eyewitnesses.

    Officials appear to have exercised more caution with Hyperion, the fingerprint entry-exit system. Computer Weekly understands the system is fully set up and functioning at several of the camps – officials proudly demonstrated its functions during the inauguration of the Kos camp – but has not been in use.

    While it’s not yet clear if the more advanced and controversial features of Centaur are in use – or if they ever will be – what is certain is that footage from the cameras installed on several islands is being fed to a centralised control room in Athens.

    In early October, Computer Weekly’s reporter tried to speak with asylum seekers outside the Samos camp, after officials abruptly announced the temporary suspension of journalist access to this and other EU-funded camps. Guards behind the barbed wire fence at the camp’s gate asked the reporter to move out of the sight of cameras – installed at the gate and the camp’s periphery – afraid they would receive a scolding call from the migration ministry in Athens.

    “If they see you in the cameras they will call and ask, ‘Why is there a journalist there?’ And we will have a problem,” one of the guards said. Lawyers and others who work with asylum seekers in the camp say they’ve had similar experiences.

    On several occasions, Computer Weekly’s reporter has asked the Greek authorities to provide proof or early indications that the systems are improving safety for camp residents, staff and local communities. All requests have been denied or ignored.

    Lawyers and non-governmental organisations (NGOs) have also documented dozens of incidents that undermine Greek officials’ claims of increased safety in the tech-riddled camps.
    Unmet promises of increased security

    In September 2022, a peaceful protest by some 40 Samos camp residents who had received negative decisions on their asylum claims escalated into a riot. Staff evacuated the camp and police were called in and arrested several people.

    Lawyers representing those accused of instigating the brawl and throwing rocks at intervening police officers said they were struck by the absence of photographic or video evidence in the case, despite their clients’ request to use the footage to prove their innocence.

    “Even with all these systems, with all the surveillance, with all the cameras … there were no photographs or video, something to show that those arrested were guilty,” said Dimitris Choulis, a lawyer with the Human Rights Legal Project on Samos.

    Asked about the incident, the Samos camp director at the time explained that the system has blind spots and that the cameras do not cover all areas of the camp, a claim contrary to other official statements.

    Choulis’s organisation and the legal NGO I Have Rights have also collected testimonies from roughly a dozen individuals who claim they were victims of police brutality in the Samos CCAC beginning in July 2022.

    According to Nikos Phokas, a resident of Leros Island, which houses one of the EU-funded facilities, while the surveillance system has proven incapable of preventing harm on several occasions, the ability it gives officials in Athens to peer into the camps at any moment has shifted dynamics for camp residents, staff and the surrounding communities. “This is the worst thing about this camp – the terror the surveillance creates for people. Everyone watches their backs because of it.”

    He added the surveillance apparatus and the closed nature of the new camp on Leros has forced some camp employees to operate “under the radar” out of fear of being accused of engaging in any behaviour that may be deemed out-of-line by officials in Athens.

    For example, when clothes were needed following an influx of arrivals last summer, camp employees coordinated privately and drove their personal vehicles to retrieve items from local volunteers.

    “In the past, it was more flexible. But now there’s so much surveillance – Athens is looking directly at what’s happening here,” said Catharina Kahane, who headed the NGO ECHO100PLUS on Leros, but was forced to cut down on services because the closed nature of the camp, along with stricter regulations by the Greek migration ministry, made it nearly impossible for her NGO to provide services to asylum seekers.

    Camp staff in one of the island facilities organised a protest to denounce being subjected to the same monitoring and security checks as asylum seekers.

    Residents of the camps have mixed views on the surveillance. Heba*, a Syrian mother of three who lodged an asylum claim in Samos and was waiting out her application, in early October said the cameras and other security measures provided a sense of safety in the camp.

    “What we need more is water and food,” said Mohammed*, a Palestinian asylum seeker who got to Samos in the midst of a recent surge in arrivals that brought the camp’s population to nearly 200% capacity and has led to “inhumane and degrading conditions” for residents, according to NGOs. He was perplexed by the presence of high-tech equipment in a refugee camp that has nearly daily water cuts.

    https://www.computerweekly.com/feature/Greek-data-watchdog-to-rule-on-AI-systems-in-refugee-camps
    #camps_de_réfugiés #surveillance #AI #IA #intelligence_artificielle #Grèce #asile #migrations #réfugiés #camps_de_réfugiés #biométrie #algorithmes

  • La chute du Heron blanc, ou la fuite en avant de l’agence #Frontex

    Sale temps pour Frontex, l’agence européenne de gardes-frontières : après le scandale des pushbacks dans les eaux grecques, qui a fait tomber son ex-directeur, l’un de ses drones longue portée de type Heron 1, au coût faramineux, s’est crashé fin août en mer ionienne. Un accident qui met en lumière la dérive militariste de l’Union européenne pour barricader ses frontières méridionales.

    Jeudi 24 août 2023, un grand oiseau blanc a fait un plongeon fatal dans la mer ionienne, à 70 miles nautiques au large de la Crète. On l’appelait « Heron 1 », et il était encore très jeune puisqu’il n’avait au compteur que 3 000 heures de vol. Son employeur ? Frontex, l’agence européenne de gardes-frontières et de gardes-côtes chargée depuis 2004 de réguler les frontières européennes, avec un budget sans cesse en hausse.

    Le Heron 1 est désigné dans la terminologie barbare du secteur de l’armement comme un drone MALE (Medium Altitude Long Endurance) de quatrième génération, c’est-à-dire un engin automatisé de grande taille capable de voler sur de longues distances. Frontex disposait jusqu’au crash de seulement deux drones Heron 1. Le premier a été commandé en octobre 2020, quand l’agence a signé un contrat de 50 millions d’euros par an avec Airbus pour faire voler cet appareil en « leasing » – Airbus passant ensuite des sous-contrats, notamment avec le constructeur israélien IAISystem
    1
    – pour un total de 2 400 heures de vol, et avec des dépassements qui ont fait monter la facture annuelle. En clair, le coût de fonctionnement de ce drôle d’oiseau est abyssal. Frontex rechigne d’ailleurs à entrer dans les détails, arguant de « données commerciales sensibles », ainsi que l’explique Matthias Monroy, journaliste allemand spécialisé dans l’aéronautique : « Ils ne veulent pas donner les éléments montrant que ces drones valent plus cher que des aéroplanes classiques, alors que cela semble évident. »
    2

    La nouvelle de la chute de l’onéreux volatile n’a pas suscité beaucoup de réactions publiques – il n’en est quasiment pas fait mention dans les médias autres que grecs, hormis sur des sites spécialisés. On en trouve cependant une trace sur le portail numérique du Parlement européen, en date du 29 août 2023. Ce jour-là, Özlem Demirel, députée allemande du parti de gauche Die Linke, pose la question « E-002469/2023 » (une interpellation enregistrée sous le titre : « Crash of a second long-range drone operated on Frontex’s behalf »), dans laquelle elle interroge la fiabilité de ces drones. Elle y rappelle que, déjà en 2020, un coûteux drone longue distance opéré par Frontex s’était crashé en mer – un modèle Hermes 900 cette fois-ci, tout aussi onéreux, bijou de l’israélien Elbit Systems. Et la députée de demander : « Qui est responsable ? »

    Une question complexe. « En charge des investigations, les autorités grecques détermineront qui sera jugé responsable, explique Matthias Monroy. S’il y a eu une défaillance technique, alors IAI System devra sans doute payer. Mais si c’est un problème de communication satellite, comme certains l’ont avancé, ou si c’est une erreur de pilotage, alors ce sera à Airbus, ou plutôt à son assureur, de payer la note. »
    VOL AU-DESSUS D’UN NID D’EMBROUILLES

    Le Heron 1 a la taille d’un grand avion de tourisme – presque un mini-jet. D’une envergure de 17 mètres, censé pouvoir voler en autonomie pendant 24 heures (contre 36 pour le Hermes 900), il est équipé de nombreuses caméras, de dispositifs de vision nocturne, de radars et, semble-t-il, de technologies capables de localiser des téléphones satellites
    3
    . Détail important : n’étant pas automatisé, il est manœuvré par un pilote d’Airbus à distance. S’il est aussi utilisé sur des théâtres de guerre, notamment par les armées allemande et israélienne, où il s’est également montré bien peu fiable
    4
    , sa mission dans le cadre de Frontex relève de la pure surveillance : il s’agit de fournir des informations sur les embarcations de personnes exilées en partance pour l’Europe.

    Frontex disposait de deux drones Heron 1 jusqu’au crash. Airbus était notamment chargé d’assurer le transfert des données recueillies vers le quartier général de Frontex, à Varsovie (Pologne). L’engin qui a fait un fatal plouf se concentrait sur la zone SAR(Search and Rescue
    5
    ) grecque et avait pour port d’attache la Crète. C’est dans cette même zone SAR que Frontex a supervisé plus ou moins directement de nombreux pushbacks (des refoulements maritimes), une pratique illégale pourtant maintes fois documentée, ce qui a provoqué un scandale qui a fini par contraindre le Français Fabrice Leggeri à démissionner de la tête de l’agence fin avril 2022. Il n’est pas interdit de penser que ce Heron 1 a joué en la matière un rôle crucial, fournissant des informations aux gardes-côtes grecs qui, ensuite, refoulaient les embarcations chargées d’exilés.

    Quant à son jumeau, le Heron positionné à Malte, son rôle est encore plus problématique. Il est pourtant similaire à celui qui s’est crashé. « C’est exactement le même type de drone », explique Tamino Bohm, « tactical coordinator » (coordinateur tactique) sur les avions de Sea-Watch, une ONG allemande de secours en mer opérant depuis l’île italienne de Lampedusa. Si ce Heron-là, numéro d’immatriculation AS2132, diffère de son jumeau, c’est au niveau du territoire qu’il couvre : lui survole les zones SAR libyennes, offrant les informations recueillies à ceux que la communauté du secours en mer s’accorde à désigner comme les « soi-disant gardes-côtes libyens »
    6
    – en réalité, des éléments des diverses milices prospérant sur le sol libyen qui se comportent en pirates des mers. Financés en partie par l’Union européenne, ils sont avant tout chargés d’empêcher les embarcations de continuer leur route et de ramener leurs passagers en Libye, où les attendent bien souvent des prisons plus ou moins clandestines, aux conditions de détention infernales
    7
    .

    C’est ainsi qu’au large de Lampedusa se joue une sorte de guerre aérienne informelle. Les drones et les avions de Frontex croisent régulièrement ceux d’ONG telles que Sea-Watch, dans un ballet surréaliste : les premiers cherchant à renseigner les Libyens pour qu’ils arraisonnent les personnes exilées repérées au large ; les seconds s’acharnant avec leurs maigres moyens à documenter et à dénoncer naufrages et refoulements en Libye. Et Tamino d’asséner avec malice : « J’aurais préféré que le drone crashé soit celui opérant depuis Malte. Mais c’est déjà mieux que rien. »
    BUDGET GONFLÉ, MANDAT ÉLARGI

    Tant que l’enquête sur le crash n’aura pas abouti, le vol de drones Heron 1 est suspendu sur le territoire terrestre et maritime relevant des autorités grecques, assure Matthias Monroy (qui ajoute que cette interdiction s’applique également aux deux drones du même modèle que possède l’armée grecque). Le crash de l’un de ses deux Heron 1 est donc une mauvaise nouvelle pour Frontex et les adeptes de la forteresse Europe, déjà bien éprouvés par les arrivées massives à Lampedusa à la mi-septembre et l’hospitalité affichée sur place par les habitants. À l’image de ces murs frontaliers bâtis aux frontières de l’Europe et dans l’espace Schengen – un rapport du Parlement européen, publié en octobre 2022 « Walls and fences at EU borders » (https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2022)733692), précise que l’on en est à 2 035 kilomètres de barrières frontalières, contre 315 en 2014 –, matérialisation d’un coûteux repli identitaire clamant une submersion fantasmée, il est évident que la démesure sécuritaire ne freine en rien les volontés de rejoindre l’Europe.

    Ce ne sont pourtant pas les moyens qui manquent. Lors de sa première année d’opérations, en 2005, Frontex disposait d’un budget de 6 millions d’euros. Depuis, celui-ci n’a cessé d’enfler, pour atteindre la somme de 845,4 millions d’euros en 2023, et un effectif de plus de 2 100 personnels – avec un budget prévisionnel 2021-2027 de 11 milliards d’euros et un objectif de 10 000 gardes d’ici à 2027 (dont 7 000 détachés par les États membres).

    Depuis 2019, Frontex dispose d’un mandat élargi qui autorise l’acquisition et la possession d’avions, de drones et d’armes à feu. L’agence s’est aussi géographiquement démultipliée au fil de temps. Ses effectifs peuvent aussi bien patrouiller dans les eaux de Lampedusa que participer à des missions de surveillance de la frontière serbo-hongroise, alors que son rôle initial était simplement d’assister les pays européens dans la gestion de leurs frontières. L’agence européenne joue aussi un rôle dans la démesure technologique qui se développe aux frontières. Rien que dans les airs, l’agence se veut novatrice : elle a déjà investi plusieurs millions d’euros dans un projet de #zeppelin automatisé relié à un câble de 1 000 mètres, ainsi que dans le développement de drones « #quadcopter » pesant une dizaine de kilos. Enfin, Frontex participe aussi à la collecte généralisée de #données migratoires dans le but d’anticiper les refoulements. Elle soutient même des projets visant à gérer les flux humains par #algorithmes.

    Traversée comme les armées par une culture du secret, l’agence s’est fait une spécialité des zones grises et des partenariats opaques, tout en prenant une place toujours plus importante dans la hausse de la létalité des frontières. « Frontex est devenue l’agent de la #militarisation_des_frontières européennes depuis sa création, résume un rapport de la Fondation Jean-Jaurès sorti en juillet 2023. Fondant son fonctionnement sur l’#analyse_des_risques, Frontex a contribué à la perception des frontières européennes comme d’une forteresse assiégée, liant le trafic de drogue et d’êtres humains à des mouvements migratoires plus larges. »

    « VOUS SURVEILLEZ LES FRONTIÈRES, NOUS VOUS SURVEILLONS »

    Dans sa volonté d’expansion tous azimuts, l’agence se tourne désormais vers l’Afrique, où elle œuvre de manière plus ou moins informelle à la mise en place de politiques d’#externalisation des frontières européennes. Elle pèse notamment de tout son poids pour s’implanter durablement au #Sénégal et en #Mauritanie. « Grâce à l’argent des contribuables européens, le Sénégal a construit depuis 2018 au moins neuf postes-frontières et quatre antennes régionales de la Direction nationale de lutte contre le trafic de migrants. Ces sites sont équipés d’un luxe de #technologies de #surveillance_intrusive : outre la petite mallette noire [contenant un outil d’extraction des données], ce sont des #logiciels d’#identification_biométrique des #empreintes_digitales et de #reconnaissance_faciale, des drones, des #serveurs_numériques, des lunettes de vision nocturne et bien d’autres choses encore », révèle une enquête du journal étatsunien In These Times. Très impopulaire sur le continent, ce type de #néocolonialisme obsidional se déploie de manière informelle. Mais il porte bien la marque de Frontex, agence agrippée à l’obsession de multiplier les murs physiques et virtuels.

    Au Sénégal, pour beaucoup, ça ne passe pas. En août 2022, l’association #Boza_Fii a organisé plusieurs journées de débat intitulées « #Pushback_Frontex », avec pour slogan : « Vous surveillez les frontières, nous vous surveillons ». Une manifestation reconduite en août 2023 avec la mobilisation « 72h Push Back Frontex ». Objectif : contrer les négociations en cours entre l’Union européenne et le Sénégal, tout en appelant « à la dissolution définitive de l’agence européenne de gardes-frontières ». Sur RFI, son porte-parole #Saliou_Diouf expliquait récemment son point de vue : « Nous, on lutte pour la #liberté_de_circulation de tout un chacun. […] Depuis longtemps, il y a beaucoup d’argent qui rentre et est-ce que ça a arrêté les départs ? »

    Cette politique « argent contre muraille » est déployée dans d’autres États africains, comme le #Niger ou le #Soudan. Frontex n’y est pas directement impliquée, mais l’Europe verse des centaines de millions d’euros à 26 pays africains pour que des politiques locales visant à bloquer les migrations soient mises en place.

    « Nous avons besoin d’aide humanitaire, pas d’outils sécuritaires », assure Mbaye Diop, travailleur humanitaire dans un camp de la Croix-Rouge situé à la frontière entre le Sénégal et la Mauritanie, dans l’enquête de In These Times. Un constat qui vaut de l’autre côté de la Méditerranée : dans un tweet publié après le crash du Heron 1, l’ONG Sea-Watch observait qu’avec les 50 millions alloués à Airbus et à ses sous-traitants pour planter son Heron dans les flots, « on pourrait faire voler pendant 25 ans nos avions de secours Seabird 1 et Seabird 2 ».

    https://afriquexxi.info/La-chute-du-Heron-blanc-ou-la-fuite-en-avant-de-l-agence-Frontex

    #drones #Heron_1 #frontières #surveillances_des_frontières #contrôles_frontaliers #migrations #asile #réfugiés #drone_MALE (#Medium_Altitude_Long_Endurance) #crash #Airbus #complexe_militaro-industriel #IAI_System #coût #prix #budget #chute #fiabilité #Hermes_900 #Elbit_Systems #données #push-backs #refoulements #AS2132 #Libye #guerre_aérienne_informelle #biométrie

  • Deux ans après son suicide, les parents de Marie, 15 ans, attaquent TikTok en justice pour « provocation au suicide », « non-assistance à personne en péril » et « propagande ou publicité des moyens de se donner la mort ». Même s’il reste encore peu connu, l’algorithme de TikTok, encore plus que celui d’Instagram, est de plus en plus dénoncé pour ses effets dévastateurs sur la santé mentale des adolescents.

    Un algorithme peut-il tuer ? C’est la question que posent les parents de Marie, 15 ans, qui s’est suicidée en septembre 2021 à Cassis, à la justice française. Dans une plainte déposée début septembre, les parents accusent le réseau social chinois TikTok, coqueluche des adolescents du monde entier, de « provocation au suicide », de « non-assistance à personne en péril » et de « propagande ou publicité des moyens de se donner la mort ». La plainte fait actuellement l’objet d’un examen par le parquet de Toulon.

    Avalanche de vidéos sur le suicide
    Comme six adolescents sur dix, Marie utilisait régulièrement TikTok. En analysant son téléphone après son décès, ses parents ont découvert que leur fille avait publié une vidéo sur le réseau social, dans laquelle elle évoquait son mal-être, le harcèlement qu’elle subissait à cause de son poids, et son envie de suicide. La publication va automatiquement engendrer, sur son compte, l’arrivée d’autres vidéos sur le même thème.

    Le réseau social détenu par l’entreprise chinoise Bytedance s’est taillé un succès fulgurant en à peine cinq ans, avec 1,7 milliard d’utilisateurs actifs par mois, dont 15 millions en France. Parmi eux, 67% ont moins de 24 ans. Son secret ? Le format des vidéos - moins de 8 secondes en moyenne, parfait pour faire défiler les contenus sur son écran sans se lasser - et un algorithme « chimiquement parfait », d’une précision et d’une puissance inégalée, d’après les mots de la chercheuse et sociologue américaine Julie Albright, de l’Université de Californie du Sud.

    Dans son étude, la chercheuse estime que TikTok a trouvé le format parfait, car chaque nouvelle vidéo déclenche une dose de dopamine dans le cerveau, ce qui contribue à créer une addiction au service, qui modifie in fine le temps d’attention des utilisateurs. Effectivement, les deux tiers des adolescents américains passent 80 minutes par jour sur TikTok, soit plus du double que sur n’importe quelle autre application.

    TikTok apparaît également comme « plus rapide que n’importe quelle autre plateforme pour détecter les centres d’intérêts des utilisateurs », ajoute Marc Faddoul, le co-directeur de l’ONG Tracking Exposed, qui travaille sur l’algorithme de TikTok. Dans la section « Pour toi », TikTok pousse des vidéos choisies sur-mesure par l’algorithme et publiées par des personnes que l’utilisateur ne suit pas forcément, sur la base de ce qu’il déduit de ses centres d’intérêts.

    « TikTok identifie les vulnérabilités et capitalise dessus »
    Dans le cas d’une adolescente avec des pensées suicidaires par exemple, il suffit de manifester un intérêt pour le sujet - via une vidéo comme Marie, ou juste des interactions comme un like, un partage, une pause sur une image, un commentaire ou cliquer sur des mots-clés associés -, pour que l’algorithme déduise qu’il s’agit d’un centre d’intérêt et propose davantage de contenus similaires. La précision est telle que l’algorithme déduit parfois des choses dont les utilisateurs n’ont pas encore pleinement conscience, à l’image de cette femme qui a écrit un article intitulé « L’algorithme de TikTok connaît ma sexualité mieux que moi-même ».

    Ainsi, d’après une étude publiée fin 2022 par le Centre de lutte contre la haine numérique, une ONG anglo-saxonne, il a fallu 2,6 minutes à TikTok pour recommander du contenu suicidaire à un profil d’adolescent « vulnérable ». Et 8 minutes pour voir apparaître des vidéos sur des troubles alimentaires pour un autre faux profil créé par les chercheurs. Or, « ces comptes se sont seulement brièvement arrêtés sur des vidéos sur l’image corporelle et la santé mentale, et les ont likés », décrivent les chercheurs, qui considèrent le fonctionnement de l’algorithme de TikTok comme « un cauchemar pour tous les parents ». « Les flux des jeunes sont bombardés de contenus qui peuvent avoir un impact cumulatif significatif sur leur compréhension du monde qui les entoure, et sur leur santé physique et mentale », estiment-ils.

    Et de conclure :
    TikTok identifie la vulnérabilité de l’utilisateur et capitalise dessus. Les comptes vulnérables de notre étude ont reçu 12 fois plus de recommandations de vidéos d’automutilation et de suicide que les comptes standards.

    Quelle responsabilité pour TikTok ?
    Contrairement à l’image largement répandue par la classe politique du « far-west » qui sévirait sur Internet et sur les réseaux sociaux, tout ce qui est interdit dans la vie réelle l’est aussi en ligne. Les plateformes sont obligées d’effectuer une modération stricte des contenus qui tombent manifestement sous le coup de la loi (comme la pédopornographie et la haine en ligne) et de lutter contre les contenus qui tombent dans les zones grises de la liberté d’expression (racisme, sexisme, harcèlement, promotion des troubles alimentaires et du suicide...).

    Mais les plateformes comme Meta (Facebook, Instagram), X (ex-Twitter) ou TikTok utilisent leur statut d’hébergeur, qui ne les rend pas responsables des contenus qu’elles hébergent, pour réguler le moins possible les contenus. La raison est économique : plus les utilisateurs interagissent avec les contenus et passent du temps sur l’application, plus ils disséminent leurs données personnelles, que les plateformes vendent ensuite aux annonceurs pour afficher de la publicité extrêmement personnalisée. De nombreuses études internationales ont prouvé que les contenus les plus problématiques sont aussi ceux qui génèrent l’engagement le plus fort : c’est la fameuse économie de l’attention.

    Toutefois, le Digital Services Act (DSA), entré en vigueur depuis le 25 août 2023, a créé un nouveau régime de responsabilité pour les très grandes plateformes. Ce qui pousse TikTok, par exemple, à verrouiller l’accès à des mots-clés problématiques comme « suicide » ou « pro-ana » (un terme désignant les contenus faisant l’apologie de l’anorexie). Mais le flux de vidéos est tel - des milliards de vidéos circulent sur TikTok et le flux se renouvelle en permanence - que ces initiatives apparaissent moins comme des murailles que comme de simples obstacles assez faciles à contourner.

    Instagram condamné au Royaume-Uni dans une affaire similaire
    De son côté, TikTok revendique une grande réactivité vis-à-vis des contenus qui ne respectent pas ses « règles communautaires ». Les vidéos promouvant le racisme, la haine, le harcèlement ou encore les troubles de l’alimentation, en font partie. « Lorsqu’une vidéo est publiée sur TikTok, son intelligence artificielle analyse chaque partie de la vidéo : l’audio, les légendes et les hashtags. L’objectif est d’aider l’application à mieux comprendre le contexte des vidéos et son contenu. Le réseau social évalue si la vidéo peut plaire, et à qui. Après cette analyse, TikTok vérifie si le contenu est conforme aux règles communautaires et aux règles de sécurité », écrit Victoire Gué, autrice d’une étude sur le fonctionnement de l’algorithme de TikTok à destination des professionnels du marketing, pour Hubspot.

    Mais cette modération paraît toujours clairement insuffisante. Et la justice semble commencer à la reconnaître. En juillet 2022, pour la première fois, un réseau social, Instagram, a été désigné par la justice britannique comme ayant contribué au suicide d’une adolescente de 14 ans, Molly Russell. La jeune fille avait liké, partagé ou sauvegardé plus de 2.100 posts liés au suicide, à l’auto-mutilation ou à la dépression sur Instagram lors des six derniers mois de sa vie.