• La Tribune : Amazon abandonne ses magasins sans caisse... en réalité gérés par des travailleurs indiens à distance Marine Protais

    Le géant du e-commerce, qui opère également des magasins physiques, renonce à sa technologie Just Walk Out dans ses supermarchés Amazon Fresh aux États-Unis. Ce système permet à ses clients de faire leurs emplettes sans passer par l’étape de la caisse. Mais il nécessite des caméras, des capteurs et surtout le travail de 1.000 travailleurs indiens, donnant l’illusion de l’automatisation.


    Pour faire ses courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre ses produits et de sortir. (Crédits : Amazon)

    En 2016, on les annonçait comme le futur du commerce. Plus besoin de caissiers, ni de vigiles, ni même de sortir votre portefeuille. Pour faire vos courses dans les supermarchés Amazon, il suffisait d’entrer, de scanner un QR code sur une application, de prendre vos produits et de sortir. Le montant de vos achats était calculé à la sortie du magasin grâce à un système mêlant caméras et capteurs décrit comme automatique, puis directement débité sur votre carte bancaire.

    Mais nous voici en 2024, et le géant du e-commerce, diversifié dans les magasins physiques, abandonne en partie cette technologie, nous apprend le média américain The Information https://www.theinformation.com/articles/amazons-grocery-stores-to-drop-just-walk-out-checkout-tech . Elle sera supprimée des 27 magasins « Amazon Fresh » américains (des supermarchés où l’on trouve des produits frais), où elle était installée. En guise de remplacement, ces magasins seront équipés de caddies « intelligents », capables de scanner automatiquement les produits, rapporte le média d’investigation américain. L’information a ensuite été confirmée auprès d’AP https://apnews.com/article/amazon-fresh-just-walk-out-bb36bb24803bd56747c6f99814224265 par un porte-parole de l’entreprise. Le système Just Walk Out restera pour le moment dans les plus petites boutiques « Amazon Go », et chez la centaine de partenaires de la firme.

    L’illusion de l’automatisation
    Pour se passer de caissier sur place, le système « Just Walk Out » nécessite son lot de caméras et de capteurs, permettant de suivre le client en magasin, mais surtout d’humains, chargés de vérifier à distance les achats des clients via les caméras. The Information rapporte que plus de 1.000 personnes en Inde sont chargées de ce travail.

    En plus de cette automatisation illusoire, le système « Just Walk Out » faisait depuis quelques années l’objet de critiques. Les clients se plaignent de tickets de caisse reçus des heures après leurs achats, ou de commandes mal gérées par le système. En 2023, la firme avait d’ailleurs annoncé une réorganisation de ses magasins, pour rendre les technologies moins visibles et l’ambiance moins froide. Et le rythme d’ouvertures des enseignes avait été revu à la baisse.

    Par ailleurs, la technologie soulève des questions quant à la protection de la vie privée. Fin 2023, plusieurs consommateurs ont lancé une class action, accusant Amazon de collecter les données biométriques des clients, la forme de leur main et de leur visage ainsi que la tonalité de leur voix, via le système Just Walk Out sans demander leur consentement. Une pratique contraire à une loi de l’Illinois sur le traitement des données biométriques.

    Les entrepôts « automatisés » d’Amazon également surveillés par des travailleurs indiens
    Comme le note le chercheur Antonio Casilli, spécialiste du « travail du clic », cette histoire est banale. Sur X, il rappelle qu’en 2023, Time nous apprenait qu’Alexa, l’assistant virtuel de l’entreprise de Seattle, fonctionnait grâce à l’écoute de 30.000 travailleurs qui annotaient les conversations des utilisateurs pour améliorer les algorithmes gérant l’assistant.

    Et en 2022, The Verge rapportait que les entrepôts automatisés d’Amazon nécessitaient le travail de vigiles, à distance toujours, de travailleurs au Costa-Rica et en Inde, chargés de regarder les images des caméras plus de 40 heures par semaine pour 250 dollars par mois.

    #IA#intelligence_artificielle : #Fumisterie , #arnaque ou #escroquerie ? #amazon #caméras #capteurs #automatisation #technologie #travail #Entrepôts #algorithmes #Alexa

    Source : https://www.latribune.fr/technos-medias/informatique/amazon-abandonne-ses-magasins-sans-caisse-en-realite-geres-par-des-travail

    • Amazon : pourquoi la tech autonome “Just Walk Out” passe à la trappe
      Confirmation sur le blog d’Olivier Dauvers, le web grande conso

      Amazon vient d’annoncer l’abandon de la technologie Just Walk Out dans ses magasins Fresh aux États-Unis (une cinquantaine d’unités dont la moitié sont équipés). Just Walk Out c’est la techno, totalement bluffante, de magasin autonome sans caisses que je vous ai montrée en vidéo dès 2020 (ici) ou encore à Washington et Los Angeles dans de vrais formats de supermarché Whole Foods (ici et là). 

      Des centaines de caméras dopées à l’IA au plafond couplées à des balances sur les étagères permettent de pister l’intégralité du parcours d’achat du client, lequel s’affranchit du passage en caisse. Bluffant (vraiment) je vous dis. 


      un de ces magasins où l’être humain est bani

      Appelons un chat un chat, pour Amazon, ce revirement est un aveu d’échec cuisant. Car la vente de ses technos est au cœur du modèle économique d’Amazon dans le retail physique. Si le groupe lui-même ne parvient pas à prouver la viabilité de Just Walk Out, quel concurrent irait l’acheter ?

      Ce qu’il faut retenir de cet abandon ? Que les technos de magasins autonomes ne sont, pour l’heure, déployables que sur de (très) petits formats bénéficiant d’un flux clients très élevé. Pour des raisons assez évidentes de Capex/m2… mais aussi de supervision humaine. Car, à date, l’IA seule n’est pas en mesure de gérer tous les scénarios de course (dont les tentatives de démarque), obligeant un visionnage de contrôle par l’humain (localisé dans des pays à bas salaire). 

      #techno #échec

      Source : https://www.olivierdauvers.fr/2024/04/04/amazon-pourquoi-la-tech-autonome-just-walk-out-passe-a-la-trappe

  • Discrimination 2.0 : ces algorithmes qui perpétuent le racisme

    L’IA et les systèmes algorithmiques peuvent désavantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. A l’occasion de la Journée internationale pour l’élimination de la discrimination raciale, AlgorithmWatch CH, humanrights.ch et le National Coalition Building Institute NCBI mettent en lumière la manière dont les systèmes automatisés utilisés dans les procédures de recrutement peuvent reproduire les inégalités.

    Les procédures d’embauche sont et ont toujours été caractérisées par une certaine inégalité des chances. Aujourd’hui, les entreprises utilisent souvent des systèmes algorithmiques pour traiter les candidatures, les trier et faire des recommandations pour sélectionner des candidat·e·x·s. Si les départements des ressources humaines des grandes entreprises souhaitent augmenter leur efficacité grâce aux « Applicant Tracking Systems » (ATS), l’utilisation de tels systèmes peut renforcer les stéréotypes discriminatoires ou même en créer de nouveaux. Les personnes issues de l’immigration sont souvent concernées par cette problématique.
    Exemple 1 : un algorithme qui préfère les CV « indigènes »

    Une étude récente menée en Grande-Bretagne a comparé les CV sélectionnés par une personne experte en ressources humaines et ceux qu’un système de recommandation algorithmique avait identifiés comme étant ceux de candidat·e·x·s compétent·e·x·s. La comparaison a montré que les personnes que les recruteur·euse·x·s considéraient comme les meilleur·e·x·s candidat·e·x·s ne faisaient parfois même pas partie de la sélection effectuée par les systèmes basés sur des algorithmes. Ces systèmes ne sont pas capables pas lire tous les formats avec la même efficacité ; aussi les candidatures compétentes ne correspondant pas au format approprié sont-elles automatiquement éliminées. Une étude portant sur un autre système a également permis de constater des différences claires dans l’évaluation des CV. Ainsi, il s’est avéré que le système attribuait davantage de points aux candidatures « indigènes », en l’occurrence britanniques, qu’aux CV internationaux. Les candidat·e·x·s britanniques avaient donc un avantage par rapport aux personnes migrantes ou ayant une origine étrangère pour obtenir une meilleure place dans le classement.
    Exemple 2 : les formations à l’étranger moins bien classées

    En règle générale, les systèmes de recrutement automatisés sont entraînés de manière à éviter l’influence de facteurs tels que le pays d’origine, l’âge ou le sexe sur la sélection. Les candidatures contiennent toutefois également des attributs plus subtils, appelés « proxies » (en français : variables de substitution), qui peuvent indirectement donner des informations sur ces caractéristiques démographiques, par exemple les compétences linguistiques ou encore l’expérience professionnelle ou les études à l’étranger. Ainsi, la même étude a révélé que le fait d’avoir étudié à l’étranger entraînait une baisse des points attribués par le système pour 80% des candidatures. Cela peut conduire à des inégalités de traitement dans le processus de recrutement pour les personnes n’ayant pas grandi ou étudié dans le pays dans lequel le poste est proposé.

    Les critères de sélection de nombreux systèmes de recrutement basés sur les algorithmes utilisés par les entreprises sont souvent totalement opaques. De même, les jeux de données utilisés pour entraîner les algorithmes d’auto-apprentissage se basent généralement sur des données historiques. Si une entreprise a par exemple jusqu’à présent recruté principalement des hommes blancs âgés de 25 à 30 ans, il se peut que l’algorithme « apprenne » sur cette base que de tels profils doivent également être privilégiés pour les nouveaux postes à pourvoir. Ces stéréotypes et effets discriminatoires ne viennent pas de l’algorithme lui-même, mais découlent de structures ancrées dans notre société ; ils peuvent toutefois être répétés, repris et donc renforcés par l’algorithme.

    Ces exemples illustrent la discrimination par les algorithmes de personnes sur la base de leur origine. Les algorithmes discriminent également de nombreux autres groupes de population. En Suisse aussi, de plus en plus d’entreprises font usage d’algorithmes pour leurs processus de recrutement ainsi que sur le lieu de travail.

    Discrimination algorithmique en Suisse : le cadre légal de protection contre la discrimination en Suisse ne protège pas suffisamment contre la discrimination par les systèmes algorithmiques et doit être renforcé. Ce papier de position présente les problématiques liées à la discrimination algorithmique et décrit les moyens d’améliorer la protection contre ce type de discrimination.

    Les algorithmes discriminent également de nombreux autres groupes de population. Dans la série « Discrimination 2.0 : ces algorithmes qui discriminent », AlgorithmWatch CH et humanrights.ch, en collaboration avec d’autres organisations, mettent en lumière divers cas de discrimination algorithmique.

    https://www.humanrights.ch/fr/nouvelles/discrimination-20-algorithmes-perpetuent-racisme
    #discrimination #racisme #algorithme #xénophobie #IA #AI #intelligence_artificielle #travail #recrutement #discrimination_raciale #inégalités #ressources_humaines #Applicant_Tracking_Systems (#ATS) #CV #curriculum_vitae #sélection #tri

    • « L’IA et les systèmes algorithmiques peuvent désavantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. » mais l’ia et les systemes algorithmiques peuvent tout aussi bien avantager des personnes en raison de leur origine, voire conduire à des discriminations raciales sur le marché du travail. La banque mondiale exige déja une discrimination selon les pratiques sexuelles pour favoriser emprunts et subventions !

  • #Wauquiez veut surveiller les #trains et #lycées régionaux avec l’#intelligence_artificielle

    #Laurent_Wauquiez a fait voter le déploiement de la #vidéosurveillance_algorithmique dans tous les lycées et trains d’#Auvergne-Rhône-Alpes, profitant de l’#expérimentation accordée aux #Jeux_olympiques de Paris.

    Laurent Wauquiez savoure. « Nous avions pris position sur la vidéosurveillance pendant la campagne des régionales. Depuis, les esprits ont bougé », sourit le président de la région Auvergne-Rhône-Alpes, en référence à l’expérimentation de la #vidéosurveillance algorithmique (#VSA) accordée dans le cadre des Jeux olympiques de Paris. Surfant sur l’opportunité, il a fait voter jeudi 21 mars en Conseil régional sa propre expérimentation de vidéosurveillance « intelligente » des lycées et des trains d’Auvergne-Rhône-Alpes.

    L’ancien patron des Républicains (LR) justifie cette avancée technosécuritaire par l’assassinat du professeur #Dominique_Bernard dans un lycée d’Arras en octobre. Pour l’élu, cette tragédie « confirme la nécessité de renforcer la #sécurité des lycées ».

    Reste que cette expérimentation n’est pour l’instant pas légale. Laurent Wauquiez va demander au Premier ministre, Gabriel Attal, la permission d’élargir la loi pour couvrir les lycées et les transports régionaux. « L’expérimentation des JO est faite pour tester ce qui sera appliqué. Il faut en profiter », défend Renaud Pfeffer, vice-président délégué à la sécurité de la région Auvergne-Rhône-Alpes.

    Selon la délibération votée par le Conseil régional, cette #technologie qui combine vidéosurveillance et intelligence artificielle peut détecter huit types d’événements prédéterminés : « le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante, un colis abandonné. » Les événements sont ensuite vérifiés par un agent, qui décide des mesures à prendre.

    L’expérimentation doit durer deux ans

    L’exécutif régional promet d’utiliser cette vidéosurveillance algorithmique « sans mettre en œuvre de reconnaissance faciale, ni d’identification de données biométriques [qui permettent d’identifier une personne]. » « On est sur du situationnel, pas sur de l’individu », insiste #Renaud_Pfeffer. Des promesses auxquelles ne croit pas Marne Strazielle, directrice de la communication de l’association de défense des droits et libertés sur internet La Quadrature du net. « En réalité, l’#algorithme identifie des actions qui peuvent être rattachées à son auteur », insiste-t-elle.

    Cette expérimentation est programmée pour durer deux ans dans les trains, #gares, lycées et #cars_scolaires. Les flux vidéos seront examinés au #Centre_régional_de_surveillance_des_transports (#CRST) aménagé en gare de Lyon Part-Dieu. « Les caméras sont prêtes », assure Renaud Pfeffer. Depuis son arrivée à la tête de la Région en 2016, Laurent Wauquiez l’a généreusement équipée en vidéosurveillance : 129 gares sont surveillées par 2 300 caméras, dont les images sont visionnées en temps réel au CRST. 285 lycées, 750 cars et la totalité des rames ferroviaires sont également équipés.

    « L’illusion d’avoir une approche pratique de l’insécurité »

    Pour défendre son projet, l’exécutif régional s’appuie sur la loi du 19 mai 2023, adoptée pour les Jeux olympiques de Paris et qui autorise l’expérimentation à grande échelle de la VSA par la police nationale jusqu’au 31 mars 2025. « On n’a le droit à la sécurité que pendant les Jeux olympiques et que à Paris ? On ne peut pas tester [la VSA] pour nos enfants, contre les problèmes de drogue ? », s’offusque Laurent Wauquiez.

    « Cette technologie permet aux décideurs politiques d’offrir l’illusion d’avoir une approche pratique de l’insécurité car ils mettent en place un dispositif, dénonce Marne Strazielle. Mais ce n’est pas parce qu’on enregistre et détecte une action dans l’espace public qu’elle va moins se produire. Souvent, cela ne fait que déplacer le problème. Il faut faire le travail de comprendre pourquoi elle s’est produite et comment la réduire. »

    La #Commission_nationale_de_l’informatique_et_des_libertés (#Cnil), qui n’a pas été consultée par l’équipe de Laurent Wauquiez, rappelle à Reporterre sa position de principe, qui « considère que la mise en œuvre de caméras augmentées conduit fréquemment à limiter les droits des personnes filmées ». Pour l’autorité administrative indépendante, « le déploiement de ces dispositifs dans les espaces publics, où s’exercent de nombreuses libertés individuelles (liberté d’aller et venir, d’expression, de réunion, droit de manifester, liberté de culte, etc.), présente incontestablement des risques pour les droits et libertés fondamentaux des personnes et la préservation de leur anonymat ».

    https://reporterre.net/Wauquiez-veut-surveiller-les-trains-et-lycees-regionaux-avec-l-intellige
    #surveillance #IA #AI #France #JO #JO_2024

    • La région #AURA vote le déploiement de la VSA dans les gares et les lycées

      Il en rêvait, il l’a fait. Un article de Reporterre nous apprend que Laurent Wauquiez a fait voter jeudi 21 mars en Conseil régional, le déploiement de la vidéosurveillance algorithmique dans tous les lycées et trains d’Auvergne-Rhône-Alpes, profitant de l’expérimentation accordée aux Jeux olympiques de Paris.

      Actuellement 129 gares seraient surveillées par 2 300 caméras, dont les images sont visionnées en temps réel au CRST. 285 lycées, 750 cars et la totalité des rames ferroviaires seraient également équipés.

      Selon la délibération votée par le Conseil régional, l’équipement de ces caméras avec la vidéosurveillance automatisée pourra détecter huit types d’événements prédéterminés : « le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante, un colis abandonné. ». Les événements seront ensuite vérifiés par un agent, qui décidera des mesures à prendre.

      L’exécutif régional promet d’utiliser cette vidéosurveillance algorithmique « sans mettre en œuvre de reconnaissance faciale, ni d’identification de données biométriques [qui permettent d’identifier une personne]. » Cependant, comme l’a très bien démontré la Quadrature du Net, la VSA implique nécessairement une identification biométrique.

      La VSA et la reconnaissance faciale reposent sur les mêmes algorithmes d’analyse d’images, la seule différence est que la première isole et reconnaît des corps, des mouvements ou des objets, lorsque la seconde détecte un visage.

      La VSA est capable de s’intéresser à des « événements » (déplacements rapides, altercations, immobilité prolongée) ou aux traits distinctifs des personnes : une silhouette, un habillement, une démarche, grâce à quoi ils peuvent isoler une personne au sein d’une foule et la suivre tout le long de son déplacement dans la ville. La VSA identifie et analyse donc en permanence des données biométriques.

      « En réalité, l’algorithme identifie des actions qui peuvent être rattachées à son auteur » (Marne Strazielle, directrice de la communication de La Quadrature du net.)

      Ce sont généralement les mêmes entreprises qui développent ces deux technologies. Par exemple, la start-up française Two-I s’est d’abord lancé dans la détection d’émotion, a voulu la tester dans les tramways niçois, avant d’expérimenter la reconnaissance faciale sur des supporters de football à Metz. Finalement, l’entreprise semble se concentrer sur la VSA et en vendre à plusieurs communes de France. La VSA est une technologie biométrique intrinsèquement dangereuse, l’accepter c’est ouvrir la voie aux pires outils de surveillance.
      "Loi J.O. : refusons la surveillance biométrique", La Quadrature du Net

      Cela fait longtemps que M. Wauquiez projette d’équiper massivement cars scolaires et inter-urbains, gares et TER d’Auvergne-Rhône-Alpes en caméras et de connecter le tout à la reconnaissance faciale.

      En juin 2023, nous avions déjà sorti un article sur le sujet, au moment de la signature d’une convention entre la région Auvergne Rhône Alpes, le préfet et la SNCF, autorisant le transfert aux forces de sécurité, des images des caméras de vidéosurveillance de 129 gares sur les quelque 350 que compte la région AURA.

      Depuis fin 2023, il demande également d’utiliser à titre expérimental des "logiciels de reconnaissance faciale" aux abords des lycées pour pouvoir identifier des personnes "suivies pour radicalisation terroriste".

      Une mesure qui a déjà été reconnue comme illégale par la justice, comme l’a rappelé le media Reporterre. En 2019 un projet de mise en place de portiques de reconnaissance faciale à l’entrée de lycées à Nice et Marseille avait été contesté par La Quadrature du net et la LDH. La Commission nationale de l’informatique et des libertés (CNIL), qui avait déjà formulé des recommandations, a rendu à l’époque un avis qui jugeait le dispositif pas nécessaire et disproportionné.

      Mais cela qui n’arrêtera Laurent Wauquiez, celui-ci a déclaré qu’il allait demander au Premier ministre, Gabriel Attal, la permission d’élargir la loi pour couvrir les lycées et les transports régionaux...

      La CNIL, qui n’a pas été consultée par l’équipe de Laurent Wauquiez, a rappelé à Reporterre sa position de principe, qui « considère que la mise en œuvre de caméras augmentées conduit fréquemment à limiter les droits des personnes filmées ».

      Pour elle, « le déploiement de ces dispositifs dans les espaces publics, où s’exercent de nombreuses libertés individuelles (liberté d’aller et venir, d’expression, de réunion, droit de manifester, liberté de culte, etc.), présente incontestablement des risques pour les droits et libertés fondamentaux des personnes et la préservation de leur anonymat ».

      Des dizaines d’organisations, parmi lesquelles Human Rights Watch, ont adressé une lettre publique aux députés, les alertant sur le fait que les nouvelles dispositions créent un précédent inquiétant de surveillance injustifiée et disproportionnée dans les espaces publics, et menacent les droits fondamentaux, tels que le droit à la vie privée, la liberté de réunion et d’association, et le droit à la non-discrimination.

      Résistons à la #VSA et à la technopolice !


      https://halteaucontrolenumerique.fr/?p=5351

  • Importante panne technologique chez McDonald’s AP

    Des pannes de système chez McDonald’s étaient signalées dans le monde entier vendredi, forçant à fermer certains restaurants pendant des heures et entraînant des plaintes de clients sur les réseaux sociaux, dans ce que la chaîne de restauration rapide a appelé une « panne technologique » qui est en cours de réparation.

    McDonald’s Corp, dont le siège est à Chicago, a assuré que les problèmes n’étaient pas liés à une attaque de cybersécurité, sans donner plus de détails sur leur cause.

    “Nous sommes au courant d’une panne technologique qui a affecté nos restaurants ; le problème est en train d’être résolu”, a déclaré le géant du hamburger dans un communiqué. “Nous remercions nos clients pour leur patience et nous nous excusons pour les désagréments que cela a pu causer.”

    Un peu plus tôt, McDonald’s au Japon avait indiqué sur X, anciennement Twitter, que “les opérations sont temporairement interrompues dans un grand nombre de nos magasins à travers le pays”, évoquant une “défaillance du système”.

    Le site Downdetector a également signalé un pic de problèmes avec l’application McDonald’s au cours des dernières heures.

    Panne généralisée dans le monde

    Certains restaurants McDonald’s fonctionnaient à nouveau normalement après la panne, les clients ayant commandé et obtenu leur repas à Bangkok, Milan et Londres.

    Dans un restaurant de Bangkok, la porte était recouverte d’un panneau de contreplaqué portant la mention “les techniciens mettent à jour le système” et s’excusant pour la gêne occasionnée, alors même que les clients pouvaient à nouveau commander et payer numériquement.

    Un porte-parole de McDonald’s au Danemark a annoncé que la “défaillance technologique” avait été résolue et que les restaurants étaient ouverts.

    Un employé d’un restaurant de Milan a indiqué que le système était resté hors ligne pendant quelques heures et qu’un technicien les avait aidés à le remettre en marche.

    Des médias ont rapporté que des clients d’Australie et du Royaume-Uni s’étaient plaints de problèmes de commande, y compris un client australien qui a posté une photo sur X indiquant qu’un kiosque n’était pas disponible.

    “Tous les restaurants McDonald’s sont connectés à un réseau mondial et c’est ce qui a posé problème”, a expliqué Patrik Hjelte, propriétaire de plusieurs restaurants McDonald’s dans le centre de la Suède, près de la frontière norvégienne, au journal local Nya Wermlands Tidning.

    #bug #algorithme #surveillance #technologisme (inutile) #macdo #mcdonald's #malbouffe #junk_food #multinationales

    Source : https://ici.radio-canada.ca/nouvelle/2057443/restauration-mcdonald-panne-bug-informatique-probleme-monde

  • Rénover #Cleveland : démolition, #racisme et #agriculture_urbaine dans l’Amérique abandonnée
    https://metropolitiques.eu/Renover-Cleveland-demolition-racisme-et-agriculture-urbaine-dans-l-A

    Un autre #déclin urbain est-il possible ? Dans leur dernier ouvrage, Max Rousseau et Vincent Béal éclairent les ambiguïtés d’une politique qui organise la décroissance et la #ségrégation raciale de Cleveland, entre management par les algorithmes et verdissement de la ville. Nous sommes dans la #Rust_Belt, dans l’envers méconnu de la première puissance mondiale, l’Amérique qui connait la désurbanisation, marquée par la crise des subprimes, le racisme et la ségrégation. Nous sommes plus précisément à #Commentaires

    / déclin, #désinstrualisation, ségrégation, racisme, agriculture urbaine, #États-Unis, Cleveland, Rust Belt, #algorithme, #démolition, renouvellement (...)

    #renouvellement_urbain
    https://metropolitiques.eu/IMG/pdf/met_calenge-gerardot.pdf

  • Border security with drones and databases

    The EU’s borders are increasingly militarised, with hundreds of millions of euros paid to state agencies and military, security and IT companies for surveillance, patrols and apprehension and detention. This process has massive human cost, and politicians are planning to intensify it.

    Europe is ringed by steel fences topped by barbed wire; patrolled by border agents equipped with thermal vision systems, heartbeat detectors, guns and batons; and watched from the skies by drones, helicopters and planes. Anyone who enters is supposed to have their fingerprints and photograph taken for inclusion in an enormous biometric database. Constant additions to this technological arsenal are under development, backed by generous amounts of public funding. Three decades after the fall of the Berlin Wall, there are more walls than ever at Europe’s borders,[1] and those borders stretch ever further in and out of its territory. This situation is the result of long-term political and corporate efforts to toughen up border surveillance and controls.

    The implications for those travelling to the EU depend on whether they belong to the majority entering in a “regular” manner, with the necessary paperwork and permissions, or are unable to obtain that paperwork, and cross borders irregularly. Those with permission must hand over increasing amounts of personal data. The increasing automation of borders is reliant on the collection of sensitive personal data and the use of algorithms, machine learning and other forms of so-called artificial intelligence to determine whether or not an individual poses a threat.

    Those without permission to enter the EU – a category that includes almost any refugee, with the notable exception of those who hold a Ukrainian passport – are faced with technology, personnel and policies designed to make journeys increasingly difficult, and thus increasingly dangerous. The reliance on smugglers is a result of the insistence on keeping people in need out at any cost – and the cost is substantial. Thousands of people die at Europe’s borders every year, families are separated, and people suffer serious physical and psychological harm as a result of those journeys and subsequent administrative detention and social marginalisation. Yet parties of all political stripes remain committed to the same harmful and dangerous policies – many of which are being worsened through the new Pact on Migration and Asylum.[2]

    The EU’s border agency, Frontex, based in Warsaw, was first set up in 2004 with the aim of providing technical coordination between EU member states’ border guards. Its remit has been gradually expanded. Following the “migration crisis” of 2015 and 2016, extensive new powers were granted to the agency. As the Max Planck Institute has noted, the 2016 law shifted the agency from a playing “support role” to acting as “a player in its own right that fulfils a regulatory, supervisory, and operational role.”[3] New tasks granted to the agency included coordinating deportations of rejected refugees and migrants, data analysis and exchange, border surveillance, and technology research and development. A further legal upgrade in 2019 introduced even more extensive powers, in particular in relation to deportations, and cooperation with and operations in third countries.

    The uniforms, guns and batons wielded by Frontex’s border guards are self-evidently militaristic in nature, as are other aspects of its work: surveillance drones have been acquired from Israeli military companies, and the agency deploys “mobile radars and thermal cameras mounted on vehicles, as well as heartbeat detectors and CO2 monitors used to detect signs of people concealed inside vehicles.”[4] One investigation described the companies that have held lobbying meetings or attended events with Frontex as “a Who’s Who of the weapons industry,” with guests including Airbus, BAE Systems, Leonardo and Thales.[5] The information acquired from the agency’s surveillance and field operations is combined with data provided by EU and third country agencies, and fed into the European Border Surveillance System, EUROSUR. This offers a God’s-eye overview of the situation at Europe’s borders and beyond – the system also claims to provide “pre-frontier situational awareness.”

    The EU and its member states also fund research and development on these technologies. From 2014 to 2022, 49 research projects were provided with a total of almost €275 million to investigate new border technologies, including swarms of autonomous drones for border surveillance, and systems that aim to use artificial intelligence to integrate and analyse data from drones, satellites, cameras, sensors and elsewhere for “analysis of potential threats” and “detection of illegal activities.”[6] Amongst the top recipients of funding have been large research institutes – for example, Germany’s Fraunhofer Institute – but companies such as Leonardo, Smiths Detection, Engineering – Ingegneria Informatica and Veridos have also been significant beneficiaries.[7]

    This is only a tiny fraction of the funds available for strengthening the EU’s border regime. A 2022 study found that between 2015 and 2020, €7.7 billion had been spent on the EU’s borders and “the biggest parts of this budget come from European funding” – that is, the EU’s own budget. The total value of the budgets that provide funds for asylum, migration and border control between 2021-27 comes to over €113 billion[8]. Proposals for the next round of budgets from 2028 until 2035 are likely to be even larger.

    Cooperation between the EU, its member states and third countries on migration control comes in a variety of forms: diplomacy, short and long-term projects, formal agreements and operational deployments. Whatever form it takes, it is frequently extremely harmful. For example, to try to reduce the number of people arriving across the Mediterranean, member states have withdrawn national sea rescue assets (as deployed, for example, in Italy’s Mare Nostrum operation) whilst increasing aerial surveillance, such as that provided by the Israel-produced drones operated by Frontex. This makes it possible to observe refugees attempting to cross the Mediterranean, whilst outsourcing their interception to authorities from countries such as Libya, Tunisia and Egypt.

    This is part of an ongoing plan “to strengthen coordination of search and rescue capacities and border surveillance at sea and land borders” of those countries. [9] Cooperation with Tunisia includes refitting search and rescue vessels and providing vehicles and equipment to the Tunisian coastguard and navy, along with substantial amounts of funding. The agreement with Egypt appears to be structured along similar lines, and five vessels have been provided to the so-called Libyan Coast Guard in 2023.[10]

    Frontex also plays a key role in the EU’s externalised border controls. The 2016 reform allowed Frontex deployments at countries bordering the EU, and the 2019 reform allowed deployments anywhere in the world, subject to agreement with the state in question. There are now EU border guards stationed in Albania, Montenegro, Serbia, Bosnia and Herzegovina, and North Macedonia.[11] The agency is seeking agreements with Niger, Senegal and Morocco, and has recently received visits from Tunisian and Egyptian officials with a view to stepping up cooperation.[12]

    In a recent report for the organisation EuroMed Rights, Antonella Napolitano highlighted “a new element” in the EU’s externalisation strategy: “the use of EU funds – including development aid – to outsource surveillance technologies that are used to entrench political control both on people on the move and local population.” Five means of doing so have been identified: provision of equipment; training; financing operations and procurement; facilitating exports by industry; and promoting legislation that enables surveillance.[13]

    The report highlights Frontex’s extended role which, even without agreements allowing deployments on foreign territory, has seen the agency support the creation of “risk analysis cells” in a number of African states, used to gather and analyse data on migration movements. The EU has also funded intelligence training in Algeria, digital evidence capacity building in Egypt, border control initiatives in Libya, and the provision of surveillance technology to Morocco. The European Ombudsman has found that insufficient attention has been given to the potential human rights impacts of this kind of cooperation.[14]

    While the EU and its member states may provide the funds for the acquisition of new technologies, or the construction of new border control systems, information on the companies that receive the contracts is not necessarily publicly available. Funds awarded to third countries will be spent in accordance with those countries’ procurement rules, which may not be as transparent as those in the EU. Indeed, the acquisition of information on the externalisation in third countries is far from simple, as a Statewatch investigation published in March 2023 found.[15]

    While EU and member state institutions are clearly committed to continuing with plans to strengthen border controls, there is a plethora of organisations, initiatives, campaigns and projects in Europe, Africa and elsewhere that are calling for a different approach. One major opportunity to call for change in the years to come will revolve around proposals for the EU’s new budgets in the 2028-35 period. The European Commission is likely to propose pouring billions more euros into borders – but there are many alternative uses of that money that would be more positive and productive. The challenge will be in creating enough political pressure to make that happen.

    This article was originally published by Welt Sichten, and is based upon the Statewatch/EuroMed Rights report Europe’s techno-borders.

    Notes

    [1] https://www.tni.org/en/publication/building-walls

    [2] https://www.statewatch.org/news/2023/december/tracking-the-pact-human-rights-disaster-in-the-works-as-parliament-makes

    [3] https://www.mpg.de/14588889/frontex

    [4] https://www.theguardian.com/global-development/2021/dec/06/fortress-europe-the-millions-spent-on-military-grade-tech-to-deter-refu

    [5] https://frontexfiles.eu/en.html

    [6] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [7] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [8] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [9] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-

    [10] https://www.statewatch.org/media/4103/eu-com-von-der-leyen-ec-letter-annex-10-23.pdf

    [11] https://www.statewatch.org/analyses/2021/briefing-external-action-frontex-operations-outside-the-eu

    [12] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-, https://www.statewatch.org/publications/events/secrecy-and-the-externalisation-of-eu-migration-control

    [13] https://privacyinternational.org/challenging-drivers-surveillance

    [14] https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf

    [15] https://www.statewatch.org/access-denied-secrecy-and-the-externalisation-of-eu-migration-control

    https://www.statewatch.org/analyses/2024/border-security-with-drones-and-databases
    #frontières #militarisation_des_frontières #technologie #données #bases_de_données #drones #complexe_militaro-industriel #migrations #réfugiés #contrôles_frontaliers #surveillance #sécurité_frontalière #biométrie #données_biométriques #intelligence_artificielle #algorithmes #smugglers #passeurs #Frontex #Airbus #BAE_Systems #Leonardo #Thales #EUROSUR #coût #business #prix #Smiths_Detection #Fraunhofer_Institute #Engineering_Ingegneria_Informatica #informatique #Tunisie #gardes-côtes_tunisiens #Albanie #Monténégro #Serbie #Bosnie-Herzégovine #Macédoine_du_Nord #Egypte #externalisation #développement #aide_au_développement #coopération_au_développement #Algérie #Libye #Maroc #Afrique_du_Nord

  • Médicaments non délivrés, devis et facturation en panne… Une cyberattaque perturbe sérieusement le système de santé aux États-Unis Ingrid Vergara

    La cyberattaque d’une filiale de la plus importante compagnie d’assurance-santé américaine tourne à la crise d’ampleur aux États-Unis. Victime d’un rançongiciel qui affecte une de ses divisions depuis le 21 février, le groupe UnitedHealthcare n’est plus en mesure d’assurer de nombreuses tâches nécessaires au bon fonctionnement du système de santé. Des médecins qui ne peuvent plus savoir si un patient bénéficie ou non d’une assurance-santé, des pharmacies incapables de transmettre les demandes de remboursement de patients, des factures d’hôpitaux non réglées, des retards dans les délivrances d’ordonnances de médicaments…

    Les réactions en chaîne s’étendent et s’aggravent au fur et à mesure que les jours passent. Car UnitedHealthcare est la plus grande plateforme d’échange de paiements entre médecins, pharmacies, prestataires de soins de santé et patients du système de santé américain. Sa filiale Change gère la facturation de quelque 67.000 pharmacies, . . . . .

    #Santé #internet #sécurité_informatique #cyberattaques #cybersécurité #malware #usa #UnitedHealthcare #algorithme #juste_à_temps #dématérialisation #intelligence_artificielle #artificial-intelligence #blockchain #IA

    Source et suite (payante) : https://www.lefigaro.fr/secteur/high-tech/medicaments-non-delivres-devis-et-facturation-en-panne-une-cyberattaque-per

  • Une brève histoire de l’évolution des recommandations algorithmiques

    –> Il y a d’abord la première génération de la recommandation, celle des recommandations sommaires qui associent un produit à un autre.
    Sur les réseaux sociaux, la logique consiste à s’abonner aux gens qui nous intéressent pour être notifié de ce qu’ils ont publiés. C’est ce que l’on peut appeler l’âge de la souscription et le modèle des recommandations simples (2000-2010).

    –> Dans le modèle en réseau qui lui succède, la propagation d’un message ne dépend plus seulement des personnes auxquelles vous êtes abonnées, mais est amplifiée ou rétrogradée par les effets de réseaux. Plus un message est relayé, plus il est amplifié. Ce sont les réactions des autres qui structurent la recommandation. Les contenus sont scorés selon l’intérêt des utilisateurs et la viralité. C’est l’âge du réseau et du modèle des propagations (2010-2016).

    –> Avec la montée en puissance du machine learning, les recommandations se complexifient et prennent en compte de + en + de critères. La recommandation se base sur la similarité : on vous recommande ce qui a plu à des gens qui vous sont similaires parce qu’ils ont les mêmes comportements que vous sur les réseaux. C’est l’âge algorithmique et le modèle de la similarité (2016-2021) qui rendra les grandes plateformes de la recommandation incontournables.

    –> Mais, la recherche d’un engagement optimal ou idéal s’effondre. Confrontées à leurs effets (l’assaut du capitole en est le symbole), les plateformes dégradent volontairement la performance de certaines recommandations, comme l’information ou les hyperliens. Elles assument être à la recherche de leur rentabilité, et se mettent à amplifier leur modèle commercial, notamment la publicité, jusqu’à s’y noyer. C’est ce que l’on peut appeler l’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial (depuis 2021…).

    Un âge du cynisme dans lequel, faute de régulation pertinente, nous risquons d’être coincés un moment ! J’en parle plus longuement par ici : https://hubertguillaud.wordpress.com/2024/02/20/une-breve-histoire-de-levolution-des-recommandations-algor
    #algorithmes #recommandation

    • La construction des prix à la SNCF, une socio-histoire de la tarification. De la #péréquation au yield management (1938-2012)

      Cet article analyse les conditions de production et de légitimation des systèmes de prix des billets de train en France, depuis la création de la SNCF en 1938. Initialement fondé sur le principe d’un tarif kilométrique uniforme, le système historique de péréquation est lentement abandonné au cours des décennies d’après-guerre, au profit d’une tarification indexée sur les coûts marginaux. Au tournant des années 1980-1990, ce paradigme est lui-même remplacé par un dispositif de tarification en temps réel – le yield management – visant à capter le maximum du surplus des consommateurs. Les transformations des modèles tarifaires à la SNCF, qui s’accompagnent d’une redéfinition de la notion éminemment polymorphe de service public ferroviaire, résultent du travail de quelques acteurs de premier plan. Ces « faiseurs de prix », qui mobilisent les instruments de la discipline économique et usent de leur capacité d’influence, agissent dans des contextes (politiques, sociaux, techniques et concurrentiels) particuliers, qui rendent possibles, nécessaires et légitimes les innovations qu’ils proposent.

      https://www.cairn.info/revue-francaise-de-sociologie-2014-1-page-5.htm

      #Jean_Finez

    • Noël : est-ce vraiment moins cher de réserver son train SNCF 3 mois à l’avance ?

      C’est un fait : les tarifs des trajets en train pour la période de Noël ont explosé entre octobre et fin décembre 2023. Nous avons suivi, semaine après semaine, leur évolution. Voici les résultats, parfois surprenants, de notre enquête.

      « Plus on réserve un train à l’avance, plus les prix sont bas. » La phrase de la SNCF semble logique. Mais est-elle vérifiée ? À l’approche des fêtes de Noël, nous avons décidé de nous lancer dans une petite enquête. Numerama a relevé les tarifs d’une vingtaine de trajets en train à travers la France, sur les douze dernières semaines, pour en mesurer l’évolution.

      Nous avions une question principale : est-ce vrai qu’il vaut mieux réserver son billet de train trois mois à l’avance, pour le payer moins cher ? Suivie d’une autre : comment les tarifs évoluent-ils à travers le temps, et à quel rythme les trains deviennent-ils complets ?

      Nous avons choisi arbitrairement dix allers-retours à travers la France. La date est toujours la même, pour simuler un voyage pour les fêtes de fin d’année : un aller le 22 décembre, un retour le 27 décembre. Nous avons choisi un train par jour et suivi l’évolution du tarif des billets chaque semaine, à compter du mercredi 4 octobre, soit la date de l’ouverture des ventes (qui avaient d’ailleurs mis en panne SNCF Connect).
      Prendre ses billets tôt pour Noël permet d’éviter le pire

      Après douze semaines de relevés et une agrégation des données, le premier constat est clair : les tarifs ont énormément augmenté sur cette période. Il est évident que, même s’il y a des exceptions, il reste très intéressant de prendre son billet le plus tôt possible. C’est d’ailleurs ce que la SNCF nous a confirmé, par mail : « Plus on réserve à l’avance, plus les prix sont bas. Le mieux est donc de réserver dès l’ouverture des ventes, ou alors dans les semaines qui suivent. »

      Sur ce graphique, nous avons matérialisé la hausse de tous les trajets confondus. À part une ou deux exceptions (en TER), tous les billets ont augmenté, parfois beaucoup. Certains trajets se sont retrouvés complets très vite — nous les avons matérialisés avec un petit rond barré sur le graphique ci-dessous.

      Les prix peuvent parfois varier du simple au double. Le trajet Nantes-Bordeaux, par exemple, est passé de 58 euros à 136 euros (dernières places en première classe), soit une augmentation de 164 %. Un Strasbourg-Paris a terminé à 153 euros, au lieu de 93 euros il y a trois mois.

      Des hausses de prix jusqu’à 150 %

      Au global, les TGV sont les trains qui subissent les plus grosses hausses à travers le temps, sauf quelques exceptions (Marseille-Nice n’a pas changé d’un iota au fil des 12 semaines, par exemple).

      Sur cette carte réalisée par l’équipe design de Numerama, Adèle Foehrenbacher et Claire Braikeh, on observe quels sont les trajets qui ont subi la plus forte hausse (en rouge foncé), par rapport à ceux qui n’ont pas beaucoup bougé sur 3 mois (en rose).

      Pour les retours de Noël sur la journée du 27 décembre, les trajets les plus onéreux sont les mêmes (Paris-Toulouse, Paris-Strasbourg, Nantes-Bordeaux).

      Certains billets sont moins chers quelques jours avant le départ

      Lorsque nous avons commencé cette enquête, nous nous sommes demandé s’il serait possible qu’un billet devienne moins cher à l’approche de la date du voyage, ce qui est plutôt contre-intuitif. Une occurrence est venue, sur la dernière semaine, être l’exception qui confirme la règle : le trajet Paris-La Rochelle (en jaune ci-dessous) est devenu, au dernier moment, moins cher à l’approche du voyage, par rapport au tarif d’il y a trois mois.

      Autre cas curieux : nous avons constaté au fil des semaines une variation à la baisse sur le trajet Nancy-Grenoble, avec une correspondance. « Ce phénomène est extrêmement rare », nous assure la SNCF. « Nancy-Grenoble n’est pas un train direct. Il se peut que l’un des deux trains se remplissent moins vite et que des petits prix aient été rajoutés à un moment donné », explique-t-on. Le voyage a fini par augmenter de nouveau, pour devenir complet deux semaines avant le départ.

      Le trajet n’est pourtant pas le seul exemple. Prenons le trajet en TER et Train NOMAD Caen-Le Havre. Le 4 octobre, le voyage revenait à 38,4 euros. Surprise ! Dès la semaine suivante, il est tombé à 18 euros, pour rester fixe pendant plusieurs mois. Jusqu’au 13 décembre, où le prix a re-grimpé jusqu’à 48 euros — l’horaire du train de départ ayant été modifié de quelques minutes. Ici, ce n’est pas la SNCF, mais les conseils régionaux qui valident les prix. Par mail, l’établissement régional des lignes normandes nous assure que « la baisse des prix 15 jours après l’ouverture des ventes est impossible ». C’est pourtant le constat que nous avons fait, dès une semaine après l’ouverture.

      Pourquoi de telles hausses ?

      Cela fait plusieurs années que la SNCF a commencé à modifier la manière dont elle décide des tarifs, selon le journaliste spécialisé Gilles Dansart. La compagnie aurait décidé de « faire payer beaucoup plus cher à mesure que l’on s’approche de la date de départ du train », alors qu’auparavant, elle se calquait sur la longueur des kilomètres parcourus pour étalonner ses prix, a-t-il analysé sur France Culture le 21 décembre.

      Contactée, la SNCF nous explique : « Les prix sont les mêmes que pour n’importe quelles dates. Il n’y a pas de prix spécifiques pour Noël. Ce qui fait évoluer les prix, c’est le taux de remplissage et la demande. À Noël les trains se remplissent plus vite et les paliers maximum peuvent être atteints plus rapidement. »

      Ces paliers sont un véritable enjeu, lorsque l’on voit que certains trajets se retrouvent complets très rapidement — le Paris-Toulouse du 22 décembre s’est en effet retrouvé complet, selon nos constats, en à peine une semaine, début octobre.

      En 10 ans, la SNCF a perdu 105 TGV, soit 30 000 sièges, a calculé récemment France 2 dans un reportage. « On n’arrivait plus à remplir les TGV, il y avait des taux d’occupation à moins de 60 % », a expliqué à leur micro Christophe Fanichet, directeur général de SNCF Voyageurs.

      Cette politique de financement de la SNCF ne va pas aller en s’arrangeant pour les voyageurs et voyageuses : l’entreprise a déjà entériné une augmentation du prix des TGV pour 2024, rappelle le Parisien.

      https://www.numerama.com/vroom/1593454-noel-est-ce-vraiment-moins-cher-de-reserver-son-train-3-mois-a-lav

    • Mais on sait que l’investissement sur l’infra était sous dimensionnée autour de 2005, donc voir monter les coûts de péages de l’infra n’a rien d’anormal.
      Nos voisins sont-ils sous le prix réel ? Alors il vont subir un effet boomerang plus tard (effet dette).

  • Why Eating Disorder Content Keeps Spreading on Platforms Like TikTok - The New York Times
    https://www.nytimes.com/2024/02/06/well/move/tiktok-legging-legs-eating-disorders.html?campaign_id=2&emc=edit_th_2024020

    Talya Minsberg

    By Talya Minsberg
    Feb. 6, 2024

    In late January, a volunteer at the help line for the National Alliance for Eating Disorders fielded a call from someone who had seen an alarming trend on TikTok. The hashtag #legginglegs had started taking off as users posted about the slim bodies seemingly deemed the most desirable for leggings.

    The organization, which works directly with social media companies including TikTok, Meta and Pinterest, quickly flagged the trend to TikTok. Less than a day later, the platform banned the hashtag and began directing users who searched for it toward the organization’s hotline and other resources.

    Trends like “legging legs” are part of a long history of harmful body image content that has proliferated online since the early days of the internet. “The minute they ban one hashtag, another one will pop up,” said Amanda Raffoul, an instructor at Harvard Medical School and Boston Children’s Hospital who studies eating disorders. But she and other eating disorder experts said that the evolution of social media platforms has presented an even more vexing issue: how to approach algorithms that build on a user’s interests to curate a feed that can quickly turn dangerous for people who are particularly vulnerable.

    For example, if a teenager searched for healthy snack ideas or interacted with certain cooking posts, a platform may then serve videos about low-calorie foods. That may signal an interest in weight loss — and soon, that teenager might see advice for restricting snacks or tips for crash diets. A user’s feed could then be filled with posts supporting unhealthy behaviors, or celebrating one body type over others.

    “I don’t think we are in a space where we can ignore the harms that can be happening in the algorithm,” said Johanna Kandel, the chief executive officer of the National Alliance for Eating Disorders. “The fact is that individuals can start a journey of health and wellness and within a few minutes can be served content that is extremely unhealthy for them.”

    #TikTok #Apparence_corporelle #Santé_publique #Algorithme

  • Le coût du travail humain reste généralement inférieur à celui de l’IA, d’après le MIT FashionNetwork.com ( Bloomberg )

    Pour le moment, employer des humains reste plus économique que de recourir à l’intelligence artificielle pour la majorité des emplois. C’est en tout cas ce qu’affirme une étude menée par le Massachusetts Institute of Technology, alors que bon nombre de secteurs se sentent menacés par les progrès faits par l’IA.

    Il s’agit de l’une des premières études approfondies réalisées à ce sujet. Les chercheurs ont établi des modèles économiques permettant de calculer l’attractivité de l’automatisation de diverses tâches aux États-Unis, en se concentrant sur des postes “digitalisables“, comme l’enseignement ou l’intermédiation immobilière.

    Source : https://fr.fashionnetwork.com/news/premiumContent,1597548.html

    #ia #intelligence_artificielle #algorithme #surveillance #ai #google #technologie #facebook #technologisme #travail #biométrie #bigdata #coût #MIT

  • Et si les #réseaux sociaux devenaient une chance pour nos #démocraties ? @AnneAlombert @jeancattan
    https://theconversation.com/et-si-les-reseaux-sociaux-devenaient-une-chance-pour-nos-democratie

    **Reprendre la main sur les algorithmes**

    C’est pour orienter les réseaux sociaux vers des architectures permettant de créer des espaces de débat, d’apprentissage, d’échanges et de coopération que nous devons agir en premier lieu, avant même de nous intéresser à la modération des contenus qui y circulent. Le règlement européen sur les services numériques le permet en théorie, mais il faudra que la Commission européenne se mobilise en ce sens. Ce qui n’est pas le cas aujourd’hui. Jusqu’à présent, le débat a bien plus porté sur le nombre de modérateurs de tel ou tel réseau ou le nombre de contenus retirés que sur la structure des réseaux sociaux en elle-même. Ce qui risque surtout de nous épuiser pour un résultat très relatif.

    Pour nous assurer que les réseaux servent une société démocratique où le débat, la construction collective et l’écoute sont privilégiés, nous devrions nous préoccuper de la manière dont les infrastructures numériques sont conçues, développées et financées. Comme les réseaux sociaux dominants sont structurellement fondés sur l’économie de l’attention, l’enfermement de leurs utilisateurs et l’amplification des contenus polémiques et choquants, nous devrions aussi décider de ne plus laisser aux mains du seul réseau social, c’est-à-dire d’une entreprise privée, le monopole de déterminer le flux algorithmique, soit le choix des contenus apparaissant sur nos fils d’actualités.

    Une telle proposition est une exigence minimale pour tendre vers une plus grande réappropriation des réseaux sociaux par les utilisateurs. Elle a d’ailleurs déjà été faite sous diverses formes, que ce soit par des spécialistes du numérique, la Comission nationale consultative des droits de l’homme (CNCDH), des #journalistes ou des #chercheurs. Ainsi, il s’agit non plus seulement de forcer la plate-forme à accentuer tel ou tel paramètre de leur #algorithme mais de contester le fait que la recommandation soit le seul fait de la plate-forme.

    Pour justifier ce principe, nous pouvons nous demander si une fois une taille critique et une certaine concentration du marché atteintes, il est bien légitime de laisser uniquement à des entreprises privées le soin de décider ce qui doit être vu ou ce qui doit être invisibilisé dans l’espace médiatique numérique. Quand bien même certains d’entre nous souhaiteraient s’abandonner aux algorithmes de #TikTok ou de #Twitter, pourquoi tout un chacun devrait-il s’y plier ? Est-ce à un acteur unique de déterminer les critères en fonction desquels les contenus apparaissent ou disparaissent de nos écrans ?

  • Le #règlement européen sur l’IA n’interdira pas la #surveillance_biométrique de masse

    Le 8 décembre 2023, les législateurs de l’#Union_européenne se sont félicités d’être parvenus à un accord sur la proposition de #règlement tant attendue relative l’intelligence artificielle (« #règlement_IA »). Les principaux parlementaires avaient alors assuré à leurs collègues qu’ils avaient réussi à inscrire de solides protections aux #droits_humains dans le texte, notamment en excluant la #surveillance_biométrique_de_masse (#SBM).

    Pourtant, malgré les annonces des décideurs européens faites alors, le règlement IA n’interdira pas la grande majorité des pratiques dangereuses liées à la surveillance biométrique de masse. Au contraire, elle définit, pour la première fois dans l’#UE, des conditions d’utilisation licites de ces systèmes. Les eurodéputés et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.

    L’UE entre dans l’histoire – pour de mauvaises raisons

    La coalition #Reclaim_Your_Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquées de par leur conception, et qu’elles n’ont pas leur place dans une société démocratique. La police et les autorités publiques disposent déjà d’un grand nombre de données sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos #visages et nos #corps sur simple pression d’un bouton.

    Pourtant, malgré une position de négociation forte de la part du Parlement européen qui demandait l’interdiction de la plupart des pratiques de SBM, très peu de choses avaient survécu aux négociations du règlement relatif à l’IA. Sous la pression des représentants des #forces_de_l’ordre, le Parlement a été contraint d’accepter des limitations particulièrement faibles autour des pratiques intrusives en matière de SBM.

    L’une des rares garanties en la matière ayant apparemment survécu aux négociations – une restriction sur l’utilisation de la #reconnaissance_faciale a posteriori [par opposition à l’utilisation en temps réel] – a depuis été vidée de sa substance lors de discussions ultérieures dites « techniques » qui se sont tenues ces dernière semaines.

    Malgré les promesses des représentants espagnols en charge des négociations, qui juraient que rien de substantiel ne changerait après le 8 décembre, cette édulcoration des protections contre la reconnaissance faciale a posteriori est une nouvelle déception dans notre lutte contre la #société_de_surveillance.

    Quel est le contenu de l’accord ?

    D’après ce que nous avons pu voir du texte final, le règlement IA est une occasion manquée de protéger les #libertés_publiques. Nos droits de participer à une #manifestation, d’accéder à des soins de #santé_reproductive ou même de nous asseoir sur un #banc pourraient ainsi être menacés par une surveillance biométrique omniprésente de l’#espace_public. Les restrictions à l’utilisation de la reconnaissance faciale en temps réel et a posteriori prévues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privées ni aux autorités administratives.

    Nous sommes également déçus de voir qu’en matière de « #reconnaissance_des_émotions » et les pratiques de #catégorisation_biométrique, seuls des cas d’utilisation très limités sont interdits dans le texte final, avec d’énormes lacunes.

    Cela signifie que le règlement IA autorisera de nombreuses formes de reconnaissance des émotions – telles que l’utilisation par la police de systèmes d’IA pour évaluer qui dit ou ne dit pas la #vérité – bien que ces systèmes ne reposent sur aucune base scientifique crédible. Si elle est adoptée sous cette forme, le règlement IA légitimera une pratique qui, tout au long de l’histoire, a partie liée à l’#eugénisme.

    Le texte final prévoit également d’autoriser la police à classer les personnes filmées par les caméras de #vidéosurveillance en fonction de leur #couleur_de_peau. Il est difficile de comprendre comment cela peut être autorisé étant donné que la législation européenne interdit normalement toute #discrimination. Il semble cependant que, lorsqu’elle est pratiquée par une machine, les législateurs considèrent de telles #discriminations comme acceptables.

    Une seule chose positive était ressorti des travaux techniques menés à la suite des négociations finales du mois de décembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait à la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face » ait réclamé des règles encore plus strictes en la matière, cela constituait un progrès significatif par rapport à la situation actuelle, caractérisée par un recours massif à ces pratiques par les États membres de l’UE.

    Il s’agissait d’une victoire pour le Parlement européen, dans un contexte où tant de largesses sont concédées à la surveillance biométrique. Or, les négociations menées ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement à accepter de supprimer cette limitation aux #crimes_transfrontaliers graves tout en affaiblissant les garanties qui subsistent. Désormais, un vague lien avec la « #menace » d’un crime pourrait suffire à justifier l’utilisation de la #reconnaissance_faciale_rétrospective dans les espaces publics.

    Il semblerait que ce soit la #France qui ait mené l’offensive visant à faire passer au rouleau compresseur notre droit à être protégés contre les abus de nos données biométriques. À l’approche des #Jeux_olympiques et paralympiques qui se tiendront à Paris cet été, la France s’est battue pour préserver ou étendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systèmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux négociateurs du Parlement n’ont pas réussi à la contrer dans cette démarche.

    En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous #surveillance_algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.

    https://www.laquadrature.net/2024/01/19/le-reglement-europeen-sur-lia-ninterdira-pas-la-surveillance-biometriq
    #surveillance_de_masse #surveillance #intelligence_artificielle #AI #IA #algorithme

    voir aussi :
    https://seenthis.net/messages/1037288

  • Notation des allocataires : face aux faits, la CAF s’enferme dans le déni et la mauvaise foi
    https://www.laquadrature.net/2024/01/11/notation-des-allocataires-face-aux-faits-la-caf-senferme-dans-le-deni-

    Retrouvez l’ensemble de nos travaux sur l’utilisation par les administrations sociales d’algorithmes de notations sur notre page dédiée et notre Gitlab. « Nous n’avons pas à rougir ou à nous excuser ». Voilà comment le directeur de la…

    #Surveillance

  • Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète

    Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.

    La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.

    A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.

    Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.

    Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.

    La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.

    #Reconnaissance_faciale

    Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.

    Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.

    Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.

    A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.

    « Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.

    « Des progrès dans de nombreux domaines »

    L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.

    La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.

    Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).

    A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».

    Des « systèmes susceptibles de modifier votre #comportement »

    Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.

    La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »

    Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »

    Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.

    Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.

    https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
    #vidéosurveillance #AI #IA #caméras_de_vidéosurveillance

  • « L’algorithme de la #CAF conduit à un surcontrôle des populations les plus précaires » | Alternatives Economiques
    https://www.alternatives-economiques.fr/lalgorithme-de-caf-conduit-a-un-surcontrole-populations-plus-pr/00109069

    Fin novembre et début décembre, l’association La Quadrature du Net et le journal Le Monde ont chacun fait paraître une enquête sur l’utilisation du data mining (l’exploration de données) par les caisses d’allocations familiales (CAF), pour détecter les indus et les fraudes. Les deux enquêtes montrent que ce système, qui permet de scanner des milliers de données de 32 millions de personnes (les allocataires et leurs proches) et sur la base duquel sont déclenchés les contrôles, cible les plus pauvres, notamment les mères isolées.

    L’algorithme utilisé attribue un score de risque aux allocataires allant de 0 à 1. Plus on est proche de 1, plus on est exposé à la probabilité d’un contrôle. Parmi les critères pénalisants, le fait d’avoir changé de loyer plus de quatre fois en un an et demi, d’avoir un enfant à charge de 19 ans ou plus, ou encore de déclarer chaque trimestre ses ressources pour percevoir l’allocation adulte handicapé (AAH).

    • on sait _qui_ à pondu ledit algorithme, sur ordre de qui, et selon les specification de qui ? ou c’est secret défense ? (voire, secret défonce)

    • #Notation des allocataires : fébrile, la CAF s’enferme dans l’#opacité

      Alors que la contestation monte (voir ici, ici, ici ou ici) concernant son algorithme de notation des allocataires à des fins de #contrôle_social, la CAF choisit de se réfugier dans l’opacité tout en adaptant, maladroitement, sa politique de communication. Suite à son refus de communiquer le code source de son algorithme, nous avons saisi la Commission d’Accès aux Documents Administratifs (CADA).

      Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de #profilage attribuant à chaque allocataire une note ou « #score_de_risque ». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.

      Cet algorithme symbolise l’étendue des #dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de #tri et d’#évaluation continue de chacun de nos faits et gestes.

      Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.

      Pour en avoir le coeur net, nous avons donc demandé à la CAF de nous communiquer le #code source de son algorithme1. Et sa réponse est affligeante2.

      Sortir de la précarité pour “tromper l’algorithme”

      Si la CAF a bien accepté de nous communiquer le code de l’algorithme… ce n’est qu’après avoir masqué la quasi-totalité des noms des variables comme on peut le voir sur l’illustration de cet article, qui est une photo de ce que la CAF nous a répondu.

      En d’autres termes, le fichier fourni nous permet simplement d’apprendre combien de #critères sont utilisés pour le calcul de la note des allocataires. Rien de plus. Ce qui n’empêche pas la CAF de préciser dans son courrier qu’elle espère que sa communication nous « permettra de comprendre le modèle »3.

      Les responsables de la CAF ont toutefois tenu à justifier le caviardage du fichier. Ces dernier·es précisent que le #code_source a été « expurgé des mentions qui, si elles étaient communiquées, pourraient donner des indications aux fraudeurs pour tromper l’algorithme »4. Et pour être tout à fait honnête, nous n’étions pas préparé·es à cette réponse.

      La CAF croit-elle vraiment que les critères liés à la #précarité (situation professionnelle instable, faibles revenus, logement situé dans un quartier défavorisé…) pourraient être modifiés par la seule volonté de l’allocataire ? Qu’afin d’augmenter leur note et de « flouer » l’algorithme, des millions d’allocataires pourraient décider, d’un coup, de sortir de la pauvreté ?

      Ce raisonnement frise l’#absurdité. A vrai dire, il est méprisant et insultant pour celles et ceux vivant des situations difficiles.

      Pire, le secrétaire général de la CAF entretient publiquement la confusion entre #fraudes et #erreurs de déclarations involontaires, prenant ainsi le risque de stigmatiser les personnes ciblées par l’algorithme, et ce, dans le seul but de justifier l’opacité de son institution.

      En réponse à un journaliste de Radio France5 l’interrogeant sur la réponse de la CAF à notre demande, il l’expliquait en disant qu’« il y a un certain nombre de données dont on pense que, si elles sont connues, peuvent nourrir des stratégies de contournement de personnes dont le but c’est de frauder le système ». Et d’ajouter : « Il faut que l’on ait un coup d’avance ».

      Faut-il donc lui rappeler que l’algorithme de la CAF n’est pas entraîné à détecter les fraudes mais les erreurs de déclaration, par définition involontaires6. Et que sa réponse pourrait donc être reformulée ainsi : « Nous ne communiquerons pas le code de l’algorithme de peur que les allocataires arrêtent de faire des erreurs ».

      De notre point de vue, cette réponse révèle l’ampleur de l’embarras des responsables de la CAF vis-à-vis de leur algorithme. Ils et elles ont peut-être en tête le scandale entourant un algorithme, en tout point similaire, de notation des allocataires ayant été utilisé aux Pays-Bas et dont les suites ont amené à la démission du gouvernement7 ?

      #Déni_de_justice

      Pire, cette opacité est aussi appliquée, à l’échelle individuelle, aux allocataires ayant été séléctionné·es par l’algorithme pour être controlé·es et qui chercheraient à obtenir des informations sur la raison de ce contrôle. Et ce, alors même que la loi prévoit que tout individu ayant fait l’objet d’une décision prise sur le fondement d’un traitement algorithmique (ici le fait d’être contrôlé) a le droit de connaître les données utilisées ainsi que les #paramètres de cet algorithme8. Ce qui signifie que les personnes ayant fait l’objet d’un contrôle9 sont censées avoir un droit d’accès plus étendu qu’une association comme la Quadrature.

      Nous avons pu consulter la réponse à la demande d’informations réalisée par une personne ayant été contrôlée sur la base de sa note. Le courrier, signé par le délégué à la protection des données de la CNAF, se contente de renvoyer l’allocataire à la page “Internet et Libertés” de la CAF.

      Sur cette page sont présents deux documents relatifs à l’algorithme de notation : un communiqué de la CAF et l’avis de la CNIL associé10. Aucun ne fournit d’informations sur les paramètres utilisés par l’algorithme, ni sur leur impact sur le score de risque.

      Cette réponse est un déni de justice pour celles et ceux ayant fait l’objet d’un contrôle déclenché algorithmiquement, l’opacité entretenue par la CAF les empếchant de contester juridiquement le bien-fondé du contrôle dont ielles ont fait l’objet.
      La discrimination : un savoir-faire à protéger

      Nous avions aussi demandé la liste des variables utilisées pour l’entraînement du modèle, c’est à dire sa phase de création. Cette question est importante car elle permet de comprendre l’étendue des données utilisées par l’algorithme. Et donc le degré d’intrusion dans la vie privée des allocataires que la construction d’un tel modèle nécessite.

      En effet, en mettant régulièrement en avant dans sa communication que son algorithme n’utilise « que » quelques dizaines de variables11, la CAF fait mine d’ignorer qu’elles sont le fruit d’une sélection qui nécessite l’analyse d’un nombre bien plus grand de variables au préalable12.

      Et la justification apportée par les responsables de la CAF est, là aussi, déconcertante. Ces dernier·es avancent que la communication de ces variables n’est pas possible car elles constituent un « savoir-faire »13. La CAF souhaiterait-elle monétiser son algorithme et le revendre à d’autres administrations ? Penserait-elle pouvoir équiper les équipes de contrôleurs.ses des institutions sociales du monde entier de son algorithme assimilant les plus précaires à de potentiel·le·s fraudeurs ou fraudeuses ?

      A défaut de réponse, nous nous en remettons à ce que, techniquement, tout·e data-scientist ferait pour entraîner un modèle le plus « précis » possible. Il suffirait de partir de l’intégralité des variables à sa disposition et, par itérations successives, décider lesquelles garder pour le modèle final. Dans cette hypothèse, ce serait alors la quasi-totalité des variables détenues par la CAF sur chaque allocataire qui serait utilisée pour l’entraînement de son modèle.

      Ceci serait cohérent avec un document publié en 2013 dans lequel un statisticien de la CAF que « les statisticiens chargés de la modélisation disposaient d’environ un millier d’informations par allocataire contrôlé » et que « la base d’apprentissage contient toutes les données habituelles des fichiers statistiques »14.
      Vingt ans de développement… et aucun compte-rendu de réunions

      Quant à notre demande relative aux documents internes (notes, comptes-rendus, échanges…) concernant le développement de l’algorithme, la CAF nous a tout simplement répondu qu’en presque 20 ans de travail aucune réunion technique n’a fait l’objet de compte-rendu…15

      Pour être tout à fait honnête, c’est une première dans l’histoire de nos demandes CADA.
      Le retour de l’alibi technique

      A ceci s’ajoute, depuis le début de l’année, la mise en place de ce qui apparaît comme une véritable communication de crise par l’institution autour de son algorithme. En juin 2022, la CAF a notamment publié un communiqué intitulé « Contrôle et datamining » dans lequel elle tente de répondre aux critiques soulevées par son algorithme16.

      A sa lecture, on prend toute la mesure du rôle d’alibi technique à une politique de contrôle discriminatoire que joue l’algorithme, ce que nous dénoncions déjà ici.

      L’algorithme y est décrit comme étant un objet purement scientifique dont le caractère politique est nié. Il est ainsi expliqué que la note des allocataires est le fruit d’une « démarche scientifique d’étude statistique […] menée par des experts » se fondant sur des critères « scientifiquement pondérés » ayant été sélectionnés « sur seuls critères statistiques ». Le secrétaire général de la CAF ajoute17 de son côté que cet outil serait un « miroir des situations statistiques » servant à identifier des « environnements de risques ».

      Ce faisant, les responsables de la CAF cherchent à nier leur responsabilité (politique) dans la conduite, et la validation, d’une politique de contrôle discriminatoire. Nul part n’apparaît que que si les erreurs se concentrent sur les plus précaires, c’est tout simplement parce qu’au fil des ans se sont multipliées les règles et contraintes encadrant l’accès aux minima sociaux, et ce, dans le seul but de restreindre leur accessibilité18.

      On mesure enfin l’impact des logiques gestionnaires appliquées aux institutions sociales. Logiques réduisant des millions de vies et d’histoires, à de simples notions statistiques, déshumanisantes, froides et vides de sens.
      Communication mensongère

      La deuxième partie du document est consacrée à un « Vrai/Faux » portant sur l’algorithme où transpire la malhonnêteté intellectuelle.

      A l’affirmation « Les scores de risques les plus élevés concernent toujours les plus pauvres », la CAF répond Faux car « les scores de risques sont calculés pour tous les allocataires ». Ce qui n’a tout simplement aucun sens…

      A la question « Les contrôleurs sont payés aux résultats », la CAF répond que ce serait faux, bien qu’elle admette que l’Etat lui fixe bien un objectif à atteindre en termes de détection de fraude. Ici encore, l’institution joue avec les mots. S’il est vrai que les contrôleurs.ses n’ont pas de « prime sur leurs résultats », ils et elles touchent un intéressement, tout comme l’ensemble du personnel de la CAF, dont le montant dépend bien de l’atteinte de ces objectifs de contrôle19.

      A la question « Plus de 1000 données concernant les allocataires sont utilisées dans le modèle de datamining des CAF », la CAF répond que seules une quarantaine seraient utilisées. Elle détourne ainsi la question puisque – comme expliqué ci-dessus – elle omet de dire que ces quarante variables sont sélectionnées après une phase d’entraînement du modèle qui nécessite l’utilisation, et le traitement, de plus de mille variables par allocataire20.

      Enfin, aux questions « Les contrôleurs de la Caf ont accès à toutes les infos qu’ils souhaitent à l’insu des allocataires », et « Les allocations sont suspendues pendant le contrôle », la CAF répond que non car « aucune demande n’est faite à d’autres administrations, sans en avoir averti auparavant l’allocataire, aucune procédure vis-à-vis d’un tiers n’est engagée à l’insu de celui-ci. » Et ajoute que, lors d’un contrôle, « les allocations ne sont pas suspendues ».

      Sur ces deux derniers points, nous vous invitons à lire les témoignages collectés par le Défenseur des Droits, les collectifs « Stop Contrôles », « Changer de Cap » et différentes associations de lutte contre la précarité21 qui alertent depuis des années sur les suspensions abusives d’allocations pendant les contrôles et les pratiques invasives (consultation des comptes bancaires, relevés d’électricité, analyse de l’adresse IP etc…) des contrôleurs·ses de la CAF à l’insu des allocataires.
      Fraude à enjeux et lutte contre le non-recours : des contre-feux médiatiques

      A ceci s’ajoute diverses annonces de la CAF participant à nourrir une stratégie de diversion médiatique autour de son algorithme de notation.

      Dans son dernier rapport annuel sur la « lutte contre la fraude », nulle référence n’est faite à l’algorithme alors que celui-ci était mis à l’honneur, en première page, l’année précédente. La CAF précisant au passage qu’il était loué par la Cour des Comptes et l’Assemblée Nationale.

      A sa place, la CAF a préféré cette année mettre en avant son équipe de contrôleur.ses dédiée à la « lutte contre la fraude à enjeux »22, c’est à dire des fraudes organisées (usurpation d’identités, faux documents, fraude au RIB) à grande échelle. Soit 30 agentes et agents qui d’après les dires de la CAF sont, ni plus ni moins, chargé·es de « protéger le système de sécurité sociale français des risques de pillage » et qui font rentrer la CAF dans « une nouvelle dimension de la lutte contre la fraude »23.

      A titre de comparaison, nous tenons à rappeler que ce sont pas moins de 700 contrôleuses et contrôleurs qui, guidé·es par son algorithme discriminatoire, sont chargé·es de traquer les moindre erreurs de déclaration faites par les plus précaires.

      Deuxième angle d’attaque : la mise en avant de l’utilisation d’algorithmes de profilage à des fins de lutte contre le non-recours24. Comme si l’application des techniques de profilage à des fins « positives » pouvait justifier leur application à des fins répressives. Sur ce sujet, la CAF omet pourtant de dire le plus important : depuis maintenant plus de 10 ans, elle a systématiquement favorisé l’application de ces techniques à des fins de contrôle plutôt que de lutte contre le non-recours.

      Ses équipes de « data-scientist » regrettaient dès 2013 que les techniques de profilage des allocataires soient uniquement utilisées à des fins de contrôle et non de lutte contre le non recours25. Cette réalité est rappelée dans un rapport de l’Assemblée Nationale daté de 2016 qui précise que « l’extension explicite de l’usage du data mining à d’autres fins, notamment celle de lutte contre le non-recours, était envisageable dès l’origine, mais cette possibilité a été écartée, au moins dans les premières années d’utilisation de cet outil »26. Il aura fallu attendre 2017 pour que la CAF commence à mener des expérimentations, et il semblerait qu’aujourd’hui le profilage contre le non-recours est limité à la prime d’activité et l’allocation de soutien familial27.

      Le sociologue Vincent Dubois ajoute que cette situation « interroge sur la réalité des slogans institutionnels “tous les droits rien que les droits” qui en fait est beaucoup plus tournée vers l’identification des indus, frauduleux ou non, que vers les cas de non-recours qui sont en fait beaucoup plus nombreux »28.

      En tout état de cause, l’histoire politique de l’utilisation par la CAF des techniques de profilage à des fins de lutte contre le non-recours ne semble pas très glorieuse.

      Ce dernier point interroge aussi sur le fantasme entretenu autour de l’automatisation de l’état social pour répondre aux problèmes sociaux. A l’heure où le gouvernement lance l’expérimentation d’un « RSA sous conditions », la mise en avant de solutions techniques pour lutter contre le non-recours dépolitise la question de l’accès aux droits. Tout en taisant les problèmes que génèrent, pour des millions de personnes, la dématérialisation des services publics.

      Enfin, la CAF a annoncé en grande pompe la nomination d’une médiatrice nationale chargée, entre autres, des questions de données personnelles à la CNAF29 en juin 2022. Parmi ses missions : « la protection des données et de la sécurité des usagers dans le cadre des systèmes d’information. » Et le communiqué accompagnant sa nomination ajoute qu’elle « sera également la référente nationale déontologie ». Nous serions plus que ravi·es d’entendre son avis sur l’algorithme de notation de la CAF.
      Lutter au-delà de la transparence

      La transparence que nous exigeons auprès de la CAF ne doit pas masquer le fond du problème. En un sens, ce que nous savons déjà de l’algorithme de cette institution, sans même avoir eu accès à son code, nous suffit à nous y opposer.

      La transparence n’est donc pas une fin en soi : c’est un moyen que nous souhaitons mobiliser pour mettre en lumière, et critiquer, un discours politique cherchant à légitimer la volonté de contrôle d’un appareil étatique via l’entretien d’un discours de suspicion généralisée et la stigmatisation de certaines catégories de la population.

      Volonté de contrôle qui, hélas, profite aujourd’hui de la puissance des outils numériques et de l’exploitation de nos données personnelles afin de toujours plus nous évaluer et, ainsi, nous trier.

      A l’heure où un nombre toujours plus grand d’institutions, sociales et policières, mettent en place de telles solutions de surveillance algorithmique, nous continuerons de les documenter et de faire ce que nous pouvons, à notre niveau, pour les contrer.

      Au côté des collectifs Stop Contrôles, Changer de Cap et de toutes les associations et collectifs de lutte contre la précarité qui font face, depuis des années, aux dérives du tout numérique et au développement sans limite des politiques de contrôle social, nous espérons que vous serez nombreux.ses à nous rejoindre.

      Enfin, nous ne doutons pas que ce sentiment d’injustice est partagé par la plupart des employé·es de la CAF. C’est pourquoi nous tenons à encourager celles et ceux qui, révolté·es par ces pratiques, pourraient nous aider à les documenter. Vous pouvez nous contacter par mail, téléphone, en venant nous rendre visite ou déposer de manière anonyme des documents sur notre SecureDrop. A l’heure où les responsables de la CAF font le choix de l’opacité, nous avons plus que jamais besoin de vous.

      https://www.laquadrature.net/2022/12/23/notation-des-allocataires-febrile-la-caf-senferme-dans-lopacite
      déjà sur seenthis (via @colporteur) :
      https://seenthis.net/messages/984668

      #algorithme #discrimination #mères_isolées #risque

    • C’est la réponse qui a toujours été faite aux syndicats qui réclament depuis des années les barèmes et algo pour pouvoir contester dans le cadre des TRÈS nombreuses erreurs de calcul.

      « gna gna gna, vous allez tricher ! ».

      Marrant comme on accuse toujours l’autre de ses propres turpitudes.

      Oui, des fois, les gens pourraient refuser une miette de boulot de merde qui va faire sauter tous leurs droits de manière disproportionnée et les foutre encore plus dans la merde. Oui, des fois, les gens pourraient s’organiser pour ne pas se retrouver dans une trappe à contrôle ou une situation encore plus dégradée.

      Oui, t’imagine ? Les gens pourraient juste faire valoir leurs droits si souvent déniés sans même avoir à avancer un début de justification.

      Et ils pourraient se rendre compte que ce n’est pas l’algo, mais bien un agent malintentionné qui a niqué leur dossier.

    • y aurait pas moyen de « retourner » (comme une chaussette) leur truc de la caf ? Genre, une expérience de science participative :-) on pourrait : 1./ demander que le "score" soit communiqué à chaque administré (e.g. via CNIL), 2./ collecter score et infos perso sur la base du volontariat, éventuellement en anonymisant les données, et 3./ faire un modèle « externe » avec ces données, le publier, et enfin 4./ s’en servir pour identifier les cas de non-recours (et au moins les compter)

  • De l’inégale géonumérisation du Monde - AOC media
    https://aoc.media/analyse/2023/12/31/de-linegale-geonumerisation-du-monde-2

    Ainsi, une forme de géonumérisation généralisée du Monde[1] se met progressivement en place. Ce terme permet de souligner l’importance de porter un regard, non sur un domaine particulier (la cartographie, la statistique, la topographie, etc.) ou un métier spécifique (les photo-interprètes, les arpenteurs-géomètres, les géomaticiens, etc.), mais sur des processus diffus et multiples qui se sont accélérés depuis une trentaine d’années autour de la transcription sous forme de données numériques de la plupart des objets, êtres, phénomènes, dispositifs, activités, images, œuvres de fiction, etc., localisables sur la surface terrestre. Or, cette géonumérisation du Monde est opérée par des systèmes opaques qui s’apparentent, de plus en plus, à de véritables boîtes noires algorithmiques.
    Ouvrir les boîtes noires algorithmiques

    Les systèmes géonumériques que nous utilisons au quotidien – des cartes en ligne comme Google Maps aux services de géolocalisation pour commander un taxi – sont personnalisés en fonction de nos centres d’intérêt (ou plutôt de la façon dont l’algorithme nous a profilé) et configurés en fonction des objectifs de leurs commanditaires. Ils sont donc avant tout des opérateurs de tri, de filtre, de combinaison, de fusion, d’appariement, d’intersection, d’extraction, d’union, de conversion, de re-projection… et in fine seulement de représentations cartographiques des données dont ils disposent. Soit autant d’opérations qui relèvent de choix techniques et politiques dont les intentionnalités comme la performativité méritent d’être analysées.

    Noyé sous un déluge de données numériques, comme le titrait, dès 2010, The Economist, le spectacle cartographique qui nous est donné à voir tous les jours n’a donc rien d’une évidence. Il mérite qu’on en analyse ses coulisses et secrets de fabrication. La métaphore naturalisante du déluge ravive d’ailleurs, une fois encore, les croyances positivistes autour des données dont Bruno Latour a pourtant clairement explicité dès 1987 qu’elles n’étaient pas données, mais fabriquées et que, par la même, on devrait plutôt les appeler des obtenues[2]. Rien d’inédit, donc, à souligner aujourd’hui l’impérieuse nécessité d’une dénaturalisation des données, fussent-elles embarquées dans des algorithmes qui les traitent et les redistribuent à la volée. Sauf que ces derniers se révèlent particulièrement opaques et qu’il est devenu complexe d’identifier où sont désormais les blancs des cartes et quels sont les effets potentiels de ces mises en invisibilité des lacunes cartographiques contemporaines.

    #Cartes #Cartographie #Algorithmes #Géonumérisation

  • Misère de nos vies "numériques" :

    Pourquoi le mot “viol” est devenu “vi*l” sur TikTok et autres réseaux sociaux
    https://www.telerama.fr/plateformes/pourquoi-le-mot-viol-est-devenu-vi-l-sur-tiktok-et-autres-reseaux-sociaux-7

    « On m’interviewe sur le déni du viol dans la société française et je découvre dans la vidéo publiée sur Instagram que le terme “viol” a été bipé et que le mot complet n’apparaît pas en sous-titre. C’est très violent. » Le 20 novembre, la journaliste Alice Géraud, coauteure de la série Sambre, sur Dino Scala, violeur qui a fait plus de quarante victimes, découvre sur les réseaux sociaux le montage de son entretien donné quelques jours plus tôt au média Télé 7 jours. Dans les sous-titres, il est écrit « vi*l ». Alice Géraud confie à Télérama : « C’est une mise en abyme assez étonnante du déni du viol. » Jérémy Parayre, rédacteur en chef de Télé 7 jours, revient sur ce choix : « La question s’est posée dans l’équipe et j’ai moi-même été choqué par ce bipage. Mais comme nous voulions que son discours soit audible par notre communauté tout en évitant le déréférencement de notre vidéo par les plateformes… C’était la solution. Oui, c’est contradictoire, je comprends sa réaction. »

    Télé 7 jours n’est pas le seul média à utiliser cette pratique. Il suffit de faire un tour sur Instagram, TikTok et YouTube pour constater la disparition du mot viol. À la place, on peut lire « vi*l » ou « vi0l » sur les réseaux sociaux de médias comme Brut, Hugo Décrypte, Urbania ou Le Parisien. Certains vont jusqu’à camoufler les termes « sexe », « attentat » ou « prostituée ».

    En cause ? La peur du « shadowban ». Sur les réseaux du groupe Meta ou sur TikTok, ce « bannissement de l’ombre » toucherait les profils publics. Un compte peut être banni temporairement par la modération de ces entreprises s’il utilise certains termes ou images. Parfois, le nom de l’utilisateur n’apparaît plus dans la barre de recherche alors que son compte est toujours en ligne. D’autres fois, sa story n’est plus visible ou ses posts ne sont plus mis en avant dans l’onglet « discover » ou dans les « feeds » de ses abonnés. La plateforme ne prévient jamais l’internaute. Il prend connaissance de son invisibilisation grâce aux statistiques de son compte : un nombre de vues qui flanche, moins de partages des publications, etc.

    https://justpaste.it/4hbxx

    #bipage #shadowban #réseaux_sociaux #algorithmes

  • La bulle de filtres : comment les réseaux sociaux nous confortent dans « nos propres croyances et opinions »
    https://www.francetvinfo.fr/replay-radio/le-fil-des-reseaux/la-bulle-de-filtres-les-reseaux-sociaux-nous-confortent-dans-nos-propre

    Pour inciter les internautes à rester sur les plateformes, les algorithmes repèrent les intérêts de chacun et proposent un contenu personnalisé. Au point de limiter la diversité d’opinion.
    Article rédigé par France Info - Audrey Abraham
    Radio France
    Publié le 25/12/2023 07:49 Mis à jour le 26/12/2023 10:09
    Temps de lecture : 2 min

    Vous vous êtes probablement déjà demandé pourquoi vous tombez toujours sur les mêmes vidéos de cuisine, de déco, de chatons sur Instagram, Tiktok ou encore Facebook. Cela n’a rien d’un hasard, ça a même un nom ! C’est ce qu’on appelle la bulle de filtres et les algorithmes en sont responsables. Concrètement, le moindre click, le moindre like est mémorisé et indique vos préférences à la plateforme pour personnaliser le contenu qui vous est proposé.
    à lire aussi Les algorithmes d’Instagram facilitent la vente de pédopornographie, selon des chercheurs

    Olivier Ertzscheid est maître de conférences à l’université de Nantes : « Les propriétaires de ces plateformes se disent ’Pour garder les gens attentifs pour que les gens restent sur nos plateformes il faut qu’on leur serve des choses dont on sait déjà qu’elles les intéressent et donc plutôt que de leur présenter des opinions, des avis différents, on va leur présenter des choses qui vont dans le sens de ce qu’on appelle leur propre biais de croyances.’ Si ce sont des gens qui ont une passion pour la gastronomie on va leur afficher toujours plus de sites en lien avec la gastronomie. »

    Voilà comment chacun à notre niveau, en sélectionnant les comptes que nous avons envie de suivre, les contenus que nous avons envie de partager, nous alimentons sans nous en rendre compte cette bulle de filtre, « alors que la promesse initiale des réseaux sociaux, c’est de vous exposer à plein de gens différents, de diversités de culture, d’opinions, de points de vue, d’avis, reprend Olivier Ertzscheid. Finalement, on s’aperçoit qu’on nous expose de plus en plus à de l’identique, à des choses qui nous confortent pour nos propres croyances et opinions. » Les vidéos de cuisine, de musique, de paysages sont donc concernées. Ce que l’on peut considérer comme du contenu léger mais pas uniquement. Le contenu politique est aussi soumis au mécanisme des algorithmes.
    Un usage politique

    C’est dans ce cas de figure que la bulle de filtres est moins anodine et mérite d’être davantage questionnée. On le sait sur les réseaux sociaux tout est mélangé. Il n’y a pas d’un côté le contenu divertissant, de l’autre les sujets politiques. Le flux est constant, continu... Les discours sont plus ou moins explicites.

    Alors notre faculté de discernement s’altère : « De toute éternité, l’être humain, a toujours des biais et il adore se conforter, se vautrer dans ses propres biais culturels, sociologiques, politiques, etc. Là où ça devient problématique c’est à partir du moment où tout ça est brassé sans qu’on ait de ligne éditoriale claire. Les gens qui en général vont acheter le journal ou lire le journal ’Libération’. Il est assez rare que ce soit aussi des gens qui vont lire le journal ’Valeurs Actuelles’. Parce qu’ils savent ce qu’ils vont chercher. Ils savent que ’Libération’ est à gauche et que ’Valeurs Actuelles’ est très à droite. À l’échelle des médias sociaux, ce qui est compliqué c’est quand on n’a pas les codes pour décrypter les intentions, sachant qu’il y a toujours des intentions qui peuvent être basiquement commerciales et de plus en plus souvent aussi politiques. »

    Impossible d’y échapper, les algorithmes sont l’essence même des réseaux sociaux. L’important c’est d’en être conscient. Les autorités de régulation imposent d’ailleurs aux plateformes d’être plus transparentes avec les utilisateurs, qui on le rappelle sont parfois mineurs, en expliquant notamment autant que possible la manière dont fonctionnent leurs algorithmes.

    #Olivier_Ertzscheid #Algorithmes #Médias_sociaux

  • La #désinformation qui déstabilise la #démocratie

    « La désinformation est un bouton fantastique sur lequel appuyer pour déstabiliser les démocraties. C’est la #menace la plus sournoise. Parce que la démocratie fonctionne si on a accès à l’#information, pour pouvoir porter un jugement et participer au #débat_public ». C’est ainsi que le professeur adjoint en communication publique et politique à l’ENAP, Philippe Dubois, résumait le problème qui était au coeur du forum La démocratie au temps de la désinformation, tenu le 30 novembre à Montréal.

    La démocratie recule, soulignait d’ailleurs cette année un rapport du Varieties of Democracy Institute de l’Université de Göteborg (Suède) (https://v-dem.net/documents/29/V-dem_democracyreport2023_lowres.pdf), fruit d’une collaboration de près de 4000 experts de 180 pays. La désinformation, la #polarisation et l’#autocratisation se renforcent mutuellement.

    Avec l’ajout récent de la Thaïlande et du Mali, pour la première fois depuis plus de 20 ans, la liste des pays compte plus d’#autocraties que de démocraties : 5,7 milliards de personnes vivent dans des autocraties (72% de la population mondiale) contre 1 milliard de personnes pour les démocraties libérales —soit à peine 13%. Et près d’un tiers du premier groupe vit même au sein d’autocraties fermées (Chine, Iran, Myanmar et Vietnam, par exemple).

    Bref, le niveau de démocratie pour le citoyen mondial moyen est en recul, pour revenir au niveau de 1986. L’Europe de l’Est et l’Asie centrale, ainsi que l’Amérique latine et les Antilles, ont retrouvé leur niveau de la fin de la guerre froide.

    « C’est souvent un idéal que l’on prend pour acquis avec ses opportunités de délibération : presse libre, débats publics, et des institutions publiques pour faire fonctionner cela », avance Philippe Dubois. Ce « modèle le moins pire », comme l’aurait dit Churchill, « a bien souffert lors de la récente pandémie ». Avec ses mesures exceptionnelles et restrictives, la Covid-19 a vu reculer, de manière temporaire, certains droits et libertés. Cela a entaché la confiance dans les institutions démocratiques, et dans leurs acteurs, confiance qui n’était déjà pas si élevée avant la crise sanitaire.

    Or, les #réseaux_sociaux jouent eux aussi un rôle dans cette #régression. Peut-être parce qu’ils répercutent plus les #frustrations et la #colère que la #raison et les #nuances, il y aurait, semble-t-il, plus de cyniques et de mécontents qu’avant. Certaines tranches de la population s’avèrent aussi moins attachées à la démocratie, comme les jeunes, qui s’informent eux-mêmes davantage que les plus vieux par les algorithmes. « Cela ne signifie pas qu’ils rejettent la démocratie. Cela signifie plutôt qu’ils partagent davantage un type de contenu » qui la rejette, note le chercheur.

    L’École des médias de l’UQAM avait mandaté cet été la firme Léger pour sonder la population québécoise sur leurs perceptions sur des enjeux liés à la démocratie et à la désinformation. Le rapport montre que 25% de la population québécoise pense que les gouvernements cachent la réalité sur la nocivité des vaccins —18% pensent que c’est probable, alors que 8% pensent que c’est certain.

    C’est une #méfiance envers les institutions qui augmente, tout comme celle envers les #médias, car selon ce sondage, 44% de la population québécoise pense que les médias manipulent l’information qu’ils diffusent.

    En quête de #littératie_scientifique

    « Nous vivons une #crise_épistémologique avec une remise en question des #figures_d’autorité » constatait, lors du forum du 30 novembre, le professeur au département sciences humaines, lettres et communications de la TÉLUQ, Normand Landry. « Les gens parlent d’#esprit_critique mais c’est un mot galvaudé : où est notre capacité de se remettre en question et de changer d’idées et d’admettre nos erreurs ? »

    D’où l’importance de l’#éducation_aux_médias et de la littératie scientifique, soulignait-on dans ce forum organisé par les Fonds de recherche du Québec. Mélissa Guillemette, rédactrice en chef du magazine Québec Science, note que « moins de la moitié des Canadiens ont des bases solides en science (42%), c’est donc à mettre au premier plan. La littératie en santé au Québec reste elle aussi très faible chez 2 personnes sur 3 et pour 95% des 60 ans et plus, il s’avère même difficile de comprendre un médecin. »

    Les #jeunes ont particulièrement du mal à distinguer le #vrai du #faux. « Les adolescents ont du mal à reconnaître la désinformation. Ils manquent de bons critères d’évaluation pour juger de la qualité d’une bonne information », relève l’étudiante à la maîtrise en sciences de l’éducation de l’Université de Sherbrooke, Élise Rodrigue-Poulin.

    « Chez les enseignants aussi, le niveau de pensée critique varie souvent de faible à moyen. Et lorsque la nouvelle fait appel à trop d’#émotion, la plupart d’entre nous ne sommes plus capables de l’évaluer correctement », ajoute-t-elle.

    La solution serait de s’éduquer à reconnaître la désinformation, mais il faudrait aussi développer du contenu scolaire pour soutenir l’esprit critique chez les jeunes – et par ricochet, le personnel enseignant. Des éléments inclus dans le nouveau programme Culture et citoyenneté québécoise, vont dans ce sens.

    Ce serait toutefois insuffisant. « Le programme a plusieurs points positifs : donner des outils et des critères sur les informations et les médias, et l’explication de ce qu’est la démocratie. Comme enseignante, je trouve ça bon, mais il n’est pas obligatoire cette année et il a été présenté aux enseignants quelques jours avant la rentrée », explique Mme Rodrigue-Poulin. Il doit être implanté dans toutes les écoles en septembre 2024.

    Normand Landry renchérit : « Je salue l’adoption d’un programme mais je le pense moins sérieux dans le soutien à développer ce savoir. Depuis plus de 20 ans, l’#école développe du contenu d’éducation aux médias – par exemple, sur les compétences numériques, adopté en 2019 – mais sans se donner les conditions de déploiement et des ressources pour les enseignants. »

    La désinformation à gogo

    « Nous sommes dans une espèce de jungle et trouver la vérité, c’est un casse-tête. La désinformation, cela ne date pas d’hier mais c’est le volume qui augmente. », rappelle Nicolas Garneau, chercheur postdoctoral en informatique à l’Université de Copenhague.

    Et nous pouvons tous partager de la désinformation. Les réseaux sociaux sont conçus pour nous inviter à générer du contenu – « exprimez-vous », « posez des actions » – à partir de messages qui en appellent à nos #émotions.

    Il faut donc apprendre à se méfier des choix des #algorithmes et développer son esprit critique – « d’où ça sort ? », « quelle est la source de l’info ? »

    « Il ne faut pas oublier que ce sont des modèles économiques basés sur nos données. Ils enregistrent ce que l’on regarde et lorsqu’on s’exprime. Les plateformes exploitent nos #failles_psychologiques », rappelle Emmanuelle Parent, directrice générale et recherche du Centre pour l’intelligence émotionnelle en ligne (Le Ciel).

    Le professeur en journalisme à l’École des médias de l’Université du Québec à Montréal, Jean-Hugues Roy, s’intéresse plus spécifiquement à Facebook. Il remarque qu’il y a beaucoup de contenus viraux —et religieux— qui circulent. Qui plus est, en l’absence de véritables informations – en raison du blocage du contenu des médias par Meta – « il n’y a plus rien de pertinent. C’est un véritable marché aux puces de #contenus_viraux dont certains peuvent être toxiques. Cela peut prendre l’apparence de contenu journalistique, en ajoutant des éléments mensongers et trompeurs uniquement pour faire des clics. »

    Il est temps d’encadrer ces plateformes, poursuit-il. Une démarche entamée par le Canada avec le projet de loi C-18 qui vise à forcer les « géants du web » à indemniser les médias d’information —c’est ce projet de loi qui est la raison du boycottage des médias entrepris en ce moment par Meta au Canada.

    « Ce sont des entreprises privées et on s’attend à ce qu’elles prennent leurs responsabilités ou que les autorités le fassent. Nous avons une agence d’inspection des aliments au Canada, il est possible d’imaginer une agence d’inspection des réseaux sociaux alors que nos vies sont dessus et qu’ils font beaucoup d’argent avec nos données », pense M. Roy.

    Autrement dit, il faut un encadrement de ces outils par l’humain. « Leur raison d’être est de nous donner un coup de main, pas de décider à notre place », tranche encore Nicolas Garneau.

    https://www.sciencepresse.qc.ca/actualite/2023/12/15/desinformation-destabilise-democratie

  • Thomas Piketty : « L’idéologie antipauvres finit par conduire à une dégradation générale de la qualité du service public »
    https://www.lemonde.fr/idees/article/2023/12/09/thomas-piketty-l-ideologie-antipauvres-finit-par-conduire-a-une-degradation-

    Ce n’est pas en se défoulant sur les plus précaires que l’on va résoudre les problèmes sociaux, plaide l’économiste dans sa chronique.

    Disons-le d’emblée : l’enquête édifiante publiée par Le Monde sur les procédures intrusives et ubuesques subies par des milliers d’allocataires des caisses d’allocations familiales (CAF) pose des problèmes fondamentaux pour l’avenir de la Sécurité sociale et des services publics, en France, en Europe et dans le monde. En épluchant des milliers de lignes de code indûment dissimulées, en rencontrant des personnes fragilisées et des parents isolés injustement pourchassés pour des trop-perçus imaginaires, les journalistes ont montré les conséquences dramatiques de ces pratiques algorithmiques aveugles sur les existences quotidiennes.

    Encore faut-il préciser que les agents des CAF sont souvent (? ndc) les premiers à dénoncer ces pratiques imposées par leur direction et par les responsables politiques à l’institution sociale à laquelle ils sont attachés. Rappelons que les CAF gèrent avec des moyens limités non seulement les allocations familiales, mais aussi le revenu de solidarité active (revenu de base et complément de revenu pour les bas salaires), les allocations logement, celles destinées aux parents isolés ou aux personnes handicapées, les prestations liées aux gardes d’enfants, etc., soit au total près de 14 millions d’allocataires (environ la moitié des ménages).

    Les coûts de fonctionnement des CAF comme des caisses de l’Assurance-maladie et de l’ensemble des caisses de la Sécurité sociale ont toujours été extrêmement modestes : entre 2 % et 3 % des prestations versées suivant les cas, contre 15 % à 20 % pour les compagnies d’assurances privées. Cette efficacité publique est une bonne chose en soi, à condition toutefois de ne pas pousser trop loin dans cette direction.
    Le problème est que le pouvoir politique n’a cessé de faire pression sur les caisses pour réduire toujours davantage ces coûts. La situation s’est notamment dégradée à la suite de l’arrivée au pouvoir en 2007 de Nicolas Sarkozy, qui a mis en avant la nécessité d’une chasse sans merci à la fraude sociale et les allocataires soupçonnés de ruiner le système.

    Glorification des « premiers de cordée »

    Et qu’importe si toutes les études montrent que la fraude fiscale et l’évasion en col blanc portent sur des montants autrement importants. Puisqu’il est compliqué de s’en prendre aux plus riches, vengeons-nous sur les plus pauvres ! Cette glorification des « premiers de cordée » et cette stigmatisation des plus #pauvres (réputés incapables de « traverser la rue » pour trouver un emploi, et régulièrement accusés de coûter un « pognon de dingue ») se sont encore accentuées avec Emmanuel Macron depuis 2017. Sommées de débusquer les #fraudeurs et de faire du chiffre avec des moyens humains réduits, les CAF se sont alors lancées dans la dérive algorithmique mise au jour par les journalistes. [dès 2010, en fait,c-à-d sous Hollande ndc]

    Le pire dans cette évolution est que l’#idéologie_antipauvres finit par conduire à une dégradation générale de la qualité du service public. Si vous n’en avez pas fait l’expérience vous-même, demandez autour de vous. Depuis plusieurs années, si vous envoyez un message aux CAF sur l’interface prévue à cet effet, la machine vous répond que les messages traités actuellement sont ceux réceptionnés il y a trois mois, et que le vôtre devra attendre (six mois plus tard, il attend toujours).

    En revanche, si l’on vous reproche un trop-perçu, parfois fantaisiste, il faut payer tout de suite, sans recours possible. Pour ceux qui en ont les moyens, ces situations ubuesques sont pénibles mais gérables. Pour tous ceux dont les finances sont tendues, c’est insupportable. De toute évidence, les #CAF ne disposent pas des moyens humains permettant de rendre un service de qualité et de traiter correctement les usagers, ce qui est extrêmement douloureux pour toutes les personnes impliquées.

    Cette dégradation du service public se retrouve dans de multiples domaines, par exemple avec des délais de plus de six mois pour obtenir des papiers d’identité, des procédures de remboursement toujours trop lourdes auprès de l’Assurance-maladie et des mutuelles, ou encore l’opacité extrême des #algorithmes d’affectation dans l’enseignement supérieur, dans un contexte de pénurie de places et de moyens dans les filières les plus recherchées.

    Stratégie de droite

    La stratégie de la droite visant à stigmatiser les pauvres et les « assistés » comme responsables des maux du pays est doublement perdante : elle fragilise les plus modestes et conduit à la dégradation du service public pour tous et au règne du chacun-pour-soi, au moment même où nous aurions besoin de socialiser davantage de ressources pour pourvoir aux besoins criants dans la santé, l’éducation et l’environnement. La vérité est que c’est dans le secteur privé que se trouvent les gaspillages et les rémunérations indues, et non dans les caisses sociales et les services publics.

    Cette nouvelle idéologie antipauvres est d’autant plus inquiétante qu’elle est au cœur des recompositions politiques actuelles. La loi antisquatteurs adoptée fin 2022 par une coalition RN-LR-Renaissance en est l’incarnation. Elle montre aussi les impasses de cette approche : ce n’est pas en se défoulant sur les plus #précaires et en fragilisant l’ensemble des #locataires à grands coups de bail raccourci de location meublée et d’expulsion accélérée que l’on va résoudre les problèmes de logement des dizaines de millions de ménages mal logés et mal isolés.

    Cette question est aussi l’occasion de combattre le RN sur le seul terrain qui vaille : celui des faiblesses et des incohérences de son programme. La conversion sociale du RN est un leurre. Le parti reste profondément imprégné de libéralisme économique, comme le montre sa volonté de supprimer l’impôt sur la fortune immobilière, de la même façon que Jean-Marie Le Pen voulait supprimer l’impôt sur le revenu dans les années 1980. Il est plus que temps de sortir des obsessions identitaires actuelles et de remettre les questions socio-économiques au centre du débat public.

    https://seenthis.net/messages/1028926

  • #Interpol makes first border arrest using Biometric Hub to ID suspect

    Global database of faces and fingerprints proves its worth.

    European police have for the first time made an arrest after remotely checking Interpol’s trove of biometric data to identify a suspected smuggler.

    The fugitive migrant, we’re told, gave a fake name and phony identification documents at a police check in Sarajevo, Bosnia and Herzegovina, while traveling toward Western Europe. And he probably would have got away with it, too, if it weren’t for you meddling kids Interpol’s Biometric Hub – a recently activated tool that uses French identity and biometrics vendor Idemia’s technology to match people’s biometric data against the multinational policing org’s global fingerprint and facial recognition databases.

    “When the smuggler’s photo was run through the Biometric Hub, it immediately flagged that he was wanted in another European country,” Interpol declared. “He was arrested and is currently awaiting extradition.”

    Interpol introduced the Biometric Hub – aka BioHub – in October, and it is now available to law enforcement in all 196 member countries.

    Neither Interpol nor Idemia immediately responded to The Register’s questions about how the technology and remote access works.

    But Cyril Gout, Interpol’s director of operational support and analysis, offered a canned quote: “The Biometric Hub helps law enforcement officers know right away whether the person in front of them poses a security risk.”

    That suggests Interpol member states’ constabularies can send biometric data to BioHub from the field and receive real-time info about suspects’ identities.

    The multinational policing org has said that Hub’s “biometric core” combines Interpol’s existing fingerprint and facial recognition databases, which both use Idemia tech, with a matching system also based on Idemia’s biometric technology.

    Interpol and Idemia have worked together for years. In 1999, he police organization chose Idemia to develop its fingerprint database, called the Automated Fingerprint Identification System (AFIS). And then in 2016, Interpol inked another contract with Idemia to use the French firm’s facial recognition capabilities for the Interpol Face Recognition System (IFRS).

    According to Idemia, the latest version of its Multibiometric Identification System, MBIS 5, uses “new generation algorithms which provide a higher matching accuracy rate with a shorter response time and a more user-friendly interface.”

    In its first phase, Interpol will use MBIS 5 to identify persons of interest (POIs) for police investigations.

    A second phase, which will take two years to become fully operational, will extend the biometric checks to border control points. During this phase the system will be able to perform up to one million forensic searches per day – including fingerprints, palm prints, and portraits.

    Interpol expects the combined fingerprints and facial recognition system will speed future biometric searches. Instead of running a check against separate biometric databases, BioHub allows police officers to submit data to both through one interface, and it only requires human review if the “quality of the captured biometric data is such that the match falls below a designated threshold.”

    To address data governance concerns, Interpol claims BioHub complies with its data protection framework. Additionally, scans of faces and hands uploaded to the Hub are not added to Interpol’s criminal databases or made visible to other users. Any data that does not result in a match is deleted following the search, we’re told.

    While The Register hasn’t heard of any specific data privacy and security concerns related to BioHub, we’re sure it’s only a matter of time before it’s misused.

    America’s Transportation Security Agency (TSA) over the summer also said it intends to expand its facial recognition program, which also uses Idemia’s tech, to screen air travel passengers to 430 US airports. The TSA wants that capability in place within ten years.

    The TSA announcement was swiftly met with opposition from privacy and civil rights organizations, along with some US senators who took issue [PDF] with the tech.

    https://www.theregister.com/2023/12/01/interpol_biohub_arrest

    #frontières #contrôles_frontaliers #technologie #empreintes_digitales #biométrie #Interpol #migrations #asile #réfugiés #Biometric_Hub #Balkans #route_des_Balkans #Bosnie-Herzégovine #Idemia #reconnaissance_faciale #passeurs #BioHub #extradition #sécurité #risque #interopérabilité #base_de_données #Automated_Fingerprint_Identification_System (#AFIS) #Interpol_Face_Recognition_System (#IFRS) #Multibiometric_Identification_System #MBIS_5 #algorithmes #persons_of_interest (#POIs) #portraits #Transportation_Security_Agency (#TSA)

  • Comment la CAF a traité mon dossier avec un « robot à dettes » | Le Club
    https://blogs.mediapart.fr/lucieinland/blog/150421/comment-la-caf-traite-mon-dossier-avec-un-robot-dettes

    26 mars, appel de la CAF. Le conseiller confirme que c’est bien « le logiciel » qui a traité mon dossier selon certains paramètres. Jugé trop complexe depuis la déclaration de création de micro-entreprise, il a été remis à zéro puis re-traité, d’où la demande de documents. Malgré mes questions je n’ai pas compris pourquoi seule ma situation d’auto-entrepreneuse est retenue, bien qu’aussi salariée, avec les déclarations de revenus adéquates. Le mail notifiant ma dette a été envoyé dès que l’algorithme a détecté une erreur dans mon dossier. La machine menace d’abord, les humain·es vérifient ensuite. Seul mon mail a permis à la CAF de classer vite et correctement mon dossier. Et ce sont bien leurs outils automatisés qui m’ont mis en difficulté.

  • Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable – La Quadrature du Net
    https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais

    C’est en transformant les allocataires en « assisté·es », puis en risques pour la survie de notre système social que le discours de « lutte contre l’assistanat » a fait de leur contrôle un impératif de « bonne gestion »18. Qu’importe que toutes les estimations montrent que la « fraude sociale » est marginale et que c’est au contraire le non-recours aux aides qui se révèle être un phénomène massif.

    Devenu objectif institutionnel, le contrôle doit être rationalisé. Le numérique devient alors l’outil privilégié de « la lutte contre la fraude sociale » par la capacité qu’il offre aux dirigeant·es de répondre aux injonctions de résultats tout en offrant un alibi technique quant aux pratiques de discrimination généralisée que leur tenue impose.

    Ces logiques sont saillantes dans la réponse écrite par la CAF pour s’opposer à la transmission du code de son algorithme, avant d’y être contrainte par la Commission d’Accès aux Documents Administratifs (CADA). Elle assume ouvertement un discours policier en avançant comme principal argument que cette communication consisterait en une « atteinte à la sécurité publique » car « en identifiant les critères constituant des facteurs de ciblage, des fraudeurs pourraient organiser et monter des dossiers frauduleux ».

    Enfin, un chiffre transmis dans la même réponse témoigne de l’emballement gestionnaire à l’œuvre et vient souligner la disproportion entre les moyens techniques déployés et les enjeux financiers. L’algorithme est entraîné pour détecter des trop-perçus s’élevant à 600 euros sur deux ans. Soit donc, 32 millions d’intimités violées par un algorithme à la recherche de… 25 euros par mois.

  • Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable
    https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais

    Après plus d’un an de mobilisation contre les pratiques de notation des allocataires de la CAF au côté des collectifs Stop Contrôles et Changer de Cap, et après avoir détaillé le fonctionnement de l’algorithme de…

    #Surveillance

    • A noter que, dans des versions précédentes de l’algorithme, le fait d’être né hors de l’UE était aussi un critère pour cibler les contrôles (dénoncé par le Défenseur des droits). Dans les versions qu’a pu étudier la Quadrature du net, des variables sont caviardées (cachées) par la #CNAF, donc on ne sait pas tout ce qui est utilisé.

      Si on est un peu cynique, on pourrait se dire que, après tout, si les personnes n’ont pas triché, même ciblées, elles ne risquent rien, et qu’au pire, après avoir été contrôlées, elles auront simplement leurs justes #droits (éventuellement recalculés) et donc que, même ciblés, ces contrôles sont un moindre mal face à l’impératif de #lutte_contre_la_fraude. Or ces contrôles pénalisent fortement aussi les personnes qui n’ont rien à se reprocher, qui ont déclaré de façon exacte et en temps voulu tous leurs changements de situation, etc.

      Car, ce que ne dit pas l’article (il ne peut pas tout dire), qui a été dénoncé par « Changer de cap », et qui doit être ajouté, c’est qu’ une grande partie des contrôles est automatisé sous la forme de courrier envoyé automatiquement par la machine (l’algorithme) aux allocataires dès lors qu’un changement est signalé (lors de la déclaration trimestrielle de ressources typiquement) et/ou que leur score de risque (score de suspicion) dépasse un certain niveau. Ce courrier les prévient qu’ ils doivent répondre à un questionnaire de contrôle (avec d’éventuelles pièces justificatives à envoyer) et que, sans attendre, les droits sont suspendus à cette réponse. Ce qui fait que, dans l’attente de l’envoi du courrier par l’allocataire mais aussi du temps mis par la CAF pour ensuite traiter/instruire ce courrier (souvent des semaines !!!), les personnes se retrouvent sans plus aucune prestation, sans plus aucune ressource parfois. Et, pour celles qui ne répondent pas (n’ont pas vu le courrier, parfois arrivé sur leur boite internet allocataire) ou encore ne parviennent pas à obtenir certaines pièces justificatives, cela se traduit par des #ruptures_de_droits et la réclamation d’#indus.

      Et, après de telles mésaventures/maltraitances institutionnelles qui peuvent se renouveler, beaucoup arrêtent les frais, renoncent à faire valoir leur droit...

      (reçu par mel)

      #étrangers_hors_UE

    • Dans la vie de Juliette, mère isolée, précaire et cible de l’algorithme des CAF (Le Monde)
      https://archive.is/aREy2

      « Le Monde » raconte comment une bénéficiaire du RSA est devenue un dossier « à risque » pour l’organisme, et les conséquences de ce ciblage sur sa vie.

      « J’étais dans la merde financièrement et psychologiquement. Mon père venait de mourir d’un cancer en moins de six mois, j’étais extrêmement fragile. » C’est peu dire que l’année 2023 commençait déjà mal pour Juliette (les prénoms d’allocataires ont été modifiés à leur demande). Divorcée depuis cinq ans, sans pension alimentaire, elle vit seule avec son fils cadet de 14 ans, en garde alternée.

      Sa séparation l’a poussée dans la spirale de la #précarité. Depuis des années, les allocations familiales et les aides au logement lui sont vitales. Juliette n’est jamais restée inactive bien longtemps, mais son CV « atypique », comme elle dit, rebute beaucoup d’employeurs, malgré un bac + 5 en communication. « Les boulots salariés, je les tiens un an et je finis en burn-out », raconte la mère de famille de 50 ans, un peu gênée, assise au milieu de sa petite cuisine en formica remplie de ses trouvailles de brocantes.

      #mère_isolée

      Profilage et discriminations : enquête sur les dérives de l’algorithme des caisses d’allocations familiales
      https://archive.is/JoTma

      Depuis 2010, la CAF note ses treize millions de foyers d’allocataires pour orienter ses contrôles. « Le Monde » a enquêté sur ce système, accusé de discriminer les plus vulnérables.

      Dis-moi qui tu es, l’algorithme dira si tu es #suspect. A la Caisse nationale des allocations familiales (#CNAF), où la recherche des erreurs de déclaration et des #fraudes s’est industrialisée au cours des dernières années, un outil a été érigé en totem : le data mining (exploration de données). La priorisation des dossiers à contrôler repose aujourd’hui quasi exclusivement sur un « score de risque » calculé pour chaque allocataire suivant une batterie de critères personnels.

      Ce système fait la fierté de l’institution, qui en vante les performances. Mais les alertes se multiplient sur les possibles dérives de cet algorithme, baptisé « data mining données entrantes » (DMDE). Plusieurs associations ont accusé la CNAF de discriminer les plus vulnérables au sein des publics à qui elle verse chaque mois le revenu de solidarité active (RSA), les aides au logement ou encore les allocations familiales.