• Comment les #cartes sont devenues des #contre-pouvoirs pour redessiner le monde

    Luttes écologistes, défense des libertés, mouvements féministes… Longtemps réservée aux puissants, la cartographie se réinvente sous l’impulsion de collectifs citoyens, de chercheurs, de journalistes et d’artistes. Un mouvement critique ancré dans une riche histoire théorique.

    Des îlots de forêt sillonnés par des camions de rondins et cernés par des usines de papier et de pellets, d’où surgit un impressionnant crapaud sonneur à ventre jaune, une espèce protégée. C’est ainsi que des habitants de la Montagne limousine ont représenté « leur » massif forestier, à la croisée de la Corrèze, de la Creuse et de la Haute-Vienne.

    Coéditée par IPNS, le journal d’information et de débat du plateau de Millevaches, et la maison d’édition associative A la criée, située à Nantes, la carte au format papier n’est pas destinée aux randonneurs ou aux touristes de passage. En mêlant #dessins et #récits, elle « vise à questionner les dynamiques forestières », explique #Frédéric_Barbe, géographe, artiste et membre de l’association, et donne à voir ce que les cartes institutionnelles ne montrent pas : l’industrialisation d’un territoire, la tristesse des riverains face aux coupes rases et leur volonté d’un autre avenir pour la #forêt.
    La publication fait partie de la douzaine de « #cartes_de_résistance » produites en dix ans par l’éditeur, vendues à prix bas ou libre avec un certain succès. La conception est toujours collective, menée à l’initiative ou au plus près des habitants, avec le soutien d’un géographe et d’un graphiste. La première, celle de la ZAD de Notre-Dame-des-Landes (Loire-Atlantique), en février 2016, est épuisée après cinq tirages et plus de 20 000 exemplaires diffusés. Celle des Jeux olympiques de Paris, en partenariat avec le collectif local Saccage 2024, raconte le revers de la médaille des JO, les expulsions d’habitants à Saint-Denis (Seine-Saint-Denis) et les morts d’ouvriers sur les chantiers du Grand Paris.
    Ces productions rompent délibérément avec les conventions graphiques de la cartographie institutionnelle. « La carte n’est pas le #territoire, mais invite à le penser, affirme l’éditeur. C’est un outil d’#éducation_populaire, simple et pas cher, que l’on peut afficher au mur ou poser sur une table pour réfléchir ensemble à la façon dont on veut vivre sur cet espace. »
    Un vent de rébellion souffle sur la cartographie, une discipline pourtant perçue comme technique et très codifiée. Un foisonnement d’initiatives et de réflexions a émergé depuis une quinzaine d’années, dont il est difficile de cerner les contours, tant il exprime une variété d’intentions, de méthodes et de productions. « Je travaille dans ce domaine depuis trente-cinq ans, et je n’arrive pas à suivre le rythme de toutes les initiatives », s’exclame #Philippe_Rekacewicz, chercheur associé au département des sciences sociales de l’université de Wageningue (Pays-Bas) et l’une des figures françaises de ce courant.

    Pour la « #justice_spatiale »

    Cet ex-journaliste au Monde diplomatique se réclame d’une pratique « radicale » de la discipline, d’autres préfèrent se dire « critiques », d’autres encore ont adopté le terme de « #contre-cartographie ». Ces démarches, à la croisée des sciences, des arts, de la politique et de militantisme social, partagent un socle commun, celui de vouloir renverser le #pouvoir_des_cartes et les mettre au service d’une forme de « justice spatiale ». Luttes écologistes et urbaines, défense des libertés et des droits humains, mouvements féministes… Associations et collectifs contestent les représentations institutionnelles, se réapproprient l’espace ou montrent des réalités jusque-là invisibilisées. Elles sont souvent soutenues par des cartographes reconnus, et s’inscrivent dans une riche réflexion théorique et un « dialogue ancien entre le champ académique et les pratiques sociales », constate #Irène_Hirt, professeure au département de géographie et environnement de l’université de Genève (Suisse).
    De fait, ces pratiques contestataires trouvent leurs racines dans l’histoire même de la discipline. La géographe #Françoise_Bahoken, coautrice avec Nicolas Lambert de Cartographia. Comment les géographes (re)dessinent le monde (éditions Armand Colin, 2025), en date les prémices dès la fin du XIXe siècle, alors que la cartographie occidentale s’est imposée comme un modèle de scientificité, d’abord avec la précision des mesures, puis avec l’essor de la géographie quantitative liée à l’utilisation de données statistiques.

    Dès les années 1880, le géographe allemand #Ernest_George_Ravenstein s’empare du recensement de la population britannique pour infirmer l’idée selon laquelle les populations migrantes se déplaceraient de façon anarchique. Un peu plus tard, le sociologue afro-américain W. E. B. #Du_Bois visualise, à l’occasion de l’Exposition universelle de Paris de 1900, les « lignes de couleur » qui divisent la société américaine, démontrant, cartes et graphiques à l’appui, comment le racisme empêche toute égalité sociale.

    Il faut cependant attendre les années 1960 pour que ces travaux commencent à se diffuser, grâce à deux figures respectées de la profession, les géographes #David_Harvey et #William_Bunge (1928-2013). Le premier crée un courant d’inspiration marxiste, désigné sous le nom de « #géographie_radicale », qui s’attache à analyser la façon dont le capitalisme modèle les #inégalités_spatiales. Le second décide, en 1968, de rompre avec l’approche quantitative lorsqu’il prend conscience de son rôle dans les politiques urbaines ségrégationnistes aux Etats-Unis.

    Avec #Gwendolyn_Warren, leader militantiste des droits civiques de la communauté noire de Detroit (Michigan), William Bunge développe, dans cette ville ouvrière du nord des Etats-Unis, un projet de recherche géographique fondé sur l’enquête de terrain, embarquant dans l’aventure plusieurs centaines de jeunes habitants, femmes et hommes, du quartier noir de Fitzgerald. Pour Warren et Bunge, former les résidents à documenter les #logiques_spatiales, c’est démocratiser l’exercice du pouvoir. Ces « #expéditions_géographiques » conduiront à la publication d’un livre (Fitzgerald : Geography of a Revolution, Cambridge, 1971) sur les processus de paupérisation et d’exclusion du quartier.
    Ce sont toutefois les travaux d’un historien, #John_Brian_Harley (1932-1991), qui, à la fin des années 1980, opèrent un tournant théorique majeur. Dans son article fondateur, « Deconstructing the Map » (Cartographica, 1989), il invite à lire les cartes non comme de simples reflets du réel, mais comme des constructions sociales, traversées par des #rapports_de_pouvoir. La carte est une construction située dans le temps et dans l’espace, affirme-t-il, dont « une grande part du pouvoir (…) est qu’elle opère sous le masque d’une science en apparence neutre. Elle cache et nie sa dimension sociale en même temps qu’elle la légitime ».

    L’historien identifie un double pouvoir derrière l’outil : celui du cartographe ou de son commanditaire, qui décide de ce qui est représenté par le biais de choix multiples (projection, échelle, toponymes…), mais aussi un pouvoir interne, propre à la carte elle-même. Non seulement elle n’est pas neutre, mais elle est performative : elle agit sur nos #imaginaires et induit des #représentations. « Pour Harley, il faut absolument analyser d’un côté les intentions et les choix politiques de l’auteur, et de l’autre les usages, la façon dont la carte peut être instrumentalisée pour penser un territoire », souligne le géographe et chercheur au CNRS #Matthieu_Noucher.

    Ces réflexions, ainsi que l’ambitieuse History of Cartography que John Brian Harley dirige avec David Woodward (Presse de l’université de Chicago) à la même époque – le premier volume est publié en 1987 –, provoquent un choc méthodologique durable. La mise en lumière des formats multiples des cartes non occidentales contribue à décentrer le regard et à éclairer la dimension partielle et politique de toute représentation spatiale.

    Mythe de la #terre_vierge

    Cette prise de conscience va inspirer de nombreuses études en sciences sociales, notamment sur le rôle central de la cartographie dans l’#histoire_coloniale. « Elles montrent que, du XVIIe au XIXe siècle, la carte a servi à créer le mythe de la #terra_nullius, la terre vierge inhabitée, pour justifier les #conquêtes_coloniales en accréditant l’idée de territoires vides d’hommes et de femmes », explique Matthieu Noucher. Le chercheur s’est attaché à analyser le « #blanc_des_cartes », voire leur « #blanchiment » lorsqu’il s’agit d’effacer les rares mentions de populations autochtones. Ainsi, en Guyane, une première carte française notifie, en 1732, la présence de « nations indiennes » sur le territoire, une formule remplacée trois décennies plus tard par la mention de « belles et très fertiles plaines que doit habiter la nouvelle colonie française ». Entre-temps, la France a perdu ses possessions canadiennes et a décidé de fonder une colonie de peuplement en Guyane.
    L’approche critique ne se limite pas à questionner la carte comme représentation dominante. A partir des années 1970, l’outil lui-même est réinvesti par les communautés autochtones pour défendre leurs droits territoriaux face aux projets extractivistes. Pour les communautés locales d’Amérique du Sud, d’Asie, d’Afrique et d’Océanie, produire des cartes devient une stratégie de #résistance à l’industrialisation des terres, comme en Colombie-Britannique (Canada) contre la construction de pipelines de gaz et de pétrole. En 1995, la sociologue américaine #Nancy_Lee_Peluso forge le terme de « #contre-cartographie » pour désigner cette production destinée à contester les structures de pouvoir.

    Ces « contre-cartes » interrogent aussi la dimension culturelle des #méthodes utilisées, et du même coup les frontières de la science occidentale. « La contre-cartographie invite en effet à une #décolonisation des savoirs géographiques qui ne se matérialisent pas tous sous forme d’images. Ils peuvent se transmettre par la parole, le chant, la danse, la sculpture ou les rêves, intimement liés aux pratiques et aux territoires de la chasse ou de la pêche, souligne Irène Hirt, qui a accompagné des communautés mapuche au Chili et innu au Québec dans la reconstitution de leur milieu de vie. Loin d’être vides comme le disent les cartes, ces terres sont pleines de toponymes, de lieux de rassemblement ou de sépultures, de sentiers de portage et de routes de migration humaine et non humaine. »

    A l’aube des années 2000, la généralisation des outils numériques ouvre un nouveau chapitre. L’essor des techniques de la géomatique (systèmes d’information géographique – SIG –, GPS, télédétection, etc.) et l’accès à de larges bases de données transforment profondément la cartographie conventionnelle. La géovisualisation devient en quelques années l’alliée indispensable de l’organisation des territoires. « Avec l’arrivée de l’application cartographique Google Maps en 2005, on a vu ressurgir une forme de croyance aveugle dans l’objectivité des données, et dans leur capacité à livrer en temps réel une image exacte du territoire », constate Matthieu Noucher.

    Les algorithmes et leur vision du monde

    Cette rupture renouvelle radicalement les enjeux de pouvoir. « Pour prendre au sérieux la proposition de John Brian Harley, il faut désormais s’intéresser aux fonctionnements des #algorithmes, des #bases_de_données et des applications », prévient le géographe. Et comprendre comment ces programmes, loin d’être neutres, imposent eux aussi une vision du monde. L’auteur de Blancs des cartes et boîtes noires algorithmiques (CNRS Editions, 2023) analyse les choix et les silences de modèles économiques fondés sur la publicité, qui « conduisent à privilégier, par exemple, l’affichage des commerces et à ignorer les milieux vivants ».

    Le « blanc des cartes », affirme Matthieu Noucher, prend un tout autre sens avec la personnalisation algorithmique et les bulles de filtre qui imposent désormais des réalités différentes selon le profil des utilisateurs, leur pays et leurs usages. Ainsi, Google Maps adapte son affichage en fonction du contexte politique et géographique du pays. « Depuis la décision de Donald Trump de remplacer l’appellation “golfe du Mexique” par “golfe d’Amérique”, un écolier américain ne voit plus la même carte qu’un élève mexicain », regrette le géographe.

    Cette personnalisation enferme les individus dans des visions fragmentées de l’espace, où commerces, infrastructures et frontières symboliques sont hiérarchisés différemment pour chacun. Ce basculement marque une rupture : « En se substituant aux organismes nationaux et internationaux chargés de réguler les noms et les représentations des lieux, les grandes plateformes numériques imposent progressivement leurs propres logiques, souvent guidées par des intérêts économiques ou géopolitiques », alerte le chercheur. Alors que la carte constituait jusque-là un #bien_commun et un support partagé indispensable au débat démocratique, « elle tend désormais à devenir un objet individualisé, soumis à une postsouveraineté cartographique dominée par les géants du numérique, au risque d’éroder toute représentation collective de l’espace ».

    Confrontées à ces évolutions, les approches critiques se sont, elles aussi, renouvelées. La démocratisation d’outils de plus en plus accessibles et participatifs a renforcé les pratiques alternatives. Lancé en 2004, le projet collaboratif de cartographie en ligne #OpenStreetMap, créé et mis à jour par des bénévoles du monde entier, et dont les données géographiques sont ouvertes à tous, reste « l’exemple le plus abouti de la contestation de la mainmise d’une multinationale comme #Google sur les représentations géographiques du monde », estime #Nicolas_Lambert, ingénieur en sciences de l’information géographique au CNRS. Ce spécialiste de la #géovisualisation a rejoint Migreurop en 2009, un réseau d’experts et d’une cinquantaine d’associations de défense des droits humains, qui « documente » et « dénonce » les effets des politiques migratoires européennes à travers la publication d’atlas « engagés ».

    Les initiatives de cartographie critique se développent aujourd’hui dans une grande diversité de contextes, d’échelles et de formes. Elles peuvent être individuelles ou collectives, concerner un quartier, un pays ou avoir une portée internationale, s’inscrire dans le cadre de travaux académiques, de luttes politiques ou d’enquêtes journalistiques, ou encore entremêler tout cela à la fois.
    De nombreuses productions s’appuient sur des données statistiques, tandis que d’autres ont recours à des approches dites « sensibles », qui visent à réinscrire les #expériences_vécues au cœur des #représentations_spatiales. Cette cartographie fondée sur les #sens et les #émotions s’est développée à travers les marches exploratoires de femmes, créées dans les années 1990 au Canada, à Toronto et à Montréal, puis organisées en France depuis une dizaine d’années. Angoisse, peur, sentiment de sécurité ou de confort deviennent autant d’éléments traduits en symboles graphiques. En rendant visibles les expériences de l’#espace_public différenciées selon le #genre, ces marches ont fait de la carte un outil pour repenser l’aménagement urbain et lutter contre les violences, mais aussi un levier d’émancipation. « S’inscrire dans l’espace symbolique de la carte revient à se réapproprier l’espace, à forcer la reconnaissance de soi et à exister aux yeux des autres », se réjouit l’historienne Nepthys Zwer, autrice de Pour un spatio-féminisme. De l’espace à la carte (La Découverte, 2024).

    « #Cartes_mentales » des émotions

    Dans ce contexte, le recours à des modes d’expression créatifs (collage, dessin, broderie) facilite la participation de publics peu familiers des codes classiques. A Grenoble, des « rencontres cartographiques » entre migrants, chercheurs en sciences sociales et artistes, organisées dans les locaux de l’association Accueil Demandeurs d’asile, ont permis de collecter les récits de parcours migratoires par le dessin, la broderie et même la sculpture de l’argile à travers des « cartes mentales » des émotions, comme l’ont montré les travaux des géographes #Sarah_Mekdjian et #Anne-Laure_Amilhat-Szary.

    Dans cette perspective, la #subjectivité de la démarche est clairement revendiquée. Mais ces approches soulèvent aussi des questions : que peuvent apporter ces représentations à des pratiques plus conventionnelles ? Quelle place leur accorder dans une discipline formalisée ?

    « Parce qu’elle légitime et réhabilite les attachements et l’expérience empirique qu’ont les individus d’un territoire, la contre-cartographie est forcément subjective, comme toute carte d’ailleurs », souligne Nepthys Zwer. Elle se réclame d’un double héritage : celui de John Brian Harley, pour qui la carte n’est jamais neutre, et celui de la philosophe féministe américaine #Donna_Haraway, pour qui « toute #objectivité est toujours produite à partir d’un “#savoir_situé” ». Pour autant, « ces pratiques ne peuvent se réduire à un outil de lutte politique, prévient l’historienne. Elles font partie intégrante de la discipline qu’elles complètent et enrichissent, et doivent à ce titre être évaluées comme les autres ».

    C’est aussi l’avis de Philippe Rekacewicz, qui a choisi de son côté d’abandonner le terme de « contre-cartographie », parce qu’il « peut être interprété comme s’opposant à la cartographie conventionnelle ». « Or, nous utilisons les mêmes règles, nos méthodes d’enquête et d’entretien sont celles de la géographie qualitative et des sciences humaines en général. Ce qui change, c’est l’#intention, la volonté de déconstruire le discours du pouvoir et de rendre visible ce qu’il ne souhaite pas montrer », explique-t-il.

    Néanmoins, pour Françoise Bahoken, il faut différencier les cartes des « images et autres représentations de territoire ». « Certes, aucune représentation n’est objective par définition, mais la cartographie en tant que discipline scientifique s’appuie sur des théories et des méthodes, des dispositifs et des principes, et tend vers l’objectivité. Certaines approches ne sont pas scientifiques, ce qui ne veut pas dire qu’elles ne sont pas importantes, puisqu’elles permettent à des non-spécialistes de s’emparer des questions d’inégalité spatiale. »

    Planisphères et contre-cartes

    Longtemps marginal, le mouvement commence à se faire une place à l’université. « La cartographie critique fait l’objet de travaux académiques aujourd’hui largement reconnus et qui suscitent des vocations », affirme Nicolas Lambert. A l’université de Tours, un cursus de cartographie expérimentale a vu le jour au sein du département de géographie où des étudiants s’initient à des ateliers de #cartographie_sensible, tandis que d’autres universités comme Bordeaux et Grenoble proposent, elles aussi, des ateliers.

    De son côté, l’approche critique numérique fait l’objet d’un intérêt croissant, avec la prise de conscience de la puissance et de l’opacité des boîtes noires algorithmiques et du besoin de méthodes pour analyser leur fonctionnement. L’Agence nationale de la recherche finance désormais des projets dans ce domaine. « Un vrai progrès », se réjouit Matthieu Noucher, qui anime un groupe de travail autour des approches critiques au sein du réseau Magis, principalement composé de géomaticiens, ces spécialistes des données et des systèmes d’information géographique, et premiers concepteurs de cartes. « Jusque-là, les acteurs de la cartographie critique et ceux de la production de cartes officielles ne se parlaient pas beaucoup. Le principal enjeu aujourd’hui est de faire dialoguer les points de vue pour enrichir les modes de représentation », souligne le géographe.

    Le chercheur prépare, pour juin, à Bordeaux, une exposition à la croisée des arts et des sciences, qui fera dialoguer différentes représentations spatiales de la planète : des planisphères et des contre-cartes des Attikamek du Québec, des globes terrestres numériques à la manière de Google Earth et des sculptures de communautés autochtones kali’na de Guyane. Une autre façon de construire des ponts entre différentes visions du monde.

    https://www.lemonde.fr/idees/article/2026/01/02/comment-les-cartes-sont-devenues-des-contre-pouvoirs-pour-redessiner-le-mond
    #cartographie #visualisation #cartographie_radicale #cartographie_critique #pouvoir #performativité
    ping @visionscarto @reka
    via @karine4

  • Il brand mafia, tra TikTok e #dark_web

    I criminali si sono adeguati alle piattaforme per costruire la versione digitale dell’estorsione. In questo caso, si tratta di un pizzo sull’economia dell’attenzione. Intervista allo storico Marcello Ravveduto

    Le mafie del XXI secolo hanno dovuto adattarsi alle regole dei media e della società dei consumi per garantirsi sopravvivenza e legittimazione sociale. E ciò è avvenuto attraverso due passaggi: da un lato, la normalizzazione dei codici criminali, alimentata anche da chi sui social banalizza e riproduce gli immaginari mafiosi; dall’altro, l’uso strategico dello spazio digitale, gestito tra visibilità (TikTok) e occultamento illecito (dark web). Sono alcune delle conclusioni contenute nel rapporto Le mafie nell’era digitale: focus TikTok, curato per Fondazione Magna Grecia da Marcello Ravveduto, professore associato di Storia contemporanea all’Università di Salerno ed esperto di immaginari mafiosi.

    Ravveduto, perché concentrarsi sul binomio mafie-TikTok?

    È la naturale conseguenza del primo rapporto, dove abbiamo analizzato la presenza delle organizzazioni mafiose nell’ecosistema digitale. La ricerca si è concentrata sulle piattaforme user generated content, in cui l’utente è consumatore e al tempo stesso produttore di contenuti. TikTok si distingue per una serie di caratteristiche, ad esempio consente un utilizzo anonimo e i contenuti hanno un’alta volatilità. Inoltre, l’algoritmo premia l’engagement, la viralità e la visione seriale di alcuni generi e temi specifici.

    Questo crea un meccanismo in cui la mafia si configura come un sistema autoreferenziale, alimentato da una sorta di narcisismo criminale. L’obiettivo del rapporto non è solo informare, ma assicurarsi che l’opinione pubblica e gli utenti acquisiscano piena coscienza del fenomeno. Perché dietro i contenuti che etichettiamo come trash c’è molto altro; riderne e divulgarli può contribuire a normalizzare messaggi mafiosi.

    È corretto dire che la società dei consumi e dei media ha “conquistato” le mafie?

    Certamente la società dei consumi ha dettato le regole e i media, con le loro logiche, hanno ridefinito le modalità operative delle mafie. Su TikTok anche l’utente mafioso all’inizio deve comportarsi come un tiktoker e adeguare il suo stile di vita e la sua mentalità con l’obiettivo di raggiungere pubblici vasti. In sostanza, il mafioso deve seguire le regole imposte dall’algoritmo.

    Nel rapporto si parla di mafiofili. Chi sono?

    Sono utenti che manifestano apprezzamento per i contenuti che hanno uno sfondo mafioso: film, serie televisive o altro. Spesso si tratta di persone che non hanno rapporti diretti con le organizzazioni criminali, ma che sono suggestionate dal potere, dalla narrazione e dal fascino del racconto mafioso. Questi utenti, assai più numerosi dei mafiosi stessi, hanno un ruolo centrale nella riproduzione di contenuti e nella loro diffusione.

    Un’analisi di rete dei profili ha rivelato, infatti, che i mafiofili sono i veri motori della normalizzazione dei contenuti di matrice criminale. Non si limitano a consumarli, ma li utilizzano per inserirsi in un filone narrativo che si lega ad altri trend e temi: il lusso, il glamour, la moda, i motori e le culture giovanili in generale. Attraverso strumenti tipici delle piattaforme (meme, clip, challenge, lip sync, remix ecc.), i mafiofili creano un vero e proprio genere narrativo e questa narrazione si espande con grande facilità perché attrae pubblici diversi.

    Quindi normalizzando i contenuti finiscono per proteggere la figura del mafioso?

    Più che proteggerlo, lo sdoganano. Quando un utente è continuamente esposto a temi legati al cinema, alle serie tv o alla musica (sia essa trap o neomelodica), il successivo incontro con il contenuto del mafioso genera ambiguità: è una mera imitazione (alla Scarface o alla Tony Montana) oppure realtà? Le costruzioni retoriche utilizzate sono le stesse impiegate dagli influencer, che espongono decine di brand per promuovere il consumo. L’influencer indossa un capo firmato per promuovere il marchio, mentre il mafioso o il mafiofilo indossa lo stesso abito per dimostrare che la ricchezza ottenuta dal narcotraffico ne permette l’acquisto.

    Lei descrive una geografia digitale dove le mafie sono visibili su TikTok ("terre emerse") ma agiscono nell’ombra sul dark web ("sottosuolo"). Come si combinano queste due strategie?

    Se sulla terra trivelliamo per raggiungere il sottosuolo, nel mondo digitale usiamo le piattaforme crittografate per penetrare nel dark web.Il collegamento è garantito da strumenti che spesso sottovalutiamo: WhatsApp, Telegram e Messenger di Facebook sono tutti crittografati. Un altro punto di contatto sono i videogiochi con la partecipazione aperta, che creano pubblici numerosi e offrono chat integrate, facilitando i contatti. La ragione d’essere di questi due mondi è che sono complementari l’uno all’altro e al lavoro delle organizzazioni mafiose. La parte visibile è cruciale per la legittimazione sociale.

    Il mafioso è presente e riconosciuto nel quartiere che controlla e le persone devono sapere chi è per poterlo ossequiare. Nascondersi, invece, è una necessità intrinseca del crimine: se commetto un reato devo nasconderlo. Si tratta di due esigenze distinte: da un lato, cercare di influenzare la società alla luce del sole, dall’altro, commettere reati nascondendosi per non essere perseguiti. Il web replica la geografia fisica che è in grado di determinare anche una geografia sociale. Questa è la sua vera potenza.

    Molti video su TikTok usano l’ironia e rendono complesso l’intervento della piattaforma. Come distinguere tra un messaggio goliardico e uno che invece veicola codici e valori criminali?

    Il problema nasce quando l’ironia nasconde una minaccia o semplicemente una strategia per attirare l’attenzione, un messaggio compreso da chi appartiene al mondo criminale. Questa capacità di celare un secondo messaggio è la ragione per cui tali contenuti si espandono ben oltre la loro dimensione superficiale. L’unica strada è imparare a riconoscere i segnali portatori di più significati: simboli, ambienti, estetiche, acconciature e modi di vestire possono essere elementi indicativi. Non possiamo dire che una persona è mafiosa solo perché indossa un certo brand o usa l’emoji del leone, ma è necessario scavare più a fondo: chi è l’utente, chi sono i suoi follower, quali altri contenuti pubblica?

    Nel caso in cui, oltre all’ironia, i contenuti trattano temi come il carcere, i carcerati, o ancora se è ostentata la casa con i suoi stucchi barocchi, allora abbiamo degli elementi da valutare. Il criterio alla base di questa visibilità è un processo di vetrinizzazione tipico della società dei consumi: la persona si mette in mostra e diventa una merce. Loro sono consapevoli di essere i promotori del brand mafia e per promuoverlo usano un linguaggio pubblicitario composto da metafore, evitando riferimenti espliciti.

    Lei sostiene che le organizzazioni criminali si comportano come dei brand, che curano immagine e reputazione per attrarre il pubblico di riferimento.

    Sì, e aggiungo che tutto questo è nato spontaneamente, senza un pubblicitario o un regista a pianificare le strategie. I criminali si sono adeguati alle necessità delle piattaforme per costruire un processo di brandizzazione, hanno investito nella parte visibile per creare e costruire l’equivalente digitale di quello che una volta era il pizzo. In questo caso, si tratta di un pizzo sull’economia dell’attenzione. Ci sottraggono attenzione, costruendo un processo di legittimazione sociale che rafforza il loro brand.

    Ci può fare qualche esempio di come i mafiosi usano TikTok per fare branding?

    Propongono un modello di successo depurandolo dagli aspetti più negativi, in particolare quello della violenza. Spesso viene usata la stessa retorica dell’antimafia che commemora le vittime innocenti, ma applicata per glorificare i propri caduti. Esistono migliaia di profili che alternano slideshow
    con le foto dei morti ammazzati dei clan, trasformati in eroi e martiri. Fino a quando non comprenderemo che quel mondo parla come noi, ma alla rovescia, e che la chiave di volta è la costruzione di una post-verItà, non cambierà nulla.

    Ciò che per noi è vero, per loro non lo è, perché la loro verità è diversa. Questo è chiaro nelle dirette delle mogli dei boss, che dicono «mio marito è in galera, ma è una brava persona», oppure «mio marito spacciava, ma è un padre che non ha mai fatto mancare nulla ai figli». Siamo dinanzi a un meccanismo in cui la difesa dell’identità passa attraverso una verità alternativa. I social network prendono questo messaggio e lo spingono all’ennesima potenza.

    Su TikTok la figura femminile è rappresentata in una duplice veste: legata a un ruolo tradizionale e sottomesso, oppure protagonista nell’ostentazione e nell’uso dei codici criminali.

    In quel mondo l’emancipazione femminile è in realtà un processo di mascolinizzazione. La donna che ostenta il lusso e sostituisce il marito mostra la ricchezza e il potere guadagnati dal coniuge criminale. Simbolicamente, il patrimonio diventa la prova e la celebrazione del capofamiglia, anche se
    questo si trova in carcere. D’altronde sono persone cresciute con madri e nonne che hanno sempre vissuto in quel modo: la donna che non accudisce il suo uomo è considerata una cattiva femmina.

    Quando il marito non c’è più, la donna deve assumere un ruolo operativo, ma si comporta come un uomo. I rari casi di emancipazione avvengono quando comprende che deve uscire da quel contesto per salvare i propri figli, è solo allora che abbandona la figura della moglie e agisce esclusivamente nel ruolo di madre. Ma sono eventi eccezionali. Nella maggior parte dei casi, la donna è pienamente consapevole e integrata, se non felice. Tra l’altro, nel mondo criminale sono molto rari i femminicidi proprio perché la donna è completamente sottomessa.

    Chiudendo il cerchio, per risolvere il problema non basterebbe censurare alcuni contenuti criminali?

    La censura è inefficace. Possiamo chiudere tutti i profili di mafiosi e mafiofili, ma i messaggi continuerebbero a esistere, anzi tornerebbero sotto forme diverse. Le regole di TikTok sono chiare: l’intelligenza artificiale blocca i contenuti che presentano armi o un linguaggio scorretto, ma mafiosi e mafiofili possono aggirare questi vincoli, ad esempio utilizzando il dialetto. Da parte loro, forze di polizia, procure e tribunali hanno dei reparti dedicati al controllo dei social, ma se non c’è nulla di penalmente rilevante l’intervento risulta limitato.

    E allora qual è il metodo più efficace per contrastare il fenomeno?

    L’antimafia deve mettere da parte l’atteggiamento un po’ snob tenuto finora rispetto a queste piattaforme e cominciare ad affrontare le mafie sullo stesso “campo di battaglia”, proponendo una narrazione alternativa, ad esempio raccontando agli utenti dei social cosa si fa per contrastare le organizzazioni criminali. Senza questo scatto in avanti, gli algoritmi continueranno a costruire una sorta di pedagogia della mafia e tale visione diventerà sempre più parte integrante del nostro immaginario.

    https://lavialibera.it/it-schede-2515-il_brand_mafia_tra_tiktok_e_dark_web_marcello_ravveduto
    #mafia #réseaux_sociaux #TikTok #pizzo #extorsion #imaginaire #imaginaires_mafieux #algorithme #narcisisme_criminel #mafiofili

    • Le mafie e i social media

      Abiti firmati, auto di lusso, locali esclusivi, banconote in bella mostra. Sono i canoni dell’estetica criminale che le mafie italiane, al pari dei narcos e di altri clan, hanno imparato a sfruttare in maniera efficace. Sui social media ostentano ricchezza per affermare potere e raccogliere consensi, occupando la rete alla stessa stregua di un qualsiasi territorio di conquista. È la cosiddetta “mafiosfera”, per usare la terminologia coniata dal Professor Marcello Ravveduto.

      Un mondo digitale in cui le cosche convivono con il popolo degli emuli: i “mafiofili”, attratti dal fascino patinato dell’epopea malavitosa. Tra loro molti giovani, spesso inconsapevoli del fatto che, condividendo i contenuti pubblicati sui social, contribuiscano a banalizzare la violenza e l’illegalità. È un problema che finisce per riguardare tutti. Ovunque. Nel “mafiorama”, che dall’America Latina si è esteso all’Europa, compare anche la Svizzera, non certo estranea a mafiosi e “mafiofili”.

      https://www.usi.ch/it/feeds/33770
      #rapport #esthétique #richesse #pouvoir #territoire

  • Le mythe de la bonne IA

    Dans une perspective décoloniale, il n’y a pas de bonne IA, estime le philosophe #Arshin_Adib-Moghaddam. Lecture.

    « La société délirante dans laquelle nous vivons ressemble à un #mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosophie et codirecteur du Centre pour les futurs de l’IA de l’université de Londres. Mais, l’IA vient la renforcer parce qu’elle « floute les lignes de nos modes de compréhension de la vérité et du mensonge, du #pouvoir et de la résistance, de la subjectivité et de l’objectivité, de la science et de la fiction ». Ce qui change avec l’IA, c’est que Big Brother n’est plus une autorité qui nous contrôle de l’extérieur, mais une perturbation qui vient altérer nos #facultés_cognitives elles-mêmes.

    Pour Arshin Adib-Moghaddam, ni Orwell, ni Foucault ne peuvent nous aider à saisir le monde actuel. L’assaut contre notre #autonomie est massif, à l’image du projet délirant de #Torre_Centilena à #Ciudad_Juarez, équipée de 1791 lecteurs de plaques d’immatriculation, 74 drones et 3000 caméras panoramiques pour surveiller la frontière américano-mexicaine à perte de vue. Le pouvoir n’est plus incarné. « Le pouvoir est en train de devenir liquide, il prend la forme de tout ce qu’il colonise et devient quasiment invisible ». Le régime de #surveillance est en passe de devenir « microbien ». C’est-à-dire que non seulement il est partout, qu’il est intégré au plus profond de nous, mais qu’il tend à exercer un #contrôle_total, partout, tout le temps en étant totalement intrusif et en régissant jusqu’à notre psychisme même. Adib-Moghaddam parle de « #psycho-codification » du monde pour évoquer cette #intrusion inédite des méthodes qui altèrent jusqu’à ce que l’on pense, jusqu’à nos intentions disions-nous récemment. Cette intrusion nous entraîne dans une #guerre_posthumaine, entre les humains et les machines. Nous sommes désormais la cible de #drones, de #machines, d’#algorithmes qui s’en prennent à nos individualités mêmes. Partout, le meurtre et la torture s’étendent sans avoir plus de comptes à rendre, à l’image de la police des frontières américaines, ICE, qui déploie son emprise, comme d’autres armées et d’autres polices, via des machines de surveillances totalitaires. Comme le pointait pertinemment le journaliste Olivier Tesquet suite aux révélations que l’ICE aurait arrêté plus de 75 000 personnes aux Etats-Unis sans historique criminel (soit un tiers des 220 000 personnes arrêtées depuis 9 mois) : « plus l’ICE s’appuie sur #Palantir pour « rationaliser » l’appareil répressif, plus les arrestations deviennent arbitraires. Ce n’est pas un bug mais une fonctionnalité : la machine produit la catégorie d’indésirables dont l’administration Trump a besoin ».

    Derrière ces transformations bien réelles, l’IA les prolonge encore, en s’en prenant à nos sens mêmes, jusqu’à nous faire douter de la réalité même.

    Derrière cette société délirante, il faut entendre qu’il y a une « utilisation infâme » des technologies. De la reconnaissance faciale qui criminalise les #minorités raciales aux logiciels de récidives qui discriminent les populations racisées aux scores de risques qui refusent des aides et des prêts aux populations minorisées et pauvres… une même #oppression se déploie pour renforcer et cimenter les #inégalités_structurelles de la société.

    Dans ce contexte, estime Arshin Adib-Moghaddam, on entend beaucoup parler d’#éthique, d’IA responsable, qui serait à même, bientôt, demain, de réparer les systèmes et « d’atténuer les dommages ». Mais l’IA peut-elle être éthique ?

    L’IA peut-elle être éthique ?

    Non répond le philosophe. L’IA est là pour imposer sa #terreur, comme le disaient Hagen Blix et Ingeborg Glimmer. L’IA est là pour produire de l’#incertitude, de l’#angoisse, et cette peur est une méthode de #gouvernance. « L’IA augmente la capacité de ceux qui l’utilisent à nous terrifier, dans un but de #contrôle, de #surveillance et de #profit ». L’écrivain iranien Jalal Al-e Ahmad parle de « #westoxification » (contraction entre West, l’Occident, et intoxication pour désigner une forme d’absorption toxique, de submersion par la #culture_occidentale – le terme a été traduit en français en « #occidentalité ») pour désigner l’oppression de la modernité occidentale, comme le chercheur et sociologue péruvien Anibal Quijano dénonce la « #colonialité », c’est-à-dire le fait que les rapports de pouvoir colonialistes perdurent notamment depuis les technologies.

    Dans son livre, Arshin Adib-Moghaddam commence par débugger le discours des machines éthiques. Les fondations idéologiques de la science sont dysfonctionnelles, rappelle le philosophe. La science a accompagné le projet politique de la #modernité, comme l’expliquaient Ulises A. Mejias et Nick Couldry dans Data Grab (voir notre recension). Les Lumières ont transformé le #racisme en science. Et l’IA n’est qu’une extension d’un #système_techno-colonial, remanié par le #néofascisme en cours.

    L’idée même d’éthique est poreuse à ces idées problématiques, explique-t-il. L’éthique se présente comme un mécanisme universel, mais oublie que cette philosophie qui pense pouvoir rendre nos machines et nos actions responsables, est une pensée spécifique, historique, contingente à la philosophie occidentale… Et qui l’est d’autant plus qu’elle a oublié les apports des autres philosophies. Arshin Adib-Moghaddam évoque nombre de philosophes asiatiques, arabes ou juifs effacés de la tradition philosophique au profit des philosophes grecs et européens. « Les façons de poser les questions éthiques autrement ont été balayées ». Pour les thuriféraires de l’IA, la vénération de sa puissance tourne à la #religion. Mais si la machine peut-être Dieu, ce #fondamentalisme s’annonce aussi dangereux que l’extrémisme religieux, prévient Arshin Adib-Moghaddam. Pourtant, qui s’inquiète de l’interfaçage des machines à nos cerveaux, du devenir posthumain que nous promettent les développeurs de l’IA ? Kant, Hume ou Locke, ces grands penseurs de l’Occident, ont tous tenu des propos racistes, ont tous défendu l’idée que les barbares devaient être civilisés par les Européens. Et ces grandes pensées occidentales sont celles-là même qui viennent alimenter de leurs données l’IA moderne. « L’IA est ethnocentrée et cet #ethnocentrisme ne sera pas corrigé par les données », par l’amélioration des traitements ou par un sursaut éthique. Les manuels d’éthique doivent être réécrits, estime Adib-Moghaddam, qui invite à partir d’autres philosophies pour bâtir d’autres IA.

    L’IA : machine à discriminer

    Arshin Adib-Moghaddam dénonce le terme de #biais qui a colonisé la critique de l’IA. Les biais sont un terme bien dépolitisé pour évoquer l’#oppression_structurelle inscrite dans les #données, dans notre histoire. Le racisme des sociétés occidentales a été intériorisé dans une « #géopolitique_eugéniste » qui ne domine pas seulement les relations internationales ou économiques, mais qui psycho-codifie jusqu’à nos corps et nos esprits. Le #racisme a été la stratégie impériale et scientifique qui a encore des effets quotidiens, qui inocule nos outils, comme la #médecine, qui tue encore des patientes et des patients parce qu’elles et ils sont noirs, parce qu’elles sont des femmes et parce que les #données_médicales ne sont pas collectées sur elles et eux. Les rapports et les études sur le sujet s’accumulent sans que la médecine elle-même ne réagisse vraiment, comme si elle ne s’était jamais départie des origines racistes de la science, que dénonçait par exemple le sociologue #Eduardo_Bonilla-Silva dans son livre Racism without Racists : Color-Blind Racism and the Persistence of Racial Inequality in the United States (Le racisme sans les racistes : le racisme indifférent à la couleur et la persistance des inégalités raciales en Amérique, Rowman & Littlefield , 2003, non traduit). Même durant le Covid, les quartiers racisés ont été plus décimés que les autres.

    On peut alors dénoncer les #biais_racistes des systèmes, de la reconnaissance faciale aux pratiques algorithmiques d’Uber. Mais c’est oublier que nous sommes cernés par des données algorithmiques « blanchisées » (#whitewashing), c’est-à-dire à la fois blanchies parce qu’ignorantes de la couleur de ceux qu’elles écartent et blanchies parce qu’elles masquent leurs dysfonctionnements raciaux. Nous sommes coincés entre un passé pollué et un présent problématique. Nous restons par exemple coincés dans les constats où les cancers de la peau sont plus importants pour les populations de couleurs alors qu’ils sont moins diagnostiqués pour les patients noirs que blancs. Ces données et ces erreurs pourtant ne sont pas corrigées, pas prises en compte. La perspective d’augmenter notre capture par des données n’annonce pourtant pas d’amélioration, au contraire, d’abord et avant tout parce que cette invasion doit être comprise pour ce qu’elle est : une extension de l’héritage de l’#eugénisme raciste de la #science, une forme d’expansion biopolitique du contrôle plus qu’une promesse de justice et d’égalité.

    Les mauvaises données produisent de mauvais algorithmes et de piètre systèmes d’IA, rappelle le philosophe. Or, nous sommes cernés de mauvaises données. Les #préjudices du passé envers certaines populations sont intégrés aux systèmes qui vont produire l’avenir. Cela ne peut pas bien se passer. Pourtant, fort de ces constats, terribles, les recommandations éthiques paraissent bien trop mesurées. Elles invitent à améliorer la représentation et la diversité des ingénieurs et des éthiciens, à améliorer les principes éthiques, à améliorer l’éducation des ingénieurs… dénonce Arshin Adib-Moghaddam. Autant de mesures qui tiennent plus de l’#orientalisme qu’autre chose, pour faire référence au concept développé par l’intellectuel palestino-américain Edward Saïd dans son livre éponyme (Le Seuil, 1978), ouvrage fondateur des études postcoloniales. Pour Saïd, la tradition artistique et scientifique orientaliste n’est qu’une étude de l’Orient par l’Occident, une interprétation de l’Orient, une condescendance au service de l’impérialisme.

    Du #techno-orientalisme au #privilège_épistémique

    Pour Arshin Adib-Moghaddam, le techno-orientalisme qui consiste à améliorer la diversité des développeurs ou à produire une équité par des corrections techniques n’est en rien une solution. ll ne remet pas en cause le pouvoir de la #technologie. « Les personnes historiquement marginalisées et vulnérables continuent à être inventées comme objets de la technologie ». Les erreurs à leurs égards, finalement, renforcent l’obsession à mieux les surveiller sous prétexte d’#objectivité, pour mieux hiérarchiser la société par le calcul. « Le techno-orientalisme ne vise qu’à renforcer les frontières entre nous et eux, l’est et l’ouest, les noirs et les blancs, entre les nationaux et les autres ». Shoshana Zuboff a montré que la tolérance à l’extrémisme est bien souvent un modèle d’affaire acceptable. Dans une étude sur la toxicité de Twitter, le Centre de lutte contre la haine numérique avait montré qu’une dizaine de comptes sur X pouvaient produire du contenu haineux et conspirationniste capable de rapporter… 19 millions de dollars en revenus publicitaires. « Le techno-orientalisme s’impose comme un incubateur pour l’expansion impériale afin de maximiser les revenus pour quelques personnes sélectionnées ». L’#impérialisme de X prolifère et impose sa #colonialité. Comme les projections de Mercator ont valorisé l’Occident, nous montrant un Groenland par exemple aussi grand que la Chine, quand en réalité il ne fait qu’un quart de la superficie de la Chine. L’impérialisme de X, comme l’impérialisme de l’IA rend possible un « privilège épistémique » qui « confère à une poignée d’hommes le privilège d’interpréter, de juger et de planifier l’avenir de la majorité ». Partout, une poignée d’hommes blancs parlent d’un avenir inévitable (le leur), utilisent ces outils pour diffuser leurs idées sans nuances, mégalomanes, patriarcale et coloniales influentes, sans se préoccuper du sort des autres. Derrière leurs idées rances, ils défendent avant tout leur #identité. Les néo-Nazis comme les terroristes d’ISIS tuent au nom de l’identité, comme le soulignait Paul Gilroy dans Against Race. Les médias sociaux sont devenus des paradis pour les fausses informations des extrémistes, où ils peuvent se faire les avocats de leurs agendas hystériques avec plus ou moins d’impunité. La #stupidité y est le meilleur capital, assène le philosophe.

    La coercition est forte avec les technologies. Microsoft et Google déploient des technologies de surveillance à l’encontre des Palestiniens. Saïd disait que la #déshumanisation des Palestiniens était l’un des grands héritage de l’orientalisme. Pour Arshin Adib-Moghaddam, une IA vraiment éthique devrait assurer que ses traitements et données soient auditables en accord avec les législation qui défendent les #droits_humains au niveau international, national et local. Le déploiement sans limite des technologies aux frontières, par la police et les militaires, nous montre qu’il n’en est rien.

    L’IA pour peaufiner l’oppression

    L’oppression structurelle, codifiée dans des institutions genrées et racistes, dans des normes politiques et sociales omniprésentes, s’apprête à entrer plus profondément dans nos esprits avec l’IA générative. Quand on pose des questions à ces moteurs, ils produisent certaines réponses qui sont le reflet des sociétés occidentales qui les produisent. A la question y-a-t-il un génocide à Gaza, #ChatGPT répond non. A la question peut-on torturer une personne, ChatGPT répondait par l’affirmative si cette personne venait d’Iran, de Corée du Nord ou de Syrie. Ces « #erreurs » qui n’en sont pas mais qui peuvent nous être présentées comme telles, sont bien sûr corrigées parfois. Les #modèles_de_langage galvanisent les préjudices raciaux comme le montrait l’étude menée par Valentin Hofmann (qu’on évoquait ici : https://danslesalgorithmes.net/2024/06/04/open-source-lia) qui montrait que l’IA s’adapte aux niveaux de langage de son interlocuteur ou qu’elle classe les mêmes CV différemment selon les consonances culturelles des noms et prénoms. Mais ils ne sont que les reflets des sociétés qui les produisent. Les modèles de langage sont bien les produits racistes de sociétés racistes, affirme celui qui avait dénoncé le caractère raciste de l’IA dans un précédent livre. Les corrections sont possibles, au risque d’enseigner superficiellement aux modèles à effacer le racisme, tout en le maintenant à des niveaux plus profonds. « En fait, nous sommes confrontés par une forme furtive de #technoracisme soigneusement dissimulée par un univers d’IA de plus en plus opaque ». Dans ces IA, les musulmans sont toujours associés à la violence.

    Weizenbaum nous avait prévenu : les humains sont plus enclins à se confier à une machine qu’à un humain. Et ce pourrait être exploité plus avant par les machines de coercition de demain. La CIA a beaucoup travaillé sur les drogues et outils permettant de mettre les gens en confiance, rappelle Arshin Adib-Moghaddam. Si les méthodes d’interrogation utilisées à Abu Ghraib ont été sur la sellette, le Mikolashek Report montrait par exemple que les frontières entre la torture, les abus et les techniques d’interrogations dites légitimes étaient plus poreuses que strictes. A Abu Ghraib, la torture n’était pas un accident. Les individus qui ont été torturés n’étaient pas isolés. A Abu Ghraib, les interrogatoires ne devaient pas laisser de traces sur les prisonniers et le système médical a donné ses conseils aux militaires pour y parvenir. C’est lui qui a proposé des modalités d’interrogatoires coercitives. A Abu Ghraib comme à Guantanamo Bay, des procédures ont été mises en place, comme le fait d’empiler les prisionniers nus pour profiter du fort tabou de l’homosexualité dans la culture arabe et musulmane.

    Que fera l’IA qui est déjà appelée à assister les interrogatoires de la CIA ou de la police ? Aura-t-elle encore plus que les humains la capacité de briser notre humanité, comme s’en inquiétaient des chercheurs ? Sera-t-elle l’outil parfait pour la #torture, puisqu’elle pourra créer du contexte psychologique ou informationnel pour rendre les gens toujours plus vulnérables à la #manipulation, comme des #chatbots compagnons, dressés contre nous.

    La torture à Abu Ghraib a été rendu possible parce qu’elle a épousé totalement la culture de ceux qui l’ont pratiqué. « L’histoire récente de l’IA n’apporte aucune preuve que les systèmes d’IA soient plus objectifs que les humains, à mesure qu’ils déploient les mêmes biais qu’eux, avec bien moins de responsabilité ».

    L’IA pour pour penser à notre place et prendre le contrôle des esprits

    Pour le philosophe, le contrôle de l’esprit est le Graal des systèmes d’IA. Ce que veulent ceux qui déploient l’IA, c’est qu’elle prenne le contrôle des esprits.

    Mais, dans les systèmes de domination, la résistance apparaît souvent là où on ne l’attend pas, disait Anibal Quijano. Pourtant, souligne Arshin Adib-Moghaddam, la société civile ne regarde pas suffisamment ce qui se déploie, elle semble peu impliquée dans le très dynamique secteur de l’IA militaire. Face à l’inégalité de pouvoir entre utilisateurs de l’IA et producteurs d’IA qui se sédimente avec le déploiement et l’extension des outils d’IA partout, peu est fait pour nous protéger. L’érosion lente de la #vie_privée, l’objectivation posthumaine… nous éloignent de la dé-technologisation qu’appelle de ses vœux Carissa Véliz dans son livre, Privacy is Power (Penguin, 2021).

    Pour Adib-Moghaddam, nous devrions pourtant chercher à protéger notre humanité, plutôt que de chercher à flouter les différences entre l’homme et la machine, comme l’attendent les tenants du posthumanisme. Adib-Moghaddam souhaiterait un futur qui soit post-IA, dans lequel l’IA, au moins telle que nous la connaissons aujourd’hui, n’ait pas sa place. Tant que nous la laisserons exploiter les données passées nous laisserons construire une IA fondamentalement destructrice, extractive, qui perpétue l’#irrationalité et l’agenda des conservateurs et de l’extrémisme de droite, en exploitant les données pour renforcer les différences entre un nous et un eux dans lesquels personne ne se reconnaîtra autres que les plus privilégiés.

    La promesse d’une bonne IA est centrale dans l’approche éthique que pousse la Silicon Valley, enrôlant les meilleurs chercheurs avec elle, comme ceux du MIT, du Berkman Klein Center for internet et society de Harvard. Leur travail est remarquable, mais la poursuite d’une IA éthique ne nous aide pas à trouver des restrictions au déploiement de technologies qui maximalisent la #surveillance_de_masse et la #violence_systémique. « Tant qu’il n’existera pas de #restrictions, les délibérations morales et politiques sur l’informatisation demeureront secondaires par rapport à l’impératif de profit ».

    A l’heure de l’IA, la lutte pour la #démocratie risque d’être plus essentielle que jamais et plus difficile que jamais. Le mythe de la bonne IA nous promet un monde dont les fondations et constructions sociales ne changeront pas. « L’âge de l’IA nous promet un rapport léthargique et résigné au monde ». C’est sans surprise que ceux qui refusent cette IA là sont qualifiés d’être irrationnels, radicaux ou idéalistes… Mais ne soyons pas dupes. « Il est plus facile de prendre le parti des puissants à l’heure de l’IA, alors que nous devrions prendre la direction inverse ». « Les technologies d’IA sont un danger pour nos démocraties car elles inhibent nos choix en donnant de l’impulsion aux seuls extrêmes ». Elles nous confinent dans un espace de pensée restreint. Pour Arshin Adib-Moghaddam, il nous faut reconnaître notre humanité, une humanité qui ne peut être programmée par des machines qui ne seront jamais sensibles.

    Être humain, c’est savoir se protéger

    Être humain signifie savoir se protéger de la pénétration, c’est-à-dire un droit à être laissé tranquille, seul. Nous devons réaffirmer la nécessité d’un « bouclier de la vie privée ». La critique féministe et décoloniale nous donne des armes, comme le fait Françoise Vergès par exemple en croisant les deux. Ressentir, penser, percevoir ou croire doivent rester des valeurs humaines, sans altération des machines. C’est notre #intimité même que tente d’envahir le complexe industriel de l’IA.

    Ainsi par exemple, être créatif c’est indubitablement être humain. La #créativité des machines n’est qu’un effort pour rendre confus nos sens et émotions, au profit du profit et dans une aversion de l’art comme un comportement insurrectionnel. Psycho-codifiés, TikTok, FB ou X sont des moyens d’envahir nos sanctuaires intérieurs. Les machines peuvent faire n’importe quelle tâche sans ressentir la douleur et la discipline nécessaire que l’auto-amélioration nécessite. D’où des productions sans âme, « inutiles pour l’émancipation sociale comme politique ». En associant l’art au seul profit, la matrice technologique propose de faire suffoquer l’essence même de l’art, comme s’il n’était qu’une extension technologique, qu’un moyen de contrôler la subjectivité humaine.

    De quelque endroit qu’on l’analyse, l’IA ne nous offrira aucun antidote à l’#impéralisme, au #colonialisme et à l’#extrémisme. « Nous sommes tous devenus les objets du #colonialisme_des_données extraites de nos corps mêmes ». Le colonialisme était horizontal, géopolitique dans son expansion. Le colonialisme des données, lui, est intimement vertical. Il vise à objectifier des individus vulnérables au profit des sociétés technologiques du Nord global. Les grandes entreprises exigent de nous psycho-codifier en permanence et partout. Arshin Adib-Moghaddam défend un manifeste post-IA qui seul peut gagner la bataille entre le poète et la machine, le stylo et l’épée, le modérateur biaisé et l’activiste paisible. Nous avons besoin de #justice et d’#émancipation_sociale, rien d’autre. Ce qui n’y œuvre pas n’a pas d’intérêt. L’#ignorance, l’#évitement et la #passivité que nous promettent l’IA et ses tenants, ne nous proposent aucun avenir. « Si nous avons besoin d’une bonne IA, nous avons besoin d’une bonne IA qui réponde à nos termes », qui puisse nous permettre de reprogrammer le futur plutôt que de subir la perpétuation du passé.

    Être humain, c’est savoir se protéger. Et face aux machines, l’enjeu est encore de le pouvoir.

    https://danslesalgorithmes.net/2025/12/11/le-mythe-de-la-bonne-ia
    #décolonial #IA #AI #intelligence_artificielle

  • Au prétexte des Jeux olympiques 2030, l’Assemblée prolonge la #surveillance_algorithmique au moins jusqu’en 2027

    #Vidéosurveillance algorithmique, interdiction de paraître… L’Assemblée nationale a adopté mercredi le volet sécuritaire du projet de loi sur l’organisation des Jeux olympiques d’hiver de 2030 dans les Alpes françaises. Au grand dam de députés de gauche qui ont dénoncé des mesures liberticides.

    Les événements sportifs, toujours un bon prétexte à la surveillance de masse pour le gouvernement. L’Assemblée nationale a adopté mercredi le volet sécuritaire du projet de loi sur l’organisation des Jeux olympiques d’hiver de 2030 dans les Alpes françaises.

    L’examen du texte, qui contient également des #mesures_dérogatoires, par exemple en matière d’#urbanisme, devrait se poursuivre jusqu’à jeudi ou vendredi. Un vote solennel sur l’ensemble du texte est prévu le 6 janvier. Les députés ont adopté mercredi la prolongation jusqu’en 2027 de l’expérimentation d’un dispositif de #vidéosurveillance_algorithmique (#VSA), testé notamment lors des Jeux olympiques de Paris-2024, mais qui a pris fin en mars 2025.

    Concrètement, une analyse des #images est réalisée par un #algorithme, censée permettre de détecter plus facilement certains #comportements comme un #mouvement_de_foule, la présence d’une personne dans une zone interdite, ou encore un objet abandonné. Il s’agit d’aider « nos agents de la force de sécurité derrière les écrans à repérer ces situations », a expliqué la rapporteure du texte, Véronique Riotton (Renaissance).

    La vidéosurveillance algorithmique jusqu’à 2027, au moins

    Mais plusieurs députés ont pointé les résultats mitigés de l’#expérimentation jusqu’ici, et le fait que le texte prévoit qu’elle soit réalisée en 2026 et 2027, soit bien avant les JO. « L’étape d’après cette vidéosurveillance algorithmique, c’est la #reconnaissance_faciale à la chinoise », a également lancé la députée insoumise Gabrielle Cathala.

    La ministre des sports, Marina Ferrari, a elle défendu le « besoin » de récolter « davantage de données ». Le gouvernement avait tenté de prolonger l’expérimentation dans un texte sur la sécurité dans les transports, mais la disposition avait été retoquée par le Conseil constitutionnel, considérant qu’elle ne présentait pas de lien avec le texte.

    Les députés avaient auparavant adopté mardi d’autres dispositions sécuritaires, notamment la possibilité pour les agents privés de sécurité de procéder à l’inspection visuelle des véhicules et leur coffre, avec le consentement de leur propriétaire.

    Également adoptée : une « #interdiction_de_paraître » sur les lieux d’un grand évènement ou rassemblement, qui pourra être prononcée envers toute personne pour laquelle il existe « des raisons sérieuses de penser que son comportement constitue une menace d’une particulière gravité pour la #sécurité_publique ».

    Cette interdiction, limitée à deux mois, serait prononcée par le ministre de l’Intérieur « aux seules fins de prévenir la commission d’actes de #terrorisme ». Mais des députés à gauche ont assuré que cette mesure pourrait être utilisée par exemple contre des militants écologistes.

    « Cette mesure sera permanente et applicable à tout grand rassemblement », et représente « une atteinte disproportionnée aux #libertés_publiques », a lancé le député écologiste Jean-Claude Raux.

    https://www.humanite.fr/politique/cybersurveillance/au-pretexte-des-jeux-olympiques-2030-lassemblee-prolonge-la-surveillance-al
    #JO #JO_2030 #Alpes #France #jeux_olympiques #surveillance

  • [Sur la piste des algorithmes] Entretien avec Vincent Dubois | Observatoire des algorithmes publics
    https://www.odap.fr/articles/sur-la-piste-des-algorithmes-vincent-dubois

    Je ne suis pas venu à l’#algorithme, c’est lui qui s’est imposé à moi sur le terrain. Mes recherches portaient depuis la fin des années 1990 sur les politiques de #contrôle des #allocataires d’aides sociales, avec un intérêt particulier pour la façon dont se déroulaient les #enquêtes_à_domicile réalisées par la Caisse Nationale d’Allocations Familiales (#CNAF). Après une pause, j’ai repris ce terrain au milieu des années 2010, pour analyser l’évolution des pratiques de contrôle depuis ma première enquête. Très vite, j’ai découvert qu’un nouvel outil – un algorithme de #data_mining – était devenu déterminant dans la sélection des dossiers à contrôler. Je ne pouvais pas l’ignorer, car c’était devenu un rouage central de la machine de contrôle. Même si je n’avais aucune formation technique sur ces questions, en ouvrant un petit peu la boîte noire, je me suis rendu compte que c’était non seulement extrêmement important, mais aussi tout à fait passionnant.

    Que s’est-il passé entre vos deux enquêtes ? Comment expliquer l’irruption de cet algorithme dans les procédures de contrôle de la CNAF ?

    Au départ, il y a une histoire locale, hasardeuse si j’ose dire, qui s’est imbriquée dans une dynamique structurelle déjà très engagée de recherche d’efficacité dans les contrôles. Localement, tout commence au sein d’une caisse départementale, touchée par une affaire de fraude à très grande échelle. L’agent comptable, préoccupé par la responsabilité qui lui incombe, s’interroge sur les outils mobilisables pour mieux détecter ce type de situation. Or, dans cette même caisse, un agent issu du secteur privé avait auparavant participé à la conception d’un #outil_prédictif destiné à repérer les mauvais. Ce savoir-faire est alors réinvesti et adapté au contexte local, avec le soutien de la CNAF. L’expérimentation locale est jugée concluante, et l’algorithme est progressivement déployé à l’échelle nationale à partir de 2010. À ma connaissance, c’était la première fois qu’une administration publique utilisait un algorithme de manière aussi massive. Mais il faut aussi replacer cet événement presque fortuit dans un contexte plus global. À cette époque, la logique de « maîtrise des risques » devient un principe d’action central dans les #CAF. L’algorithme et son modèle probabiliste de prédiction des risques d’erreur apparait alors, en quelque sorte, comme la traduction statistique de ce mode de pensée managérial, où la #gestion_préventive_du_risque devient un quasi-synonyme du contrôle des allocataires.

    #management

  • « Aujourd’hui, on ne peut pas comprendre le contrôle à France Travail sans comprendre les algorithmes » - Entretien avec Claire Vivès
    https://www.odap.fr/articles/sur-la-piste-des-algorithmes-claire-vives

    Au fil de l’enquête, on s’est rendu compte que plusieurs outils qu’on peut qualifier d’« algorithmiques » jouent un rôle essentiel dans la sélection et le traitement des #allocataires qui vont, justement, faire l’objet d’un #contrôle. Il faut d’abord préciser que le mot « #algorithme » n’est pas toujours utilisé en interne : certains outils sont qualifiés de « robots », d’autres ressemblent à des documents Excel, mais ils participent tous à un processus de sélection ou de hiérarchisation automatisée des personnes inscrites sur les listes de #France_Travail.

    De fait, aujourd’hui, les personnes inscrites à France Travail peuvent être désignées pour un contrôle via trois modalités principales : le #signalement par leur conseiller ou leur conseillère, le #tirage_aléatoire, ou, finalement, ce qu’on appelle les « #requêtes_ciblées ». C’est là qu’intervient le premier véritable algorithme. Ces requêtes sélectionnent des personnes à partir de critères jugés pertinents (par exemple, une formation financée par France Travail achevée depuis plus de six mois ou une inscription dans un métier dit « en tension »). Ces critères sont définis au niveau national, puis adaptés régionalement. Ce sont des outils puissants de #ciblage, qui traduisent une forme de #suspicion_institutionnelle : pourquoi êtes-vous encore au chômage alors que vous avez été formé récemment ; ou que vous postulez dans un métier dans lequel les employeur·ses disent manquer de main-d’œuvre ?

    Un deuxième outil est récemment apparu, avec la réforme du contrôle de la recherche d’emploi entrée en vigueur au 1er janvier 2025. Pour répondre à l’objectif fixé par le gouvernement de passer de 600 000 contrôles par an à 1,5 million d’ici 2027, France Travail a introduit un « robot d’analyse des dossiers » censé permettre d’augmenter le nombre de contrôles à effectifs constants. C’est un outil qui vise à gagner du temps, en pré-classant en groupes les dossiers à contrôler. L’objectif est de déterminer si les demandeur·ses d’emploi recherchent activement un travail, à partir de critères comme la présence d’un CV sur l’espace personnel, les périodes travaillées au cours des trois derniers mois, ou encore les échanges avec France Travail. Mais déjà au niveau des critères, il y aurait beaucoup de choses à dire. Par exemple, l’usage de l’espace personnel n’est pas obligatoire : est-il donc pertinent que le robot en fasse un critère de tri ? Dans tous les cas, à ce stade, cet algorithme semble encore loin d’être opérationnel : il produit des erreurs basiques sur des informations comme les périodes travaillées, pourtant bien connues du système puisqu’elles déterminent l’indemnisation… À ce stade de notre enquête – qui n’est qu’à ses débuts sur cet aspect -, il semblerait que beaucoup d’agent·es ne l’utilisent pas, parce qu’iels considèrent qu’il leur fait perdre plus de temps qu’il n’en fait gagner. Il aurait même été suspendu le temps qu’une nouvelle version de l’outil soit déployée.

    Le dernier outil que nous avons identifié récemment est encore plus opaque. Il s’agit d’un « outil d’aide à la détermination de la #sanction » destiné à aider les agent·es dans l’application d’un nouveau type de sanction : la suspension du revenu de remplacement en cas de non-respect du #contrat_d’engagement1. Cette sanction est liée à la parution d’un décret, qui prévoit une suspension de l’indemnisation de durée et de niveau variable, en fonction des “manquements” identifiés. Pour ce faire, les agent·es utilisent un tableau Excel, non relié au système d’information de France Travail, dans lequel iels cochent dans des liste le ou les « indices de non-respect des engagements détecté(s) au cours du contrôle » d’une part, et les « contrainte(s) personnelle(s) et difficulté(s) détectées au cours du contrôle », d’autre part. L’outil attribue ensuite une « note » et propose une sanction selon trois critères : la « nature », le « pourcentage du revenu de remplacement impacté » et la « durée ». Nous ignorons absolument pour l’instant comment les différentes informations sont pondérées pour aboutir aux caractéristiques de la sanction préconisée.

    (...) Contrairement aux promesses d’automatisation libératrice qui présentent ces outils comme permettant aux agent·es de réduire leur charge de travail et de se concentrer sur leur cœur de métier en se déchargeant des tâches répétitives, on observe, au contraire, que ces dispositifs peuvent alourdir leur activité, sans que ce processus soit forcément visible, ni évident à mesurer. En fait, on constate qu’au mieux, les algorithmes ne font pas gagner de temps, et au pire, ils en font perdre. De plus, ces outils pourraient à terme conduire à déléguer au robot le travail d’analyse, ce qui ne laisserait aux agent·es que la charge de valider une décision prise par la machine ; sur la caractérisation des sanctions par exemple, les agent·es se trouvent dépossédés par l’algorithme.

    (...) Nos demandes d’observations du travail réalisé sur les plateformes de contrôle, par exemple, n’ont jamais abouti.

    #chômage #agents #automatisation_du_contrôle #contrôle_de_la_recherche_d’emploi #opacité #métier_en_tension #chomeur.euses #surveillance

    • certains critères redoublent les inégalités. Par exemple, le fait d’être inscrit·e sur un métier en tension : une telle situation atteste souvent d’autres difficultés, sociales ou de santé par exemple. Or, en 2023, plus de la moitié des contrôles ont ciblé des demandeur·ses d’emploi inscrit·es dans des métiers dits en tension.

  • #Diella, première #ministre artificielle en #Albanie : le #piège de la #féminisation des #IA

    Pour la première fois dans l’histoire, une intelligence artificielle a fait en Albanie son entrée au sein d’un #gouvernement. Au-delà des questionnements sur la place des IA dans la #décision_publique, la nomination de Diella comme ministre chargée des #marchés_publics suscite des interrogations sur la féminisation quasi systématique des avatars IA. Cette pratique trompeuse qui entretient les #stéréotypes de #genre perpétue l’#objectification des femmes et facilite la #manipulation.

    Le gouvernement albanais vient de créer la surprise en nommant Diella, une intelligence artificielle (IA), au poste de ministre des marchés publics. Présentée comme un atout dans la lutte contre la #corruption, Diella serait chargée d’analyser les #appels_d’offres, repérer les #conflits_d’intérêts et garantir l’#impartialité des #décisions_publiques.

    Cette initiative inédite marque une étape historique. Pour la première fois, une IA entre officiellement dans un gouvernement, ici, sous les traits d’un #avatar_numérique féminin. Mais au-delà du coup médiatique, et des questionnements éthiques que peut soulever cette nomination – peut-on vraiment gouverner avec une IA ?, elle suscite des interrogations fondamentales sur la féminisation quasi systématique des agents IA.

    Pourquoi Diella est-elle une #femme artificielle ? Et quelles sont les implications de cette féminisation de l’IA ?

    Diella : un cas d’école problématique

    L’IA a déjà été utilisée comme outil de gouvernance. Certaines villes se servent, par exemple, des #algorithmes pour optimiser les #transports ou pour détecter la #fraude. Mais en nommant une IA au rang de ministre, l’Albanie franchit une étape symbolique majeure : plus qu’un outil, elle devient une #figure féminine publique, censée incarner des #valeurs de #transparence et de #justice.

    La #promesse est séduisante : même si une IA peut reproduire ou amplifier les #biais de ceux qui l’ont programmée, une machine ne peut, en théorie, ni accepter de pots-de-vin ni favoriser des proches. Elle paraît offrir une garantie d’impartialité dans un pays où les scandales de corruption entachent la vie politique. L’Albanie est, en effet, classée 80e sur 180 pays dans l’indice de perception de la corruption, selon Transparency International.

    Mais cette vision occulte un problème central : les conséquences éthiques de la féminisation de l’IA sont loin d’être anodines.

    Pourquoi les IA sont-elles presque toujours féminines ?

    Depuis #Siri (Apple), #Alexa (Amazon) #Cortana (Microsoft) ou encore #Sophia, le premier robot ayant obtenu la nationalité saoudienne en 2017, la plupart des assistants virtuels et robots intelligents ont été dotés d’une voix, d’un visage, d’un corps ou d’un prénom féminins. Ce n’est pas un hasard.

    Dans une première recherche sur la question, nous avons montré que nous percevons les bots féminins comme plus chaleureux, plus dignes de confiance, voire même plus humains que leurs équivalents masculins.

    Pourquoi ? Parce que les femmes sont, en moyenne, perçues comme plus chaleureuses et plus susceptibles d’éprouver des #émotions que les hommes… et ces qualités font défaut aux machines. La féminisation des objets en IA contribue donc à humaniser ces objets.

    Cette féminisation s’appuie sur des stéréotypes bien ancrés : la femme serait « naturellement » plus douce, attentive et empathique. En dotant leurs machines de ces attributs, les concepteurs compensent la froideur et l’artificialité des algorithmes et facilitent leur acceptation et leur adoption.

    Quand la féminisation devient #manipulation

    Mais cette pratique soulève des problèmes éthiques majeurs, que j’ai développés dans un article récent publié dans les pages du Journal of Business Ethics.

    Cet article compare les implications éthiques de l’usage d’attributs genrés et sexués féminins dans deux contextes. D’un côté, la #publicité, où l’on recourt depuis longtemps à des #représentations_féminines idéalisées pour séduire les consommateurs. De l’autre, les agents IA, qui reprennent aujourd’hui ces mêmes codes. Cette mise en parallèle permet de montrer que, dans les deux cas, la féminisation engendre trois dangers majeurs : #tromperie, #objectification, et #discrimination.

    - La tromperie et la manipulation

    Attribuer artificiellement des caractéristiques humaines et féminines à des machines exploite nos réactions inconscientes et automatiques aux traits néoténiques (caractéristiques juvéniles associées aux traits féminins comme les yeux ronds, des traits arrondis) qui évoquent inconsciemment l’innocence et, donc, l’honnêteté et la sincérité.

    Cette manipulation subtile pourrait faciliter l’acceptation de décisions algorithmiques potentiellement problématiques. Une IA féminisée fait croire qu’elle est plus humaine, plus empathique, plus « digne de confiance ». Or, il ne faut pas oublier qu’il s’agit d’un programme informatique, sans émotions ni conscience – question qui commence à être discutée –, dont les décisions peuvent être biaisées voire instrumentalisées.

    – L’objectification littérale

    Contrairement à la publicité qui compare métaphoriquement les femmes à des objets, l’intelligence artificielle va plus loin : elle transforme littéralement la femme en objet programmable (une machine, un algorithme). Les IA féminines réduisent les attributs féminins à de simples outils de service : des machines obéissantes, disponibles en permanence. Cette mécanisation de la féminité reproduit et amplifie les logiques publicitaires d’objectification, mais avec une dimension inédite : l’interactivité.

    Résultat, des chercheurs relèvent la persistance de propos agressifs et à caractère sexuel dans les interactions avec ces assistantes, normalisant ainsi des comportements abusifs envers les « femmes-machines » qui risquent de se reporter sur les vraies femmes… In fine, l’humanisation et la féminisation de l’IA peut paradoxalement conduire à une déshumanisation accrue des femmes.

    - La perpétuation de stéréotypes

    À première vue, Diella pourrait apparaître comme une victoire symbolique : une femme – même virtuelle – accède à un poste de ministre. Dans un pays où la politique reste dominée par les hommes, et alors que la plupart des IA féminines sont des assistantes, certains y verront un signe d’égalité.

    Mais cette lecture naïve et optimiste occulte un paradoxe. Alors que les femmes réelles peinent à accéder aux plus hautes fonctions dans de nombreux gouvernements, c’est une femme artificielle qui incarne l’intégrité au pouvoir. Surnommée « la servante des marchés publics », c’est en réalité une femme sans pouvoir d’agir. On retrouve ici un vieux schéma : « l’Ève artificielle », façonnée pour correspondre à un idéal de docilité et de pureté. Une ministre parfaite, car obéissante et inaltérable… et qui ne remettra jamais en cause le système qui l’a créée.

    L’IA au féminin, sainte dévouée ou Ève manipulatrice

    La féminisation des IA repose en réalité sur deux tropes profondément enracinés dans notre imaginaire, qui réduisent l’identité féminine à l’archétype de la sainte dévouée ou de l’Ève manipulatrice.

    La #sainte_dévouée, c’est l’image de la femme pure, obéissante, entièrement tournée vers les autres. Dans le cas de Diella, elle se manifeste par une promesse de transparence et de loyauté absolue, une figure de vertu incorruptible au service de l’État et de son peuple.

    La représentation visuelle de Diella rappelle d’ailleurs fortement l’iconographie de la Vierge Marie : visage doux, regard baissé, attitude humble, et voile blanc. Ces codes esthétiques religieux associent cette IA à une figure de pureté et de dévouement absolu. Mais en faisant de l’IA une figure féminine idéalisée et docile, on alimente un sexisme bienveillant qui enferme les femmes réelles dans ces mêmes stéréotypes.

    L’Ève manipulatrice : dans la culture populaire, la confiance accordée à une IA féminisée se transforme en soupçon de tromperie ou de danger. Exemple emblématique : le film de science-fiction Ex Machina, dans lequel le héros est dupé par une IA dont il tombe amoureux.

    Si Diella venait à servir d’instrument politique pour justifier certaines décisions opaques, elle pourrait elle aussi être perçue sous ce prisme : non plus comme une garante de transparence, mais comme une figure de dissimulation.

    Ces deux représentations contradictoires – la vierge sacrificielle et la séductrice perfide – continuent de structurer nos perceptions des femmes et se projettent désormais sur des artefacts technologiques, alimentant une boucle qui influence à son tour la manière dont les femmes réelles sont perçues.

    Pour une IA non humanisée et non genrée

    Plutôt que d’humaniser et de genrer l’IA, assumons-la comme une nouvelle espèce technologique : ni homme ni femme, ni humaine ni divine, mais un outil distinct, pensé pour compléter nos capacités et non pour les imiter. Cela suppose de lui donner une apparence et une voix non humaines, afin d’éviter toute confusion, toute tromperie et toute manipulation.

    Le développement des IA devrait s’appuyer sur une transparence totale, en représentant l’IA pour ce qu’elle est vraiment, à savoir un algorithme.

    Enfin, les concepteurs devraient rendre publics la composition de leurs équipes, les publics visés, les choix de conception. Car, derrière l’apparente neutralité des algorithmes et de leur interface, il y a toujours des décisions humaines, culturelles et politiques.

    L’arrivée de Diella au gouvernement albanais doit ouvrir un débat de fond : comment voulons-nous représenter l’IA ? Alors que ces technologies occupent une place croissante dans nos vies, il est urgent de réfléchir à la façon dont leur représentation façonne nos démocraties et nos relations humaines.

    https://theconversation.com/diella-premiere-ministre-artificielle-en-albanie-le-piege-de-la-fem
    #AI #intelligence_artificielle

    • Excellent article.

      L’informatisation massive de France Travail amène à de plus en plus d’erreurs de calcul d’#indemnisation_chômage, les algorithmes répétant en boucle des dysfonctionnements sans que ceux-ci ne soient corrigés. Dans la moitié des dossiers des #chômeurs, aucun conseiller indemnisation humain n’intervient.

      France Travail entretient en plus un manque total de transparence sur ses calculs d’indemnisation, les conseillers eux-mêmes ne comprenant plus le système informatique, et bien que l’organisation corrige parfois les dysfonctionnements révélés, elle ne rembourse jamais les usagers lésés pendant des années.

      Avec l’automatisation amenée à se développer encore dans le futur, ces erreurs risquent d’empirer. Et même actuellement, combien de « bugs » et d’erreurs passent encore entre les filets ?

      [...]

      « Leurs droits terminés, les intermittents ne recevaient pas le formulaire automatique pour les Allocations de Solidarité Spécifique », se remémore [Yann Gaudin]. Une aide, d’environ 550 euros par mois à l’époque, normalement accessible à tous les demandeurs d’emploi éligibles après l’épuisement de leurs droits #ARE (Allocation de retour à l’emploi, le nom donné aux indemnités chômage). A l’époque, il pense à une simple erreur. Mais son signalement au service interne n’amène aucun changement. Lorsqu’il contacte de lui-même 8.000 intermittents bretons pour les informer, sa direction lui assène un avertissement pour son excès de zèle. Son initiative jouera dans son licenciement pour faute grave et insubordination aux yeux de l’institution.
      Ce n’est qu’en 2024, 10 ans après l’avertissement de Yann Gaudin et quatre ans après l’avoir licencié, que France Travail adaptera son site pour informer chaque usager de ce droit.

      [...]

      Car les algorithmes sont imparfaits. Par exemple, un usager qui quitte un CDI pour un autre mais est « coupé » après sa #période_d’essai se retrouve exclu des indemnités ARE, alors qu’il y a droit. Il en va de même pour de nombreux inscrits automatiquement à France Travail en tant que bénéficiaires du RSA, alors qu’ils sont éligibles au droit au chômage, plus rémunérateur, sans en être notifiés.

      (...) les algorithmes ont tendance à supprimer automatiquement les plus hauts #salaires des usagers, car jugés suspects. Une alerte est donnée pour un salaire 10 % supérieur à la médiane des revenus de l’année précédente et le salaire est automatiquement supprimé s’il est 20 % plus élevé, sans la moindre justification, suivant un peu trop à cheval les recommandations de l’Unédic**. Treizième mois, primes et autres heures supplémentaires sont donc supprimés des calculs de droit, sans que l’usager n’en soit notifié, faisant fatalement baisser ses indemnisations. (...) ce dysfonctionnement est particulièrement dommageable pour les usagers ayant eu des arrêts maladie. Tout salaire « normal » apparaît alors comme suspect par rapport à la médiane et est enlevé. Ce qui amène à des incongruités : « J’ai déjà ouvert des droits à 1,4 euro par jour, car la personne avait été en #arrêt_maladie deux ans et le système avait exclu tous les vrais salaires. Le système n’avait validé qu’un seul bulletin de salaire, le divisant par 365 jours »

      [...]

      Si de nombreux dysfonctionnements révélés par Yann Gaudin ou d’autres lanceurs d’alerte internes ont été réparés avec le temps, ces corrections n’ont jamais donné lieu à des remboursements collectifs. A propos de la correction d’un de ses dysfonctionnements, l’institution évoquait noir sur blanc dans une note interne, que 20 Minutes a pu consulter, qu’il n’y aurait « pas de reprise de stock » [sic] pour les personnes lésées pendant des années par cette erreur - comprendre pas de compensations financières.

      Il arrive que des journalistes reçoivent des informations et en fassent quelque chose.

      La sanction financières des arrêts maladies n’est pas un dysfonctionnement mais un modèle dont on voit ce que les projets de budget lui doivent.

      Faire des économies par tous les moyens nécessaires, en détail, et en masse (ce que le titre de l’article élude spectaculairement).

      #arnaque_institutionnelle #Illégalisme_institué #violence_institutionnelle #ASS #salaire_journalier_de référence (explosé par la loi et par les calculs) #SJR #médiateur_de_France_travail

    • Yann Gaudin #lanceur_d'alertes
      https://blogs.mediapart.fr/yann-gaudin/blog/051025/1100-victimes-de-france-travail

      Un recensement a été effectué en ligne de septembre 2024 à septembre 2025 et plus de 1100 victimes de défaillances de Pôle emploi / France Travail y ont répondu. Souffrance, erreurs de l’institution, absence d’explications règlementaires, dérapages : le rapport révèle des faits très inquiétants et présente des solutions pour sécuriser les services de France Travail.

      https://www.labonneetoile.fr/post/1100-victimes-de-france-travail-rapport-de-recensement

    • Entre paranoïa et tactique du mort du côté de France Travail, les usagers dans l’impasse pour obtenir leurs droits
      https://www.20minutes.fr/economie/4169845-20251024-entre-paranoia-tactique-mort-cote-france-travail-usagers-

      « France Travail vous impose son narratif »
      1 % des fraudes sociales valent-elles tant de paranoïa ?
      Des prélèvements de France Travail totalement illégaux
      « On tremble à chaque fois qu’on y va »
      Une explosion du nombre de médiations [or le médiateur est juge et partie... ça sert rarement de le saisir, mieux vaut un RAPO puis une procédure]

      https://www.20minutes.fr/journaliste/jean-loup-delmas

      #France_travail #indus #fraude #guerre_aux_pauvres

    • « Tout ce que je voulais, c’était travailler » … Quand France Travail rate son rôle de tremplin de retour à l’emploi
      https://www.20minutes.fr/economie/4170232-20251025-tout-voulais-travailler-quand-france-travail-rate-role-tr

      Les formations sont également très compliquées à obtenir. Dans le cadre de son PPAE (Parcours Personnalisé d’Accès a l’Emploi), Julien* a monté un dossier complet de financement de #formation pour devenir sophrologue. « Après m’avoir exigé un dossier complet, France Travail a refusé mon financement sur la base de motifs internes sans base légale, avant d’en changer plusieurs fois : une Aide individuelle à la formation (AIF) antérieure jamais démontrée, une non-conformité du projet, ou encore l’absence de retour rapide à l’emploi – alors que mon projet était entrepreneurial. ». Commence alors le même parcours du combattant que pour les usagers lésés face à un France Travail qui joue la montre et les refus de dialogue.
      « J’ai demandé un entretien avec la direction, qui n’est jamais arrivé. Lorsque j’ai demandé une réponse écrite comme l’avait demandé le médiateur et comme l’exige la loi - les décisions à caractère individuelles doivent faire l’objet d’une réponse écrite, la réponse écrite n’est jamais venue. » France Travail n’a rien répondu pendant deux mois, avant de réapparaître enfin. Deux mois, soit pile la durée du recours gracieux, au-delà de laquelle la formation ne peut plus être financée.
      Un système critiqué dans de nombreux rapports

      Un cas fréquent, dénoncé dans les rapports annuels du médiateur national de France Travail. En 2023, est cité le « problème récurrent des motifs de refus de financement de formation, qui sont souvent incompris par les candidats. Ils expriment parfois des motifs différents de ceux exprimés en agences. » En 2024, il pointe une iniquité de traitement et des blocages administratifs qui empêchent les usagers d’accéder à des formations validées dans leur Projet Personnalisé d’Accès à l’Emploi (PPAE). Dès 2018, la Cour des comptes étrillait dans son rapport La formation des demandeurs d’emploi « une juxtaposition de dispositifs et à une augmentation de moyens sans stratégie globale ni coordination des acteurs » et « des résultats décevants » pour les demandeurs d’emploi.
      Ces difficultés génèrent des réclamations récurrentes, souvent liées à des refus non motivés. Sylvaine*, conseillère France Travail, confirme le problème : « Débloquer une formation, c’est forcément du budget. On a l’impression d’accorder une faveur, et beaucoup de conseillers sont réticents à dépenser » … Un aspect « cadeau » alors qu’il s’agit d’un droit, dénoncé par de nombreux usagers. Laura s’en souvient : « Lorsque j’ai demandé une formation, on m’a dit que je devais fermer ma gueule si je voulais avoir mes droits. »
      « Rien n’avance et on nous empêche de faire »

      Sans compter une gageure administrative pour les conseillers : les formations sont souvent cofinancées par les régions, demandant une collaboration qui peut s’avérer très chronophage et complexe, comme le rappelle le rapport annuel du médiateur France Travail 2024. Reviennent alors les problèmes de temps et le rythme des conseillers (voir notre article précédent).

    • Pour les formations, c’est très simple  : le gros des fonds est pompé par des trucmuches de margoulinades spécialement pensés pour pomper le max des enveloppes prévues pour des trucs fumeux en face.

      Qaliopi devait mettre de l’ordre dans ce foutoir, à la place de quoi, c’est un bidule à valider ceux qui sont bons à monter des dossiers aux normes, indépendamment de l’utilité des contenus.

  • Politiques publiques : passer de l’#IA… à la #dénumérisation

    L’intelligence artificielle et son monde est en train de prendre la main sur les #politiques_publiques, au risque de nous laisser sans échappatoire, alerte Dan McQuillan.

    L’IA prédictive comme générative semble offrir une multitude d’avantages à l’élaboration des politiques publiques : de l’analyse de données complexes à l’optimisation des ressources. Elle semble à la fois être capable d’apporter une vision globale et d’identifier les leviers permettant de la modifier. Recourir à l’IA signifie mettre en place des politiques conduites par les données, ce qui permet d’assurer une forme d’#objectivité, notamment quant il s’agit de rationner le #service_public

    Mais, cette production de solutions politiques semble oublier que l’IA est incapable de résoudre les #problèmes_structurels. Elle propose des #solutions_performatives qui obscurcissent et amplifient les problèmes, explique l’iconoclaste #Dan_MacQuillan dans un article pour la Joseph Rowntree Foundation, une association britannique de lutte contre la pauvreté, qui a initié une réflexion sur l’usage de l’IA pour le #bien_public. Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’intelligence artificielle, Bristol University Press, 2022, non traduit) dont nous avions déjà parlé.

    McQuillan rappelle que l’IA, par principe, consiste à produire des #corrélations réductrices plutôt que des analyses causales. « La complexité de l’IA introduit une #opacité fondamentale dans le lien entre les #données_d’entrée et les #résultats, rendant impossible de déterminer précisément pourquoi elle a généré un résultat particulier, empêchant ainsi toute voie de recours. Ce phénomène est aggravé dans les applications concrètes, où les résultats apparemment fiables de l’IA peuvent devenir auto-réalisateurs. Un #algorithme d’apprentissage automatique qualifiant une famille de « difficile » peut ainsi créer une #boucle_de_rétroaction entre les membres de la famille et les #services_sociaux. De cette manière, l’IA imite des phénomènes sociologiques bien connus, tels que les #stéréotypes et la #stigmatisation, mais à grande échelle ». Ses inférences au final renforcent les #stratifications_sociales de la société comme pour les rendre acceptables.

    Or, rappelle le chercheur, « une bonne politique doit impérativement être ancrée dans la réalité ». C’est pourtant bien ce lien que rompent les calculs de l’IA, à l’image des #hallucinations. Celles-ci proviennent du fait que l’IA repose sur l’#imitation_du_langage plutôt que sa #compréhension. Le même principe s’applique à toutes les #prédictions ou #classifications que produit l’IA. « Que l’IA soit appliquée directement pour prédire la #fraude aux #aides_sociales ou simplement utilisée par un décideur politique pour « dialoguer » avec une multitude de documents politiques, elle dégrade la #fiabilité des résultats ».

    Des données probantes suggèrent déjà que l’imbrication des #algorithmes dans les solutions politiques conduit à une appréciation arbitraire de l’#injustice et de la #cruauté. Les #scandales abondent, de #Robodebt en Australie à l’affaire des allocations familiales aux Pays-Bas, qui auraient tous pu être évités en écoutant la voix des personnes concernées. Mais l’IA introduit une #injustice_épistémique, où la capacité des individus à connaître leur propre situation est dévaluée par rapport aux abstractions algorithmiques. Si l’IA, comme la #bureaucratie, est présentée comme une forme généralisée et orientée vers un objectif de processus rationnel, elle engendre en réalité de l’#inconscience : l’incapacité à critiquer les instructions, le manque de #réflexion sur les conséquences et l’adhésion à la croyance que l’ordre est correctement appliqué. Pire encore, l’IA dite générative offre la capacité supplémentaire de simuler une large consultation, que ce soit par « l’interprétation » hallucinatoire d’un grand nombre de soumissions publiques ou par la simulation littérale d’un public virtuel et prétendument plus diversifié en remplaçant des personnes réelles par des avatars d’#IA_générative. Une technique, qui, si elle a l’avantage de réduire les coûts, est dénoncée par des chercheurs comme contraire aux valeurs mêmes de l’enquête et de la recherche, rappelait Scientific American. « L’approche technocratique mise en œuvre par l’IA est à l’opposé d’un mécanisme réactif aux aléas de l’#expérience_vécue », explique McQuillan. « L’IA n’est jamais responsable, car elle n’est pas responsable ». Si l’on considère les attributs de l’IA dans leur ensemble, son application à l’élaboration des politiques publiques ou comme outil politique aggravera l’#injustice_sociale, prédit le chercheur. L’apport de l’IA à l’ordre social ne consiste pas à générer des arrangements de pouvoir alternatifs, mais à mettre en place des mécanismes de classification, de #hiérarchisation et d’#exclusion.

    Chaque signalement par l’IA d’un risque de #fraude, d’un classement d’une personne dans une catégorie, mobilise une vision du monde qui privilégie des #représentations_abstraites à la complexité des relations vécues, et ce dans l’intérêt des institutions et non des individus. « Imprégnées des injustices criantes du #statu_quo, les solutions de l’IA tendent inexorablement vers la #nécropolitique, c’est-à-dire vers des formes de prise de décision qui modifient la répartition des chances de vie par des désignations de disponibilité relative. Détourner massivement les individus des parcours éducatifs ou des prestations sociales dont ils ont besoin pour survivre, par exemple, constitue un #filtre_algorithmique pour déterminer qui est bienvenu dans la société et qui ne l’est pas ».

    Le problème, c’est que la pression sur les décideurs politiques à adopter l’IA est immense, non seulement parce que ses #biais viennent confirmer les leurs, mais plus encore du fait des engagements commerciaux et des promesses économiques que représente le développement de ce secteur. Et McQuillan de regretter que cette orientation nous éloigne de l’enjeu éthique qui devrait être au cœur des politiques publiques. La politique s’intéresse de moins en moins aux injustices structurelles de la société. « Un monde où l’élaboration et la mise en œuvre des politiques publiques reposent sur l’IA est aussi un monde qui confère un #pouvoir considérable à la petite poignée d’entreprises capables de disposer de ces ressources ». Par essence, « l’adoption de l’IA constitue un engagement en faveur de l’#extractivisme et d’un transfert de contrôle à un niveau qui supplante toute politique réelle ».

    En fait, explique McQuillan, adopter l’IA dans l’élaboration des politiques publiques revient à soumettre les politiques à des agendas corporatifs et idéologiques plus vastes (à savoir se soumettre à ceux qui ont déjà décidé que l’avenir de la civilisation réside dans l’intelligence artificielle générale (IAG), ceux qui ont décidé que la meilleure réponse à la crise structurelle est de la masquer sous le battage médiatique de l’IA, et ceux qui ont conclu que le meilleur moyen de maintenir les revenus en période de récession mondiale est de remplacer les travailleurs réels par des émulations d’IA de mauvaise qualité). L’impact net de l’IA dans l’élaboration des politiques la rendrait plus précaire et favoriserait l’externalisation et la #privatisation sous couvert d’une #technologie surmédiatisée. Il s’agit d’une forme de « #stratégie_du_choc », où le sentiment d’urgence généré par une technologie prétendument transformatrice du monde est utilisé comme une opportunité pour l’#emprise des entreprises et pour transformer les systèmes sociaux dans des directions ouvertement autoritaires, sans réflexion ni débat démocratique.

    Pour Dan McQuillan, plutôt que de se demander comment l’IA va imprégner l’élaboration des politiques, il faudrait se concentrer sur des politiques publiques qui favorisent la dénumérisation. C’est-à-dire favoriser une stratégie sociotechnique de réduction de la #dépendance à l’échelle computationnelle, de participation maximale des communautés concernées et de reconnaissance accrue du fait que le raisonnement computationnel ne saurait se substituer aux questions politiques exigeant un jugement réfléchi et perspicace. L’IA, en tant qu’appareil de calcul, de concepts et d’investissements, est l’apothéose de la « vue d’en haut », l’abstraction désincarnée du savoir privilégié qui empoisonne déjà nombre de formes d’élaboration des politiques. Pour McQuillan, un pivot vers la « #décomputation » est une façon de réaffirmer la valeur des #connaissances_situées et du contexte sur le seul passage à l’échelle. Contrairement aux prédictions et simulations de l’IA, notre réalité commune est complexe et intriquée, et la théorie ne permet pas de prédire l’avenir. Cela ne signifie pas que nous ne pouvons pas progresser vers des objectifs tels que la justice sociale et une transition juste, mais la dénumérisation suggère de les aborder de manière à la fois itérative et participative. Le véritable travail de restructuration réoriente l’attention des technologies toxiques vers le développement de techniques de #redistribution du #pouvoir_social, telles que les #conseils_populaires et les #assemblées_populaires. Bref, pour sortir de l’enfermement des politiques publiques de l’abstraction qu’impose l’IA, il faut prendre un virage contraire, suggère McQuillan. Un constat qui n’est pas si éloigné de celui que dresse le chercheur Arvind Narayanan quand il invite à limiter l’emprise du calcul sur le social, même s’il est exprimé ici d’une manière bien plus radicale.

    https://danslesalgorithmes.net/2025/10/07/politiques-publiques-passer-de-lia-a-la-denumerisation
    #intelligence_artificielle #AI

    • un contrôleur nous a ainsi témoigné avoir assisté à un cas de signalement pour soupçon de « fraude à l’isolement » visant une femme ayant déposé une plainte pour violences conjugales.

      Effrayant... un côté totalitaire.

    • Lorsque le système des CODAF est pensé, il existait un obstacle juridique majeur au projet de la MICAF : le secret de l’instruction9. Ce principe juridique fondamental tient au secret professionnel les personnes impliquées dans une procédure en cours (policiers·ères, juges d’instruction, magistrat·es du parquet…). Comme le rappelle le Conseil constitutionnel, il vise notamment à « protéger les personnes concernées par une enquête ou une instruction, afin de garantir le droit au respect de la vie privée et de la présomption d’innocence, qui résulte des articles 2 et 9 de la Déclaration de 1789 »10.

      Le secret de l’instruction limitait fortement l’intérêt des « signalements » en empêchant la police de communiquer aux administrations sociales le moindre élément d’une enquête non clôturée.

      Mais un an de lobby de la MICAF suffira pour que cette interdiction soit levée, au mépris de droits fondamentaux. Sur proposition de la MICA11, la loi d’orientation et de programmation pour la performance de la sécurité intérieure (#LOPSSI2) votée en 2011 autorise les membres du CODAF à « s’échanger tous renseignements et tous documents utiles à l’accomplissement des missions de recherche et de constatation des fraudes en matière sociales »12. Et ce quelque soit le stade de la procédure judiciaire.

      [Les signalements] peuvent se baser sur de simples suspicions sans que la police n’ait réellement à se justifier.

      #CODAF #allocataires

    • C’est dans le cadre des « Comités opérationnels départementaux anti-fraude » (CODAF) que la pratique du « signalement police » est apparue. Créés en 2010 sous l’impulsion de Nicolas Sarkozy , ces comités départementaux regroupent institutions policières (police, gendarmerie), organismes de protection sociale (CNAF, France Travail ou Assurance maladie) ainsi que différentes administrations publiques (impôts, douanes…)3.

      La CAF est la première institution sociale à se saisir pleinement des possibilités offertes par la loi LOPSSI2 . En 2013, elle signe un protocole avec la police nationale visant à préciser les modalités d’application de la LOPSSI213. L’objectif est de créer un cadre visant à « intensifier les collaborations » entre les deux institutions14 en vue de « susciter des signalements »

      https://fr.wikipedia.org/wiki/Loi_d'orientation_et_de_programmation_pour_la_performance_de_la_s%C3%A

      #LOPPSI (loi d’orientation et de programmation pour la performance de la sécurité intérieure)
      #Nicolas_Sarkozy #racisme

  • #Typhaine_D : quand la #justice décortique la violence masculine en ligne

    Neuf hommes ont été jugés, ce 17 septembre, par la 17e chambre du tribunal correctionnel de Paris, après une vague de #cyberharcèlement subie par l’artiste Typhaine D. Récit.

    Qui aurait pu penser que l’#écriture_inclusive pouvait mener au #tribunal ? Sûrement pas l’artiste Typhaine D. « Au bucher ! Sorcière ! », « Il faut la piquer », « Je déboiterai bien une bonne féministe », « Sale pute de Femen, le seul mot féminin que tu dois connaitre c’est ‘cuisine’ » (sic)… Des messages comme ceux-là, Typhaine D en a reçu des milliers en juillet 2022, après avoir participé à une émission du Crayon.

    Le média en ligne avait publié un très court extrait de la vidéo sur les #réseaux_sociaux – manifestement pour créer la polémique –, dans lequel Typhaine D défendait l’usage de la #Féminine_universelle, une version de la #langue_française féminisée, pensée pour sensibiliser à l’usage excessif du masculin « neutre ». Un extrait, et une vague de harcèlement en ligne. Un an après le début des insultes, des incitations au viol et au meurtre, l’artiste a porté plainte contre X, et onze hommes ont été retrouvés.

    Évolution de la justice

    Les #procès comme celui-ci sont encore peu nombreux en France. Les politiques peinent encore à encadrer les dérives des grandes plateformes – en témoigne la dernière commission d’enquête parlementaire sur TikTok –, et la justice à du mal à suivre le rythme des flots de #haine_en_ligne. D’après une étude Ipsos, 70 % des plaintes déposées pour des faits de #harcèlement_en_ligne n’ont donné lieu à aucune poursuite. Pour pouvoir faire comparaître des prévenus, encore faut-il avoir les moyens de les identifier.

    Fait encore plus rare : lorsqu’elle arrive au commissariat de son quartier pour porter plainte, Typhaine D est directement reconnue par les officiers. Ils avaient repéré la vague de cyberharcèlement, et s’attendaient à ce qu’elle se présente. « Je voudrais remercier l’ensemble des personnes qui ont participé à l’enquête parce que j’ai toujours été prise au sérieux, et ça m’émeut beaucoup », déclare la plaignante lors du procès, étonnée d’avoir été prise au sérieux. Et pour cause : 86 % des plaintes pour des faits de #violences_sexistes_et_sexuelles sont classées sans suite en France.

    Depuis 2020 aussi, le tribunal de Paris est doté d’un pôle contre la haine en ligne. Cette instance décortique les mécanismes spécifiques aux délits en ligne pour les juger au mieux. C’est son vice-président qui sera procureur dans ce procès.

    Des visages derrière les adresses IP

    Onze hommes donc, mais seulement six, ce 17 septembre, sur le banc des prévenus. Trois d’entre eux ne se sont pas présentés et seront jugés en leur absence. Deux étaient mineurs au moment des faits, et seront jugés séparément. Les six présents – d’âges, de professions, de régions différentes –, se parlent comme s’ils se connaissaient depuis toujours. Ces hommes, ces « #Monsieur-tout-le-monde », sont les visages de la violence masculine en ligne. Le visage de Typhaine D, les accusés le connaissent par cœur. Ils l’ont eux-mêmes partagé ou commenté sur les réseaux sociaux. Elle, les découvre.

    Tous sont accusés de harcèlement en ligne à caractère sexiste. Plusieurs d’entre eux, qui avaient formulé des appels au suicide ou au meurtre, sont aussi poursuivis pour provocation publique à commettre un #crime. « Quand je disais qu’il fallait la pousser sous un train, c’était du second degré. C’était pas concret, je n’imaginais pas que d’autres pouvaient avoir l’image », se défend Mattéo M., boulanger de 25 ans.

    Certains admettent avoir été entraînés dans le flot d’#insultes. D’autres rejettent la faute sur les réseaux sociaux, qui leur auraient proposé ces vidéos au hasard. Signe que la justice commence à prendre conscience des mécanismes des violences sexistes, le président et le procureur soulignent le fonctionnement des #algorithmes : sur les réseaux sociaux, plus on consomme de contenus sexistes, plus on nous en propose.

    Chacun des accusés donne l’impression de s’être senti protégé par l’#anonymat que procure #internet. « Il y a cet effet de meute sur les réseaux : face à un discours clivant, il y a un #effet_de_groupe, on a l’impression que notre #responsabilité est diminuée », reconnaît Robin K., 31 ans. Lui, admet avoir été pris dans une #bulle_numérique pendant des années, avoir consommé et commenté des contenus sur les réseaux sociaux à longueur de journée, ne minimise pas les faits, et soigne ses traumatismes d’enfance en thérapie depuis un an.

    Son avocat souligne cette évolution qui ne transparaît pas chez les autres prévenus : « Plus de trois ans après les faits, il s’est passé des choses dans sa vie. (…) À l’époque, il était bloqué dans une sphère négative. Les sociologues qui travaillent sur le sujet documentent très bien ce phénomène. »

    Du #sexisme au #masculinisme

    L’une des circonstances aggravantes des accusations qui pèsent sur les prévenus, c’est le caractère sexiste du harcèlement. Dehors, sur le parvis du tribunal, une petite centaine de militant·es et de personnalités publiques – l’actrice Anna Mouglalis, la députée Sandrine Rousseau, la sénatrice Laurence Rossignol ou encore le fondateur de Mouv’Enfants Arnaud Gallais – sont venu·es, à l’appel des collectifs féministes, soutenir la plaignante. Les réseaux sociaux servent à ça aussi.

    À l’intérieur de la salle d’audience, l’ambiance est plutôt à la négation des violences sexistes. « Salope », « sorcière », « demie folle » (sic)… Malgré la dimension misogyne indéniable des insultes utilisées, tous les accusés le martèlent : ils ne sont pas sexistes. « ‘Folle’, ça n’a pas de connotation sexiste. On dira aussi d’un homme qu’il est fou », conteste une avocate de la défense.

    Jonathan L., 38 ans, affirme qu’il soutient les femmes : la gestion de la salle de sport dont il est propriétaire, il l’a « même confiée à une femme, qui travaille mieux que certains hommes ». Il se présente comme un amoureux de la littérature, et justifie son commentaire – « Au bucher ! Sorcière ! » – par la défense de langue française, en réaction à l’#écriture_féministe prônée par Typhaine D. Ses livres de chevet ? Des manuels d’entrepreneurs, la biographie de Jean-Luc Mélenchon, et le dernier livre de Philippe De Villiers.

    Allant à rebours des arguments de la défense, le procureur souligne plusieurs fois l’importance de considérer la dimension sexiste des insultes, et demande même au tribunal de l’étendre à certains prévenus qui n’étaient pas concernés par cette circonstance aggravante. Il requiert, pour tous, des peines d’emprisonnement de plusieurs mois assorties d’un sursis, et des amendes allant de 1 000 € à 3 000 €.

    À travers l’examen de l’attitude de chacun des prévenus, il semble se dessiner l’échelle du continuum des violences sexistes. L’un d’eux, Tommy P., 40 ans, minimise l’ampleur des féminicides et pointe du doigt le #féminisme lors de sa garde-à-vue : « C’est pas les bonnes femmes qui sont féminicidées », « les Femen devraient faire un tour en prison », « l’hypocrisie est un mot féminin »… Sur les six accusés présents, c’est le seul qui ne formulera pas de remords. Son code pénal à lui : les règles d’utilisation de Facebook, qu’il assure respecter.

    Au cours de sa déposition, on découvre qu’il passe énormément de temps en ligne, à poster des messages sur des groupes Facebook, qu’il vit seul avec sa mère, et qu’il est passionné d’armes à feu. La mouvance masculiniste incel ne sera pas évoquée, mais son ombre plane au-dessus de l’audience. Un frisson parcours la salle. C’est Me De Filippis-Abate, avocate de Typhaine D, qui mettra des mots sur la réaction épidermique de beaucoup de femmes du public après la déposition de Tommy P. : « Je pense que toutes les femmes ici ont peur que ce monsieur nous tue. »

    https://www.politis.fr/articles/2025/09/justice-affaire-typhaine-d-quand-la-justice-decortique-la-violence-masculine
    #masculin_neutre #condamnation

  • « Le #Calcul_social à la chinoise existe déjà chez nous » – Entretien avec #Hubert_Guillaud
    https://lvsl.fr/le-calcul-social-a-la-chinoise-existe-deja-chez-nous-entretien-avec-hubert-guil

    Dans son dernier ouvrage intitulé « Les #algorithmes contre la société », le journaliste Hubert Guillaud, spécialiste reconnu des enjeux politiques de la numérisation de notre société propose une réflexion saisissante sur les conséquences anti-démocratiques du développement des pratiques de « scoring » tous azimuths, pour le calcul des prix des biens vendus sur les plateformes privées, comme pour le calcul des droits aux prestations sociales. Il revient avec nous sur les risques majeurs impliqués par ces grandes transformations inapparentes et souvent laissées hors du champ de la délibération citoyenne ou du débat public. Propos recueillis par Audrey et Simon (...)

    #Mirages_numériques #Société #Etats-Unis #GAFAM #la_fabrique #néolibéralisme #numérique #Scoring

  • Algorithmes publics : #danger démocratique ?

    Nos #services_publics sont truffés d’algorithmes et de plus en plus d’#IA. Le saviez-vous ? Découvrez comment les algos de l’#administration_publique française peuvent façonner votre vie : #transparence, #biais, et le #chatbot Albert décryptés !

    https://www.librealire.org/algorithmes-publics-danger-democratique
    #AI #intelligence_artificielle #France #discriminations #droits_fondamentaux #algorithme #politique #algorithmes_publics #discrimination

  • Personalized pricing has spread across many industries. Here’s how consumers can avoid it

    Recently, Delta Air Lines announced it would expand its use of artificial intelligence to provide individualized prices to customers. This move sparked concern among flyers and politicians. But Delta isn’t the only business interested in using AI this way. Personalized pricing has already spread across a range of industries, from finance to online gaming.

    Customized pricing – where each customer receives a different price for the same product – is a holy grail for businesses because it boosts profits. With customized pricing, free-spending people pay more while the price-sensitive pay less. Just as clothes can be tailored to each person, custom pricing fits each person’s ability and desire to pay.

    I am a professor who teaches business school students how to set prices. My latest book, “The Power of Cash: Why Using Paper Money is Good for You and Society,” highlights problems with custom pricing. Specifically, I’m worried that AI pricing models lack transparency and could unfairly take advantage of financially unsophisticated people.
    The history of custom pricing

    For much of history, customized pricing was the normal way things happened. In the past, business owners sized up each customer and then bargained face-to-face. The price paid depended on the buyer’s and seller’s bargaining skills – and desperation.

    An old joke illustrates this process. Once, a very rich man was riding in his carriage at breakfast time. Hungry, he told his driver to stop at the next restaurant. He went inside, ordered some eggs and asked for the bill. When the owner handed him the check, the rich man was shocked at the price. “Are eggs rare in this neighborhood?” he asked. “No,” the owner said. “Eggs are plentiful, but very rich men are quite rare.”

    Custom pricing through bargaining still exists in some industries. For example, car dealerships often negotiate a different price for each vehicle they sell. Economists refer to this as “first-degree” or “perfect” price discrimination, which is “perfect” from the seller’s perspective because it allows them to charge each customer the maximum amount they’re willing to pay.
    A black-and-white photo shows a fleet of delivery trucks for the John Wanamaker Department Store parked side by side.

    Currently, most American shoppers don’t bargain but instead see set prices. Many scholars trace the rise of set prices to John Wanamaker’s Philadelphia department store, which opened in 1876. In his store, each item had a nonnegotiable price tag. These set prices made it simpler for customers to shop and became very popular.
    Why uniform pricing caught on

    Set prices have several advantages for businesses. For one thing, they allow stores to hire low-paid retail workers instead of employees who are experts in negotiation.

    Historically, they also made it easier for stores to decide how much to charge. Before the advent of AI pricing, many companies determined prices using a “cost-plus” rule. Cost-plus means a business adds a fixed percentage or markup to an item’s cost. The markup is the percentage added to a product’s cost that covers a company’s profits and overhead.

    The big-box retailer Costco still uses this rule. It determines prices by adding a roughly 15% maximum markup to each item on the warehouse floor. If something costs Costco $100, they sell it for about $115.

    The problem with cost-plus is that it treats all items the same. For example, Costco sells wine in many stores. People buying expensive Champagne typically are willing to pay a much higher markup than customers purchasing inexpensive boxed wine. Using AI gets around this problem by letting a computer determine the optimal markup item by item.
    What personalized pricing means for shoppers

    AI needs a lot of data to operate effectively. The shift from cash to electronic payments has enabled businesses to collect what’s been called a “gold mine” of information. For example, Mastercard says its data lets companies “determine optimal pricing strategies.”

    So much information is collected when you pay electronically that in 2024 the Federal Trade Commission issued civil subpoenas to Mastercard, JPMorgan Chase and other financial companies demanding to know “how artificial intelligence and other technological tools may allow companies to vary prices using data they collect about individual consumers’ finances and shopping habits.” Experiments at the FTC show that AI programs can even collude among themselves to raise prices without human intervention.

    To prevent customized pricing, some states have laws requiring retailers to display a single price for each product for sale. Even with these laws, it’s simple to do custom pricing by using targeted digital coupons, which vary each shopper’s discount.

    How you can outsmart AI pricing

    There are ways to get around customized pricing. All depend on denying AI programs data on past purchases and knowledge of who you are. First, when shopping in brick-and-mortar stores, use paper money. Yes, good old-fashioned cash is private and leaves no data trail that follows you online.

    Second, once online, clear your #cache. Your search history and cookies provide algorithms with extensive amounts of information. Many articles say the protective power of clearing your cache is an urban myth. However, this information was based on how airlines used to price tickets. Recent analysis by the FTC shows the newest AI algorithms are changing prices based on this cached information.

    Third, many computer pricing algorithms look at your location, since location is a good proxy for income. I was once in Botswana and needed to buy a plane ticket. The price on my computer was about $200. Unfortunately, before booking I was called away to dinner. After dinner my computer showed the cost was $1,000 − five times higher. It turned out after dinner I used my university’s VPN, which told the airline I was located in a rich American neighborhood. Before dinner I was located in a poor African town. Shutting off the VPN reduced the price.

    Last, often to get a better price in face-to-face negotiations, you need to walk away. To do this online, put something in your basket and then wait before hitting purchase. I recently bought eyeglasses online. As a cash payer, I didn’t have my credit card handy. It took five minutes to find it, and the delay caused the site to offer a large discount to complete the purchase.

    The computer revolution has created the ability to create custom products cheaply. The cashless society combined with AI is setting us up for customized prices. In a custom-pricing situation, seeing a high price doesn’t mean something is higher quality. Instead, a high price simply means a business views the customer as willing to part with more money.

    Using cash more often can help defeat custom pricing. In my view, however, rapid advances in AI mean we need to start talking now about how prices are determined, before customized pricing takes over completely.

    https://theconversation.com/what-is-personalized-pricing-and-how-do-i-avoid-it-262195
    #prix #personnalisation #IA #AI #intelligence_artificielle #Customized_pricing #cash #paiement #internet #localisation #algorithme #résistance

    via @freakonometrics

  • La tarification algorithmique au coeur d’un bras de fer avec les détaillants américains

    A compter du 8 juillet, l’Etat de New York veut forcer les commerces à indiquer aux clients que leurs données ont été utilisées pour fixer un prix de vente. La National Retail Federation a entamé un recours auprès de la cour fédérale.



    Le New York Algorithmic Pricing Disclosure Act a été adopté par l’État en juin dernier. Pour la gouverneure Kathy Hochul, il s’agit de lutter contre l’opacité de certains prix, fluctuant selon les consommateurs, et empêchant de faire un travail comparatif des tarifs. Une étude publiée en janvier par la Commission fédérale du commerce pointait comment l’exploitation des données permettait de cibler chaque consommateur avec des prix différents. Avec, en creux, la possibilité de faire payer plus cher ceux pour qui un produit est le plus nécessaire.


    
Une accusation injustifiée, pour la puissante fédération américaine des détaillants, qui dénonce une “peur spéculative” et pointe de son côté que les données sont généralement utilisées pour proposer remises et promotions personnalisées. La NRF refuse de voir ses adhérents forcés localement de publier des avertissements “trompeurs et inquiétants” auprès des clients concernant l’usage fait de leurs données.
    . . . . .
    Suite et source : https://fr.fashionnetwork.com/news/La-tarification-algorithmique-au-coeur-d-un-bras-de-fer-avec-les-

    #algorithme #algorithmes #surveillance #biométrie #facial #bigdata #vidéo-surveillance #reconnaissance #discrimination #smartphone #profiling #manipulation #technologisme #géolocalisation

  • Builder.ai s’effondre après avoir caché 700 développeurs derrière son « IA » RTS - Pascal Wassmer

    La start-up britannique Builder.ai, valorisée à 1,5 milliard de dollars, a fait faillite après la découverte d’une fraude massive. Son intelligence artificielle révolutionnaire « Natasha » cachait en réalité 700 développeurs indiens. L’entreprise avait gonflé ses revenus de 300% pour attirer Microsoft et d’autres investisseurs majeurs.

    Builder.ai promettait de révolutionner le développement d’applications. La start-up britannique assurait pouvoir créer des logiciels « aussi facilement que commander une pizza » grâce à son intelligence artificielle « Natasha ».


    La réalité était tout autre. Derrière cette prétendue IA se cachaient près de 700 développeurs basés en Inde. Ils réalisaient manuellement le travail de programmation pour les clients.

    L’entreprise fondée en 2016 par Sachin Dev Duggal s’est effondrée en mai dernier. Elle avait pourtant réussi à lever près de 500 millions de dollars auprès d’investisseurs prestigieux.

    Microsoft, le fonds souverain du Qatar et SoftBank comptaient parmi ses financeurs. Ils avaient tous été séduits par la promesse d’une intelligence artificielle révolutionnaire.

    Des revenus gonflés de 300%
    Une enquête interne a révélé l’ampleur de la tromperie. Builder.ai avait gonflé ses prévisions de chiffre d’affaires de 300% pour 2024. L’entreprise annonçait 220 millions de dollars de revenus. Un audit indépendant a établi le montant réel à 55 millions de dollars seulement.

    Les chiffres de 2023 ont également été revus à la baisse. De 180 millions de dollars annoncés, les revenus réels s’élevaient à 45 millions.

    Sachin Dev Duggal se surnommait le « sorcier en chef » de Builder.ai. Il a été contraint de démissionner en début d’année.

    Le scandale a éclaté après une enquête de Bloomberg révélant une fraude comptable dite de « round-tripping ». L’entreprise simulait des relations commerciales avec la société indienne VerSe Innovation.

    Des milliers d’emplois perdus
    La faillite a entraîné le licenciement de près d’un millier d’employés. Builder.ai doit désormais 85 millions de dollars à Amazon et 30 millions à Microsoft pour l’utilisation de services cloud.

    L’entreprise fait l’objet d’une enquête fédérale aux États-Unis. Le bureau du procureur de Manhattan a exigé l’accès aux états comptables et à la liste des clients.

    Cette affaire illustre le phénomène du « blanchiment d’IA ». Cette pratique consiste à présenter des services technologiques de base comme de l’intelligence artificielle authentique.

    L’objectif est de capitaliser sur l’enthousiasme des investisseurs pour l’IA. Builder.ai n’est pas un cas isolé dans le secteur technologique.

    Source : https://www.rts.ch/info/sciences-tech/2025/article/builder-ai-s-effondre-apres-avoir-cache-700-developpeurs-derriere-son-ia-2890991
    #ia #intelligence_artificielle #ai #algorithme #technologie #chatgpt #machine_learning #escroquerie #fraude #arnaque

  • #France_Travail : des #robots pour contrôler les chômeurs·euses et les personnes au #RSA

    France Travail déploie actuellement des robots visant à automatiser et massifier le contrôle des personnes inscrites à France Travail. Depuis le 1 janvier 2025, cela inclut également les personnes au RSA. Il s’agit d’une nouvelle étape du dangereux projet de #gestion_algorithmique des personnes sans-emplois, porté par le directeur général de France Travail, #Thibaut_Guilluy. Retour sur le contexte de cette mise en place et ses implications sociales.

    Sous l’impulsion d’Emmanuel Macron, les #contrôles réalisés par France Travail sont passés de moins de 200 000 en 2017 à plus de 600 000 en 2024. Il y a tout juste un an, l’exécutif surenchérissait et fixait à l’institution un objectif de 1,5 million de contrôles en 20271.

    Parallèlement était votée, en décembre 2023, la loi dite « #Plein_Emploi », entrée en vigueur le 1er janvier dernier. Cette dernière vient modifier en profondeur les modalités du contrôle des personnes sans-emplois via deux mesures phares. La première est l’extension du pouvoir de contrôle et de #sanctions des personnes au RSA par France Travail. La seconde concerne l’obligation pour toute personne suivie par France Travail – qu’elle soit au RSA ou au chômage – de réaliser 15 « heures d’activité » hebdomadaires sous peine de sanctions.

    C’est dans ce contexte que France Travail déploie actuellement une refonte de son processus de contrôle. Dénommée « #Contrôle_de_la_Recherche_d’Emploi_rénové » (ou « #CRE_rénové »), elle vise tant à « arriver à mettre en oeuvre 1,5 million de contrôles […] à l’horizon 2027 » qu’à prendre en compte les « évolutions introduites par la loi “Plein Emploi” »2.

    #Automatisation et #massification des contrôles

    Pour atteindre l’objectif de massification des contrôles, France Travail mise sur l’automatisation3. Début 2025, ses dirigeant·es ont ainsi annoncé que le « CRE rénové » s’accompagnerait du déploiement de « robot[s] d’aide à l’analyse du dossier » destinés à assister la personne en charge du contrôle. L’objectif affiché est de réaliser des « gains de productivité » permettant de réduire la durée d’un contrôle pour pouvoir alors les multiplier à moindre coût4.

    Pour ce faire, ces « robots » ont pour tâche de classer les personnes ayant été sélectionnées pour un contrôle selon différents degrés de « #suspicion »5 afin de guider le travail du contrôleur ou de la contrôleuse. Concrètement, ils réalisent un #profilage_algorithmique de la personne contrôlée sur la base de l’analyse des #données_personnelles détenues par France Travail.

    Ce #profilage prend la forme d’une #classification en trois niveaux : « #clôture » (pas de suspicion), « #clôture_potentielle » (suspicion moyenne) ou « #contrôle_potentiel » (suspicion forte)6. Ce résultat est alors transmis, en amont du contrôle, au contrôleur ou à la contrôleuse afin de l’inciter à se concentrer sur les dossiers considérés comme suspects par l’#algorithme, tout en clôturant rapidement le contrôle pour les autres.

    France Travail se réfugie dans l’#opacité

    À travers notre campagne France Contrôle, nous avons déjà parlé de la Caisse nationale des allocations familiales (CNAF), la première à se lancer dans ce contrôle algorithmique des populations. Le fait qu’elle soit rejointe par France Travail démontre une fois de plus pourquoi il est fondamental de s’opposer, par principe, à l’usage d’algorithmes de profilage à des fins de contrôle. Mais également d’exiger la transparence autour du fonctionnement de ces algorithmes, afin de mieux pouvoir les combattre tant politiquement que juridiquement.

    Dans le cas présent, cette transparence est d’autant plus importante que l’objectif d’un contrôle de la #recherche_d’emploi – « une appréciation globale des #manquements [de la personne contrôlée] afin de sanctionner un comportement général »7 – est très flou et propice à l’#arbitraire. L’analyse du #code de l’algorithme pourrait aussi appuyer un combat juridique, tel que l’actuel contentieux contre la CNAF.

    Mais sur le sujet des « robots » de contrôle – comme sur beaucoup d’autres8 – la direction de France Travail se refuse à toute transparence. Son directeur est allé jusqu’à déclarer à la Commission d’accès aux documents administratifs (CADA) « qu’aucun algorithme n’est utilisé dans le cadre du « CRE rénové » […] » suite à la saisine déposée par des journalistes de Cash Investigation ayant travaillé sur ce sujet9.

    Un profilage policier

    En l’absence de transparence sur le fonctionnement de ces « robots », nous ne pouvons qu’avancer quelques hypothèses sur le fonctionnement du profilage algorithmique. Côté technique, la direction de France Travail a déclaré que le « robot » n’était pas basé sur de l’intelligence artificielle, sans toutefois exclure qu’il puisse l’être à l’avenir10. En conséquence, le profilage serait le résultat d’opérations algorithmiques simples issues de la combinaison de différents critères construits à partir des données personnelles détenues par France Travail11.

    Quant à la nature de ces critères, des pistes sont données par un document distribué aux équipes de contrôle de France Travail il y a quelques mois. Assumant pleinement un discours policier, la direction de France Travail y présente une « grille d’analyse » venant préciser le « niveau d’importance » de différents « indices » permettant de caractériser les « manquements » des personnes contrôlées.

    Parmi ces éléments, notons notamment l’absence de périodes récentes de travail ou de formation, l’absence de mobilisation des outils numériques mis à disposition par France Travail (offres, CV ou carte de visite en ligne), l’absence de contact avec son ou sa conseiller·ère, les résultats des derniers contrôles de recherche d’emploi, l’absence de candidatures envoyées via le site de France Travail ou encore le non-respect des 15 « heures d’activité » prévue par la loi « Plein Emploi ».

    Tout indique que ce travail de #rationalisation du processus de contrôle aurait servi de base à la construction du « robot » lui-même. En effet, en plus du résultat du profilage, le « robot » fait remonter au contrôleur ou à la contrôleuse une liste d’éléments issus de cette grille. Ces remontées permettent alors à la personne en charge du contrôle d’apprécier la décision de classification du « robot », sans pour autant qu’il ou elle ait accès à ses règles de fonctionnement précises.
    Automatisation et violence institutionnelle

    Le déploiement d’algorithmes de profilage à des fins de contrôle participe activement à la politique de #répression et à la #paupérisation des personnes sans-emplois. La massification des contrôles à laquelle contribue ce processus d’automatisation entraîne mécaniquement une hausse du nombre de sanctions et de pertes de #droits associé·es.

    Ainsi, d’après les documents de France Travail, 17% en moyenne des contrôles aboutissent à une radiation12. Dans l’hypothèse où ce taux resterait constant, l’augmentation de 500 000 à 1,5 million de contrôles par an implique que le nombre de radiations associées passerait d’environ 85 000 aujourd’hui à 255 000 en 202713. Ajoutons que l’impact des contrôles n’est pas le même pour toutes et tous : d’après les chiffres disponibles, les personnes n’ayant pas le bac ou étant au RSA sont sur-représentées parmi les personnes radiées suite à un contrôle14. L’automatisation des contrôles est donc une manière d’écarter les plus précaires de France Travail.

    Notons enfin, comme le rappellent cinq chercheurs et chercheuses dans le livre Chômeurs, vos papiers !15, qu’aucun travail scientifique ne vient valider le récit mis en avant par nos dirigeant·es selon lequel les contrôles favoriseraient la reprise d’emploi. Cette hypocrisie politique n’a pour fondement qu’une vision stigmatisante et infantilisante des personnes sans-emplois, visant à nier toute responsabilité collective vis-à-vis du chômage de masse et à le réduire à une problématique individuelle.

    À l’inverse, ajoutent les auteurs·ices, les effets négatifs des contrôles sont largement documentés. En plaçant les personnes contrôlées dans une situation humiliante – « où au stigmate de l’assisté s’ajoute celui du tricheur »16 – s’accompagnant de lourdes démarches de justification, ils induisent un effet dissuasif vis-à-vis de l’accès aux droits. En retour, ils contribuent à l’augmentation du non-recours, dont le taux est estimé à plus de 25% pour l’assurance chômage et à 30% pour le RSA17. À ceci s’ajoute le fait qu’il plonge dans la précarité celles et ceux contraints·es à accepter des postes pénibles, sous-payés et précaires.

    Loi « Plein Emploi » : des contrôles aux effets démultipliés

    Tout ceci est d’autant plus inquiétant à l’heure où entre en vigueur la loi « Plein Emploi », qui vient renforcer l’impact et le champ des contrôles réalisés par France Travail.

    En premier lieu via l’instauration d’une obligation de 15 « heures d’activité » pour toute personne sans-emploi18. À la violence qu’elle entraîne en termes de niveau de contrôle et d’intrusion dans la vie privée des personnes contrôlées, cette mesure conjugue une contrainte administrative extrêmement lourde de par la difficulté que chacun·e aura pour justifier ces heures. Elle vient ainsi considérablement renforcer l’arbitraire des contrôles et, de fait, les pouvoirs de répression de France Travail. Si la difficulté qu’il y aura à (faire) respecter cette mesure pourrait la faire paraître presque illusoire, notons cependant que France Travail développe déjà un agenda partagé entre personne sans-emploi et conseiller·ère, c’est-à-dire un outil numérique dédié au contrôle de ces « heures d’activité ».

    En second lieu, parce que la loi « Plein Emploi » vient étendre les prérogatives de contrôle de France Travail sur les personnes au RSA19. Jusqu’alors, les sanctions relatives au RSA relevaient de la compétence du département et le retrait de son bénéfice nécessitait le passage devant une commission pluridisciplinaire dédiée. Via les « suspensions-remobilisations »20, la loi « Plein Emploi » a désormais introduit la possibilité pour les départements de déléguer à France Travail la compétence de suspension du RSA. Dans ce cas, France Travail pourra suspendre le RSA d’une personne à la suite d’un contrôle de manière unilatérale et sans que l’avis d’une commission de contrôle de la suspension soit nécessaire.
    Face au contrôle algorithmique, lutter

    À l’heure où nous écrivons ces lignes, la contestation monte de toute part contre le renforcement des contrôles à France Travail.

    Du Défenseur des Droits à la Commission nationale consultative des droits de l’Homme (CNCDH), en passant par le Conseil national des politiques de lutte contre la pauvreté et l’exclusion (CNLE), l’ensemble des institutions de lutte contre la pauvreté critiquent vertement la loi « Plein Emploi » et ses velléités autoritaires21.

    De leur côté les associations de lutte contre la précarité se regroupent et dénoncent une réforme « inhumaine, injuste et inefficace », tandis que sur le terrain, les premier·ères concernées s’organisent. En Bretagne, le Conseil départemental du Finistère a ainsi été occupé par des personnes réunies en « Assemblée Générale contre la réforme du Rsa-france-travail »22.

    Devant la multiplication des oppositions et la diversité des modes d’actions, nous appelons toutes celles et ceux qui refusent la destruction de notre système de protection sociale et la violence des politiques néo-libérales dont elle s’inspire à s’organiser et à rejoindre ces luttes de la manière qui leur convient le mieux.

    De notre côté, nous tâcherons d’y contribuer à travers la documentation de cette infrastructure numérique de surveillance que les dirigeant·es de France Travail mettent en place dans le cadre de la loi « Plein Emploi ». Nous appelons par ailleurs les personnes ayant connaissance des critères utilisés par les robots de contrôle à nous contacter à algos@laquadrature.net ou à déposer des documents de manière anonyme sur notre SecureDrop (voir notre page d’aide ici). Si vous le pouvez, vous pouvez nous aider en nous faisant un don.

    –---
    References

    ↑1 Pour les chiffres de 2017, voir l’étude de Pôle Emploi « Le contrôle de la recherche d’emploi : l’impact sur le parcours des demandeurs d’emploi » disponible ici. Pour 2024, voir « Bilan du Contrôle de la recherche d’emploi » disponible ici. Pour les annonces d’Emmanuel Macron dès son arrivée au pouvoir voir cet article de 2017 et cet article de 2021. L’objectif de 1,5 million a été annnoncé par Gabriel Attal en 2024, voir cet article.
    ↑2 « Information en vue d’une consultation sur le contrôle de la recherche d’emploi rénové », Comité Social d’Entreprise Central des 9 et 10 octobre 2024, disponible ici.
    ↑3 A noter que le CRE rénové s’accompagne aussi d’une réduction des droits des personnes contrôlées afin de réduire le temps nécessaire à un contrôle. Il s’agit de mettre en place une procédure « flash » permettant de faire « l’économie de l’entretien téléphonique » et/ou de l’envoi d’un formulaire à la personne contrôlée, deux choses qui étaient systématiques jusqu’alors lors d’un CRE. En cas d’« avertissement avant sanction », la personne contrôlée disposera de 10 jours pour justifier de sa situation. Voir « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.
    ↑4 « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central (CSEC) des 13 et 14 mars 2024, disponible ici.
    ↑5 La sélection des personnes relève d’un autre traitement algorithmique. Elles sont le fruit de requêtes ciblées (métiers en tensions…) et aléatoires, de signalements agence ou encore d’« alertes automatiques » incluant désormais certains des flux provenant de la « gestion de la liste ». Voir le document « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.
    ↑6 Ces informations se basent sur des discussions avec des équipes de France Travail ayant eu accès aux résultats des profilages réalisés par les robots. Notons aussi l’existence d’une catégorie « erreur » pour les dossiers n’ayant pas pu être traités par l’algorithme.
    ↑7 « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.
    ↑8 Une grande partie de nos demandes d’accès aux documents administratifs restent sans réponse. Nous reviendrons sur ce point dans un article dédié.
    ↑9 L’avis de la CADA citant le directeur de France Travail est disponible ici.
    ↑10 Propos tenus lors du CSEC de France Travail du 22 novembre 2024.
    ↑11 On pense assez naturellement à un algorithme du type « arbre de décision ».
    ↑12 Voir le tableau 1 du document Le contrôle de la recherche d’emploi en 2023, France Travail, disponible ici. A noter que ce chiffre est passé à 20% dans les régions ayant expérimentées le CRE rénové avant sa généralisation. Voir la slide 15 de ce document présenté en Comité Social et Economique Central de France Travail le 9 octobre 2024.
    ↑13 A noter ici que l’effet de la loi « plein emploi » sur le nombre total de radiations n’est pas clair. En effet, une partie de la « gestion de la liste » – situations entraînant auparavant une radiation automatique tel que l’absence à un rendez-vous ou l’absence à formation – est transférée au CRE. Pour des statistiques sur les radiations et les sorties des personnes inscrites à France Travail est disponible ici sur le site de la DARES.
    ↑14 Voir Le contrôle de la recherche d’emploi en 2023, France Travail, tableau 2, disponible ici. Voir aussi le tableau 1 de l’étude « Le contrôle de la recherche d’emploi : l’impact sur le parcours des demandeurs d’emploi », Pôle Emploi, 2018.
    ↑15 C. Vives, L. Sigalo Santos, J.-M Pillon, V. Dubois et H. Clouet, « Chômeurs, vos papiers ! », 2023. Cet essai revient sur les aspects historiques, politiques et sociologiques du contrôle dans les politiques publiques de l’emploi. Concernant l’impact des contrôles, notons l’étude « Le contrôle de la recherche d’emploi : l’impact sur le parcours des demandeurs d’emploi » publiée par Pôle Emploi en 2018, qui ne permet pas de conclure, tels que les résultats sont présentés, à un quelconque impact statistiquement significatif du contrôle.
    ↑16 V. Dubois, « Contrôler les assistés », Chapitre 10. Voir aussi l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits « La lutte contre la fraude aux prestations sociales » disponible ici. La Fondation pour le logement des défavorisés, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficultés de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion humiliante dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici.
    ↑17 C. Hentzgen, C. Pariset, K. Savary, E.Limon, « Quantifier le non-recours à l’assurance chômage », Direction de l’Animation de la recherche, des Études et des Statistiques, 2022, disponible ici. Céline Marc, Mickaël Portela, Cyrine Hannafi, Rémi Le Gall , Antoine Rode et Stéphanie, Laguérodie « Quantifier le non-recours aux minima sociaux en Europe », 2022, disponible ici.
    ↑18 Le nombre « d’heures d’activités hebdomadaires » à réaliser peut être diminué en fonction des difficultés personnelles (handicap, parent isolé…). Voir l’article 2 de la loi pour le « Plein Emploi ».
    ↑19 L’obligation d’inscription concerne aussi les personnes en situation de handicap suivies par Cap Emploi et les « jeunes » accompagnés par une mission locale ayant conclu un « Parcours contractualisé d’accompagnement vers l’emploi et l’autonomie » ou un « contrat d’engagement jeune ». Voir l’article 1 de la loi pour le « Plein Emploi ».
    ↑20 L’article 3 de la loi pour le « Plein Emploi » prévoit notamment la possibilité pour un département de déléguer le « prononcé des mesures de suspension du versement du RSA » pour les personnes dont France Travail est l’organisme référent. L’article 2 de la même loi une coopération accrue entre France Travail. Il précise aussi que France Travail est en charge du contrôle du « Contrat d’Engagement » des personnes au RSA dont il est l’organisme référent et qu’il peut proposer au Conseil Départemental des sanctions (suspension/radiation) concernant le versement du RSA. Des précisions seront apportées par décret dont une version préliminaire a fuité dans la presse.
    ↑21 Voir notamment la déclaration de la CNCDH, l’avis du CNLE et cette étude publiée par le Secours Catholique, Aequitaz et ATD Quart Monde.
    ↑22 Voir notamment cet appel et cet article sur leur action au conseil départemental du Finistère. Vous pouvez les contacter à l’adresse ag-rsa-francetravail-brest chez riseup.net.

    https://www.laquadrature.net/2025/05/22/france-travail-des-robots-pour-controler-les-chomeurs%C2%B7euses-et-le

    #contrôle #surveillance #loi_plein_emploi #chômeurs

    –-
    voir aussi : https://seenthis.net/messages/1116620
    ping @karine4