• #Opération_Bangui : une histoire de sang, de science et d’exploitation biomédicale

    Au début des années 1990, une recherche vaccinale secrète sur le #VIH est menée en #République_centrafricaine. Si elle n’aboutit pas et reste longtemps dans l’ombre, elle éclaire aujourd’hui les débats sur les #essais_cliniques, l’accès aux traitements, et plus largement une forme particulière d’#exploitation encore peu discutée : l’#extractivisme_biomédical.

    C’est cette histoire que je raconte dans un #livre paru récemment : Opération Bangui. Promesses vaccinales en Afrique postcoloniale. En tant que sociologue et pharmacien, professeur à la faculté de pharmacie de l’Université de Montréal, mes intérêts de recherche portent sur les enjeux reliés aux politiques pharmaceutiques (ou à leur absence) dans différents contextes. Je questionne notamment les ambiguïtés des politiques pharmaceutiques et des logiques de santé mondiale à travers la recherche biomédicale, l’accès et l’usage des médicaments.

    Une recherche camouflée en #Afrique centrale

    En République centrafricaine, le VIH se diffuse massivement dans les années 1980. Cela se voit dans les hôpitaux de la ville, mais aussi au sein de groupes tels que les travailleuses du sexe ou les militaires plus exposés par leurs conditions de travail, d’éloignement et les rapports de pouvoir qui augmentent les risques de transmission sexuelle.

    Les militaires sont d’ailleurs de plus en plus nombreux au début des années 1980, recrutés notamment avec le soutien de la France, pour asseoir le pouvoir en place. Ceci offre aux chercheurs de l’#Institut_Pasteur de #Bangui, capitale du pays, des accès privilégiés à cette population pour l’intégrer dans ses recherches. En effet, cet Institut, fondé juste après l’indépendance du pays, redéfinit le lien postcolonial en participant dans sa mission à la #santé_publique centrafricaine avec le ministère de la Santé, mais en restant scientifiquement et administrativement sous la tutelle de l’Institut Pasteur de Paris, structurellement soutenu par des financements gouvernementaux français.

    L’occasion précipite l’extraction : fin 1989, un appel d’offres pour des financements internationaux conséquents amène des chercheurs français à proposer la mise en place d’une recherche secrète. Elle vise à caractériser les virus des militaires centrafricains, surveiller leur taux d’infection et essayer de potentiels vaccins qui semblent sur le point d’être découverts. Le sceau du secret permet aux différentes parties d’avancer sans attirer l’attention, ni celle de la concurrence scientifique pour les chercheurs français, ni celle des médias internationaux pour le sommet des autorités politiques locales.

    Ceci contribue de fait à exclure les médecins et chercheurs locaux qui se trouvent ainsi laissés dans l’ignorance, ou dans l’incapacité d’être partie prenante de recherches dont leur population est la première concernée.

    Au vu des forts taux d’infection dans la population militaire, la transformation des militaires en objets de recherche représente non seulement un avantage scientifique pour démontrer l’efficacité d’un potentiel vaccin, mais aussi stratégique en permettant une économie de coût substantielle alors que les essais cliniques au Nord se chiffrent dans les années 1990 en dizaines de millions de dollars.

    La branche production de l’Institut Pasteur de Paris, qui opère via le laboratoire pharmaceutique #Pasteur-Mérieux_Sérums_et_Vaccin, est l’infrastructure industrielle qui peut profiter d’une telle recherche. Il ne manque alors qu’un terrain d’#expérimentation, que fournit opportunément la cohorte des militaires centrafricains.

    La matière première de la recherche

    C’est ainsi que les militaires de la garde présidentielle et des forces armées centrafricaines sont progressivement inclus dans cette recherche à partir de 1990. Des échantillons de sang sont prélevés une à deux fois par an. Les militaires représentent de bons objets de recherche, faciles à trouver dans leurs casernes. Plus de 11 000 prélèvements sont ainsi réalisés sur quelque 3000 militaires.

    Mais les militaires ne sont pas que des objets disciplinés, ils demeurent aussi des sujets sensibles politisés. Cette subjectivité politique se réaffirme à partir de 1993 lors d’une première mutinerie qui fait suite au non-paiement des soldes, puis de manière plus retentissante en 1996 et 1997 quand des militaires de la garde présidentielle font face aux forces loyalistes. Les autorités françaises, qui ont contribué au recrutement et à la formation de ces deux structures rivales, éteignent partiellement l’incendie par l’envoi de troupes militaires. La situation postcoloniale qui a permis la recherche dans un premier temps est aussi celle qui en précipite la fin.

    Les recherches menées à Bangui sont forcées de s’arrêter et sont ensuite transférées vers d’autres pays. Les questions de recherche sont alors déplacées dans d’autres sites du réseau international des instituts Pasteur. La recherche à Bangui s’arrête, mais l’infrastructure de recherche (données, échantillons, idées de recherche, etc.) est sauve.

    Quand la recherche devient-elle « extractive » ?

    Outre le secret qui a invisibilisé l’opération Bangui depuis ses débuts, il reste un grand malaise dans la communauté scientifique à en parler encore aujourd’hui. Les principaux promoteurs de cette recherche sont restés généralement très évasifs à son sujet. L’histoire de cette initiative secrète met en lumière une forme particulière d’exploitation dans la recherche : l’extractivisme biomédical.

    Celui-ci repose sur l’extraction de #sang et de #données_biologiques afin de produire des connaissances scientifiques, susceptibles ensuite d’être valorisées sur le plan industriel et commercial. À la différence de l’extractivisme minier, cette exploitation ne porte pas sur des ressources naturelles issues du sol, mais sur des corps humains. Elle s’inscrit néanmoins dans des #rapports_de_pouvoir comparables, marqués par de fortes asymétries entre les lieux où la recherche est menée et ceux où ses résultats sont valorisés.

    Le cas de l’opération Bangui permet d’en comprendre les mécanismes. Les militaires centrafricains sont d’abord considérés comme une population « à risque », définie principalement par son taux élevé d’infection. Cette catégorisation tend à réduire des individus au statut de ressource scientifique, presque « naturelle », en faisant passer au second plan leurs conditions de vie, leurs relations sociales et leur position dans une hiérarchie militaire.

    Cette logique s’inscrit ensuite dans un contexte postcolonial qui facilite l’#appropriation de cette cohorte de recherche. Les liens étroits entre les autorités françaises et centrafricaines, ainsi que la centralisation des infrastructures scientifiques et industrielles en France, permettent aux institutions du Nord de conserver le contrôle des données, des échantillons et des orientations de la recherche.

    Enfin, les connaissances produites grâce à ces prélèvements sont susceptibles d’être valorisées à travers des publications, des financements, des recherches internationales et, potentiellement, des brevets. Pourtant, rien n’est prévu pour favoriser le développement des capacités de recherche locales ni pour garantir légalement que les populations ayant rendu cette recherche possible puissent bénéficier des retombées médicales de ces travaux.

    Du point de vue de la santé publique, l’opération Bangui sera d’ailleurs nulle pour les premières personnes concernées : le taux de nouvelles infections par le VIH reste presqu’inchangé chez les militaires entre 1988 et 1996, date à laquelle les chercheurs quittent le pays. C’est cette dissociation entre production scientifique, capacité locale et accès aux soins qui constitue le cœur du problème.

    Résonnances actuelles

    Aucun vaccin contre le VIH n’aura finalement été développé ni testé à Bangui. Même si un vaccin avait bel et bien vu le jour, on peut douter que la population centrafricaine aurait eu un accès prioritaire. Cette incertitude n’est pas propre à cette recherche : elle traverse encore aujourd’hui de nombreux programmes de recherche biomédicale internationale. Si les appels à des financements publics pour la recherche sont nombreux, rares sont ceux qui conditionnent ces investissements à un accès garanti aux traitements ou aux vaccins qui pourraient en résulter.

    Aujourd’hui encore, des traitements préventifs du VIH, testés en Afrique, mais inaccessibles aux populations concernées, tels que le lénacapavir, sont au cœur de chantages économiques sur la vie. Ces expériences, et leur récurrence, montrent que la question d’une recherche juste ne se limite pas au respect du consentement lors des essais cliniques. Elle concerne aussi la manière dont sont organisés et pensés dès la recherche les valorisations économiques et politiques des découvertes et l’accès effectif aux soins et à la prévention.

    L’histoire de l’opération Bangui rappelle ainsi que la recherche biomédicale n’est jamais neutre. Elle est inscrite dans des rapports sociaux, politiques et économiques qui déterminent qui bénéficie réellement du progrès scientifique. Interroger ces mécanismes au-delà des procédures de bioéthique, c’est ouvrir un débat essentiel sur la justice et la responsabilité dans le financement et la production mondiale des savoirs médicaux, et dans l’accès à des médicaments ou des vaccins essentiels qui en découlent.

    https://theconversation.com/operation-bangui-une-histoire-de-sang-de-science-et-dexploitation-b
    #science #recherche #extractivisme

    • Opération Bangui. Promesses vaccinales en Afrique postcoloniale

      Cette enquête fait la lumière sur un chapitre méconnu de l’histoire du #sida dans les années 1980 et 1990 : la recherche menée en République centrafricaine par des scientifiques venus de #France et des États-Unis qui croyaient être sur le point de trouver un vaccin. Dans le rôle des ressources vivantes, une cohorte de militaires locaux, et dans celui des bénéficiaires, les puissances postcoloniales. Ces travaux secrets avaient un nom de code : opération Bangui.

      Par le récit vivant d’une affaire exceptionnelle, ce livre révèle un mode d’accaparement des richesses : l’extractivisme biomédical. En plaçant les processus de valorisation des corps et des vies au cœur de sa réflexion, Pierre-Marie David plaide ici pour une restitution historique, matérielle et politique de la part africaine dans la recherche scientifique et médicale, étape essentielle d’une nécessaire décolonisation de la santé mondiale.

      https://luxediteur.com/catalogue/operation-bangui
      #livre

  • I Verified My #LinkedIn Identity. Here’s What I Actually Handed Over.

    I wanted the blue checkmark on LinkedIn. The one that says “this person is real.” In a sea of fake recruiters, bot accounts, and AI-generated headshots, it seemed like a smart thing to do.

    So I tapped “verify.” I scanned my passport. I took a selfie. Three minutes later — done. Badge acquired. I felt a tiny dopamine hit of legitimacy.

    Then I did what apparently nobody does. I went and read the privacy policy and terms of service.

    Not LinkedIn’s. The other company’s.
    Wait, What Other Company?

    When you click “verify” on LinkedIn, you’re not giving your passport to LinkedIn. You get redirected to a company called Persona. Full name: Persona Identities, Inc. Based in San Francisco, California.

    LinkedIn is their client. You are the face being scanned.

    I had never heard of Persona before this. Most people haven’t. That’s kind of the point — they sit invisibly between you and the platforms you trust.

    So I downloaded their privacy policy (18 pages) and their terms of service (16 pages). Here’s what I found.
    Everything I Gave Them

    For a three-minute identity check, this is what Persona collected:

    My full name — first, middle, last
    My passport photo — the full document, both sides, all data on the face of it
    My selfie — a photo of my face taken in real-time
    My facial geometry — biometric data extracted from both images, used to match the selfie to the passport
    My NFC chip data — the digital info stored on the chip inside my passport
    My national ID number
    My nationality, sex, birthdate, age
    My email, phone number, postal address
    My IP address, device type, MAC address, browser, OS version, language
    My geolocation — inferred from my IP

    And then there’s the weird stuff:

    Hesitation detection — they tracked whether I paused during the process
    Copy and paste detection — they tracked whether I was pasting information instead of typing it

    Behavioral biometrics. On top of the physical biometrics. For a LinkedIn badge.
    They Also Called Their Friends

    Persona didn’t just use what I gave them. They went and cross-referenced me against what they call their “global network of trusted third-party data sources”:

    Government databases
    National ID registries
    Consumer credit agencies
    Utility companies
    Mobile network providers
    Postal address databases

    I scanned my passport for a checkmark. They ran a background check.
    My Face Is Training Data

    Here’s something I almost missed. Buried in a table on page 6 of the privacy policy, under “legitimate interests”:

    They use uploaded images of identity documents — that’s my passport — to train their AI. They’re teaching their system to recognize what passports look like in different countries. They also use your selfie to “identify improvements in the Service.”

    The legal basis? Not consent. Legitimate interest. Meaning they decided on their own that it’s fine. Under GDPR, they’re supposed to balance their “interest” against your fundamental rights. Whether feeding European passports into machine learning models passes that test — well, that’s a question worth asking.

    I came for a badge. I stayed as training data.
    Where Does My Face Go?

    Once Persona has your data, here’s who gets a copy:

    LinkedIn receives:

    Your full name
    Your birth year
    Government ID type and issuing authority
    Verification result
    A blurred version of your ID (everything redacted except your name and portrait)

    Also with access:

    Persona’s service providers — vendors working on their behalf
    Their “global network of data partners” — those third-party databases work both ways
    Affiliates and subsidiaries — related companies that share “common data systems”
    Anyone who buys Persona — in a merger, acquisition, or bankruptcy, your data goes with the deal
    Law enforcement — and this is where it gets really interesting

    And then there’s the subprocessor list. Persona publishes who else touches your data. I wish I hadn’t looked.

    The 17 Companies That Touch Your Face

    Persona maintains a public list of subprocessors — third-party companies that process your personal data on their behalf. Here’s the full list:

    Count them. 17 companies. 16 in the United States. 1 in Canada. Zero in the EU.

    Let that sink in. You scanned your European passport for a European professional network, and your data went exclusively to North American companies. Not a single EU-based subprocessor in the chain.

    And look at who’s doing “Data Extraction and Analysis” — Anthropic, OpenAI, and Groqcloud. Three AI companies are processing your passport and selfie data. Your government-issued identity document is being fed through the same companies that build large language models and AI systems.

    AWS handles “Image Processing.” That’s your face going through Amazon’s infrastructure. FingerprintJS — a company literally named after the thing it does — handles “Device Analysis.” They’re fingerprinting your device while Persona fingerprints your face.

    Remember when the privacy policy said data is stored in the “United States and Germany”? The Germany part is technically true — maybe some data sits there. But every single company that processes your data is American. The CLOUD Act doesn’t just apply to Persona. It applies to all 16 of these US subprocessors too.
    The CLOUD Act: Why Frankfurt Doesn’t Protect You

    Persona has data centers in the United States and Germany. If you’re in Europe, you might think: great, my data is probably sitting on a German server, protected by GDPR, safe from American reach.

    It’s not.

    Persona is a US company. Incorporated in California. This means they’re subject to the US CLOUD Act — the Clarifying Lawful Overseas Use of Data Act, signed in 2018.

    Here’s what the CLOUD Act does in plain language: it allows US law enforcement to force any US-based company to hand over data, even if that data is stored on a server outside the United States.

    Your passport scan can be sitting in a data center in Frankfurt. A US court issues a warrant. Persona has to comply. The physical location of the server doesn’t matter. What matters is the legal location of the company.

    And Persona’s privacy policy confirms it. Their exact words:

    We will access, disclose, and preserve personal data when we believe doing so is necessary to comply with applicable law or respond to valid legal process, including from law enforcement, national security, or other government agencies.

    “National security.” Those two words do a lot of heavy lifting. Under US law, national security requests — like FISA court orders or National Security Letters — can come with gag orders. Persona couldn’t tell you they handed over your data even if they wanted to.
    “But There’s the Data Privacy Framework!”

    Yes, Persona says they comply with the EU-US Data Privacy Framework (DPF). They certified with the US Department of Commerce. They follow the principles. It’s all very official.

    Here’s the thing about the DPF: it’s the replacement for Privacy Shield, which the European Court of Justice killed in 2020. The reason? US surveillance laws made it impossible to guarantee European data was safe.

    The DPF exists because the US signed an Executive Order (14086) promising to behave better. But an Executive Order is not a law. It’s a presidential decision. It can be changed or revoked by any future president with a pen stroke.

    Privacy activists — including noyb, the organization behind the original Schrems rulings — have already challenged the DPF. The legal foundation your data is “protected” by is, at best, temporary.

    So the reality looks like this:

    You scan your passport in Madrid, Berlin, or Dublin
    Persona stores it — maybe in Germany, maybe in the US
    The CLOUD Act gives US authorities access regardless of where it sits
    The DPF is supposed to protect you, but it’s built on sand
    A national security request could grab your biometric data without you ever knowing

    Your European passport is one quiet subpoena away from a US government system.
    The Biometrics Time Bomb

    Let me be clear about what “biometric data” means here.

    Persona extracts the mathematical geometry of your face from your selfie and from your passport photo. This isn’t just a picture — it’s a numerical map of the distances between your eyes, the shape of your jawline, the geometry of your features. It’s data that uniquely identifies you. And unlike a password, you can’t change your face if it gets compromised.

    Their policy says this scan data is destroyed “upon completion of Verification or within six months of your last interaction.” Good.

    But there’s an exception: “unless Persona is otherwise required by law or legal process to retain the data.”

    That exception, combined with the CLOUD Act, means a US legal process could force Persona to keep your biometric data indefinitely. The six-month clock means nothing if a court says “hold onto this.”
    The $50 Safety Net

    Now let’s talk about what happens if things go wrong. Say there’s a breach. Say your passport scan, your facial geometry, and your national ID number end up in the wrong hands.

    Persona’s Terms of Service cap their liability at $50 USD.

    Your passport. Your face. Your biometric data. Your national ID number. Fifty dollars.

    They also include mandatory binding arbitration — no court, no jury, no class action. You can only bring claims individually. Through the American Arbitration Association. Even if you’re in Europe and the dispute is about European data.

    For EU/EEA residents, the ToS says Irish law governs the contract. Which sounds better until you remember: Irish law governs the contract, but US law governs the company. The CLOUD Act doesn’t care what your contract says.
    What You Should Do

    If you’ve already verified — like me — here’s what I’d recommend:

    1. Request your data. Email idv-privacy@withpersona.com or privacy@withpersona.com. Under GDPR, they have 30 days to respond.

    2. Request deletion. The verification is done. LinkedIn already has the result. There is no reason for Persona to keep your passport scan and facial geometry on their servers. Ask them to delete it.

    3. Contact their DPO. dpo@withpersona.com — that’s their Data Protection Officer. If you want to object to them using your documents as AI training data under “legitimate interests,” this is where you do it.

    4. Think twice before verifying. That blue badge might not be worth what you’re trading for it. A checkmark is cosmetic. Biometric data is forever.
    Three Minutes

    The whole thing took three minutes. Scan, selfie, done.

    Understanding what I actually agreed to took me an entire weekend reading 34 pages of legal documents.

    I handed a US company my passport, my face, and the mathematical geometry of my skull. They cross-referenced me against credit agencies and government databases. They’ll use my documents to train their AI. And if the US government comes knocking, they’ll hand it all over — even if it’s stored in Europe, even if I’m European, and possibly without ever telling me.

    All for a small blue checkmark on a professional networking site.

    I’m not telling you to skip verification. But I am telling you to know what you’re trading. Because Persona does. LinkedIn does. The only person in the dark is the one holding their passport up to the camera.

    https://thelocalstack.eu/posts/linkedin-identity-verification-privacy
    #vérification #données #données_personnelles

  • #Cyberattaque contre #France_Travail : Les dérives d’un #fichage_administratif tentaculaire

    Le #piratage massif des données de 36 millions de personnes interroge la logique de #centralisation et de conservation des #informations_personnelles par l’#administration. Jusqu’où l’État peut-il étendre le fichage administratif sans accroître les #risques pour la #sécurité des citoyens et la #confiance publique ?

    En mars 2024, France Travail est victime d’une cyberattaque d’ampleur exceptionnelle. En usurpant les comptes de conseillers #Cap_Emploi grâce à des techniques d’#ingénierie_sociale, des #hackers parviennent à accéder aux #bases_de_données de l’opérateur public et à exfiltrer les informations personnelles de 36 millions de personnes. Noms, prénoms, dates de naissance, numéros de Sécurité sociale, adresses, coordonnées téléphoniques, statut de demandeur d’emploi : un volume considérable de #données_sensibles se retrouve compromis.

    Saisie du dossier, la Commission nationale de l’informatique et des libertés (CNIL) ouvre une #procédure_de_sanction en juillet 2025. Elle reproche à France Travail de ne pas avoir mis en place, au moment des faits, des mesures de sécurité « à la hauteur du risque » pesant sur les données traitées. Résultat : une #amende de cinq millions d’euros et une injonction à renforcer les dispositifs de protection, notamment l’authentification des agents et la surveillance des accès aux fichiers.

    Selon la CNIL, l’attaque n’a pas reposé sur une faille technique complexe, mais sur l’exploitation de la confiance des agents. En se faisant passer pour le support informatique, les pirates ont réussi à réinitialiser des #mots_de_passe et à usurper des comptes professionnels, ouvrant ainsi un accès quasi illimité à des informations hautement sensibles. Un scénario classique, mais redoutablement efficace, qui met en lumière les limites des dispositifs de sécurité lorsque les bases de données sont vastes et largement accessibles.

    France Travail a reconnu sa #responsabilité et annoncé qu’il ne formerait pas de recours contre la décision. L’établissement public affirme avoir depuis renforcé ses procédures : mots de passe robustes, double authentification, restriction de l’accès aux dossiers selon la zone géographique, formations régulières à la #cybersécurité et outils de détection des comportements anormaux.

    Aucun système n’est invulnérable

    Mais cette affaire dépasse le cadre d’un simple manquement technique. Elle illustre une tendance plus large : l’intensification du fichage administratif, au nom de l’#efficacité et du #contrôle. En centralisant et en conservant des quantités toujours plus importantes de données personnelles, l’administration crée des fichiers dont la valeur attire inévitablement des acteurs malveillants. Et contrairement à une idée répandue, ces dispositifs profitent rarement aux citoyens eux-mêmes.

    Car plus les données sont nombreuses, plus les conséquences d’une faille sont lourdes. L’exposition massive d’informations personnelles fragilise la confiance dans les institutions et place des millions de personnes face à des risques d’#usurpation_d’identité ou d’utilisation frauduleuse de leurs données. Elle rappelle surtout une réalité souvent sous-estimée : aucun système n’est invulnérable. En témoigne le piratage des serveurs informatiques du ministère de l’Intérieur, en décembre dernier.

    La #sanction_financière imposée à France travail répond-elle vraiment au problème ? Les cinq millions d’euros versés au titre de l’amende auraient-ils été plus utiles investis autrement ? Moins dans la multiplication des outils de contrôle et de surveillance, et davantage dans la mission première de France Travail : l’accompagnement des demandeurs d’emploi, la formation et l’insertion professionnelle.

    À force de vouloir tout ficher, l’administration accroît les risques qu’elle prétend maîtriser. Réduire la collecte de données au strict nécessaire et recentrer les moyens sur le service rendu aux usagers serait plus avisé, autant pour la sécurité numérique que pour la confiance démocratique.

    https://altermidi.org/2026/01/30/les-derives-dun-fichage-administratif-tentaculaire
    #fichage #France

  • Starlink utilise vos données pour entraîner son IA, voici comment l’en empêcher
    https://www.01net.com/actualites/starlink-utilise-vos-donnees-entrainer-ia-comment-empecher.html

    Starlink utilise les données personnelles de ses abonnés à leur insu et par défaut pour entraîner ses modèles d’intelligence artificielle. Il est toutefois possible d’y mettre un terme. Voici comment

    Vous ne le savez peut-être pas, mais depuis le 15 janvier dernier, #Starlink se donne le droit d’utiliser les #données_personnelles de ses #abonnés pour entraîner ses modèles d’#intelligence_artificielle. La filiale de #SpaceX, qui fournit un accès à #internet par #satellite, a en effet modifié ses conditions d’utilisation il y a quelques jours. Si vous êtes abonné #Starlink, vos informations personnelles sont utilisées par défaut pour entraîner son #IA.

    • Cet article circule à nouveau ces jours-ci.

      J’aime bien l’astuce qu’on te donne pour empêcher l’exploitation de tes données :

      (...)

      Vous devez ensuite vous rendre sur votre Profil et modifier celui-ci. C’est en effet depuis la fenêtre d’édition de votre profil que vous pourrez décocher l’option « Autoriser l’utilisation de vos données pour former des modèles d’IA conformément à notre Politique de confidentialité ».

      Après avoir décoché celle-ci, n’oubliez pas d’enregistrer vos modifications pour que votre choix soit bien pris en compte par Starlink.

      Là, normalement, tu rigoles jaune, en te disant que bon... c’est donc bien vrai qu’une case à cocher, c’est efficace, face à des gens qui n’en ont rien à carrer de la démocratie et de ce genre de choses ?

  • Algorithme discriminatoire de notation de la CNAF : 10 nouvelles organisations se joignent à l’affaire devant le Conseil d’État
    https://www.laquadrature.net/2026/01/20/algorithme-discriminatoire-de-notation-de-la-cnaf-10-nouvelles-organis

    Il y a un peu plus d’un an, 15 organisations de la société civile ont contesté l’algorithme d’évaluation des risques utilisé par la Caisse nationale d’allocations familiales (CNAF), la branche familiale du système français de…

    #Données_personnelles #Surveillance

  • Inside ICE’s Tool to Monitor Phones in Entire Neighborhoods
    https://www.404media.co/inside-ices-tool-to-monitor-phones-in-entire-neighborhoods

    404 Media has obtained material that explains how Tangles and Webloc, two surveillance systems ICE recently purchased, work. Webloc can track phones without a warrant and follow their owners home or to their employer.

    Nos smartphones sont tellement des passoires exportant l’intégralité de leurs données auprès de centaines de partenaires, qu’il devient apparemment simplissime de traiter leurs données en temps réel sans même avoir besoin d’être un organisme d’état avec un mandat.

  • « La majorité de nos élus ne respecte pas le droit d’accès aux informations publiques »
    https://www.lemonde.fr/idees/article/2025/12/29/la-majorite-de-nos-elus-ne-respecte-pas-le-droit-d-acces-aux-informations-pu

    Dans une tribune au « Monde », les membres du conseil d’administration de l’association Ma Dada, qui œuvre à la transparence de la vie publique, réagissent aux polémiques récentes autour des frais de mandat. Selon eux, un grand nombre d’élus et d’institutions refusent le droit à la transparence, en toute illégalité.

    Publié aujourd’hui à 09h00 Temps de Lecture 3 min.

    Article réservé aux abonnés

    Dépenses en vêtements de luxe, en parfums ou en articles pour enfants… Voilà plus d’un an que l’actualité révèle, à intervalles réguliers, des frais de mandat controversés mais légaux. Alors que les élections municipales approchent, nous soutenons que la mise en lumière de quelques factures ne doit pas occulter le vrai scandale que notre association constate au quotidien sur madada.fr : l’opacité persistante qui entoure nos institutions.

    Derrière chaque polémique sur une note de frais se cache un problème bien plus profond : le refus opposé silencieusement par la majorité de nos élus et administrations, en contradiction avec la loi sur le droit d’accès aux informations publiques.

    Ce droit d’accès est ancien : il a été créé en 1978 par la loi qui a fait advenir la Commission d’accès aux documents administratifs chargée d’évaluer, avant un éventuel recours en justice, si un secret peut s’opposer au principe de libre accès aux informations publiques. On peut même faire remonter ce principe de transparence encore plus loin dans le temps : l’article 15 de la Déclaration des droits de l’homme et du citoyen de 1789 précise en effet que « la société a le droit de demander compte à tout agent public de son administration ».
    Politique de l’autruche

    Alors que le Conseil constitutionnel a reconnu une valeur constitutionnelle à ce droit depuis 2020, il est aujourd’hui largement bafoué. Les données recueillies sur notre plateforme associative le montrent : sur les 3 000 demandes de notes de frais effectuées à ce jour sur Ma Dada, une grande majorité se sont terminées par une fin de non-recevoir. Dans 75 % des cas, les administrations n’ont même pas répondu, se réfugiant dans un silence équivalent juridiquement, au bout d’un mois, à un « refus implicite ».

    Cette politique de l’autruche, motivée parfois par calcul politique ou simplement par l’absence de circuits administratifs axés sur la transparence, entrave l’évaluation des politiques publiques et empêche les citoyens de porter un jugement éclairé sur des sujets parfois clés pour le débat public, tels que l’environnement, la santé ou l’éducation.
    Lire aussi | Article réservé à nos abonnés René Dosière, président de l’Observatoire de l’éthique publique : « Nous appelons à la création d’une plateforme donnant accès à la rémunération des élus »

    Certains élus regrettent qu’un sujet qu’ils considèrent comme anecdotique suscite autant d’attention médiatique et citoyenne. Il faut leur répondre que la question de l’exemplarité n’est jamais anecdotique, au moment où seuls 26 % des Français déclarent avoir confiance dans la politique, selon le baromètre de la confiance politique du Cevipof publié en février. De plus, l’attention médiatique et citoyenne sur ces factures est nourrie par l’obstruction systématique mise en œuvre par beaucoup d’élus pour s’opposer à leur publication. Les citoyens peuvent légitimement se dire que là où autant d’énergie est volontairement utilisée pour retarder la publication inévitable de documents, c’est qu’il y a nécessairement quelque chose à cacher.
    Mis en œuvre au Royaume-Uni

    Le train de vie des élus a toujours constitué un sujet d’application privilégié du droit d’accès, et pas uniquement en France. Ainsi, au Royaume-Uni, en 2009, le scandale des notes de frais abusives des parlementaires, qui a mené à plusieurs condamnations pénales d’élus, a éclaté grâce à la mise en œuvre du droit d’accès à l’information britannique. Depuis la publication proactive des frais de mandat des parlementaires, les scandales de détournement des notes de frais sont de l’histoire ancienne outre-Manche.
    Lire aussi | Article réservé à nos abonnés Anne Hidalgo prise dans une polémique sur ses frais de représentation

    Au-delà des notes de frais, tout un ensemble de documents mériteraient d’être publiés au moins en réponse à des demandes d’accès, comme la loi l’impose, voire de manière anticipée : les registres d’épandage de pesticides – sollicités, dès 2022, par l’association Générations futures –, les agendas des élus – demandés par Transparency International France –, les documents de marchés des centrales d’achat publiques – réclamés par les journalistes de Ouest-France –, les subventions publiques aux entreprises qui ont intéressé la commission d’enquête du Sénat…
    Newsletter abonnés
    « La lettre des idées »
    Votre rendez-vous avec la vie intellectuelle
    S’inscrire

    Or, nous constatons plutôt une tendance inverse de renfermement de la part des élus et des institutions. Pire encore : de plus en plus d’utilisateurs de Ma Dada nous demandent comment formuler une demande de documents « de manière anonyme », de peur de représailles dans leur commune ou de la part de telle administration. Qu’un simple citoyen puisse craindre d’exercer un droit à valeur constitutionnelle en dit long sur la fragilité de notre culture démocratique. Le droit d’accès ne doit pas être un acte courageux pratiqué par quelques journalistes ou juristes initiés ; il devrait être un acte administratif normal, comme le prévoit le code des relations entre le public et l’administration.
    Lire aussi archives de 2023 | Article réservé à nos abonnés « L’accès aux documents administratifs est une obligation juridique »

    Pour pouvoir débattre démocratiquement des sujets qui comptent, sur des bases factuelles, et arrêter de perdre notre énergie dans des polémiques, il est urgent que les élus respectent au minimum la loi sur le droit d’accès à l’information. Cette proposition peut sembler manquer d’ambition formulée ainsi, mais pour les praticiens de la transparence que nous sommes, elle permettrait pourtant des progrès démocratiques majeurs.

    Xavier Berne, Pierre Chrzanowski, Elsa Foucraut, Kevin Gernier, Samuel Goëta, Samuel Le Goff, David Libeau, Laure Lucchesi, Noël Lucia et Laurent Savaëte sont tous membres du conseil d’administration de l’association Ma Dada.

    #Données_ouvertes #Données_publiques #Samuel_Goëta

  • Le mythe de la bonne IA

    Dans une perspective décoloniale, il n’y a pas de bonne IA, estime le philosophe #Arshin_Adib-Moghaddam. Lecture.

    « La société délirante dans laquelle nous vivons ressemble à un #mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosophie et codirecteur du Centre pour les futurs de l’IA de l’université de Londres. Mais, l’IA vient la renforcer parce qu’elle « floute les lignes de nos modes de compréhension de la vérité et du mensonge, du #pouvoir et de la résistance, de la subjectivité et de l’objectivité, de la science et de la fiction ». Ce qui change avec l’IA, c’est que Big Brother n’est plus une autorité qui nous contrôle de l’extérieur, mais une perturbation qui vient altérer nos #facultés_cognitives elles-mêmes.

    Pour Arshin Adib-Moghaddam, ni Orwell, ni Foucault ne peuvent nous aider à saisir le monde actuel. L’assaut contre notre #autonomie est massif, à l’image du projet délirant de #Torre_Centilena à #Ciudad_Juarez, équipée de 1791 lecteurs de plaques d’immatriculation, 74 drones et 3000 caméras panoramiques pour surveiller la frontière américano-mexicaine à perte de vue. Le pouvoir n’est plus incarné. « Le pouvoir est en train de devenir liquide, il prend la forme de tout ce qu’il colonise et devient quasiment invisible ». Le régime de #surveillance est en passe de devenir « microbien ». C’est-à-dire que non seulement il est partout, qu’il est intégré au plus profond de nous, mais qu’il tend à exercer un #contrôle_total, partout, tout le temps en étant totalement intrusif et en régissant jusqu’à notre psychisme même. Adib-Moghaddam parle de « #psycho-codification » du monde pour évoquer cette #intrusion inédite des méthodes qui altèrent jusqu’à ce que l’on pense, jusqu’à nos intentions disions-nous récemment. Cette intrusion nous entraîne dans une #guerre_posthumaine, entre les humains et les machines. Nous sommes désormais la cible de #drones, de #machines, d’#algorithmes qui s’en prennent à nos individualités mêmes. Partout, le meurtre et la torture s’étendent sans avoir plus de comptes à rendre, à l’image de la police des frontières américaines, ICE, qui déploie son emprise, comme d’autres armées et d’autres polices, via des machines de surveillances totalitaires. Comme le pointait pertinemment le journaliste Olivier Tesquet suite aux révélations que l’ICE aurait arrêté plus de 75 000 personnes aux Etats-Unis sans historique criminel (soit un tiers des 220 000 personnes arrêtées depuis 9 mois) : « plus l’ICE s’appuie sur #Palantir pour « rationaliser » l’appareil répressif, plus les arrestations deviennent arbitraires. Ce n’est pas un bug mais une fonctionnalité : la machine produit la catégorie d’indésirables dont l’administration Trump a besoin ».

    Derrière ces transformations bien réelles, l’IA les prolonge encore, en s’en prenant à nos sens mêmes, jusqu’à nous faire douter de la réalité même.

    Derrière cette société délirante, il faut entendre qu’il y a une « utilisation infâme » des technologies. De la reconnaissance faciale qui criminalise les #minorités raciales aux logiciels de récidives qui discriminent les populations racisées aux scores de risques qui refusent des aides et des prêts aux populations minorisées et pauvres… une même #oppression se déploie pour renforcer et cimenter les #inégalités_structurelles de la société.

    Dans ce contexte, estime Arshin Adib-Moghaddam, on entend beaucoup parler d’#éthique, d’IA responsable, qui serait à même, bientôt, demain, de réparer les systèmes et « d’atténuer les dommages ». Mais l’IA peut-elle être éthique ?

    L’IA peut-elle être éthique ?

    Non répond le philosophe. L’IA est là pour imposer sa #terreur, comme le disaient Hagen Blix et Ingeborg Glimmer. L’IA est là pour produire de l’#incertitude, de l’#angoisse, et cette peur est une méthode de #gouvernance. « L’IA augmente la capacité de ceux qui l’utilisent à nous terrifier, dans un but de #contrôle, de #surveillance et de #profit ». L’écrivain iranien Jalal Al-e Ahmad parle de « #westoxification » (contraction entre West, l’Occident, et intoxication pour désigner une forme d’absorption toxique, de submersion par la #culture_occidentale – le terme a été traduit en français en « #occidentalité ») pour désigner l’oppression de la modernité occidentale, comme le chercheur et sociologue péruvien Anibal Quijano dénonce la « #colonialité », c’est-à-dire le fait que les rapports de pouvoir colonialistes perdurent notamment depuis les technologies.

    Dans son livre, Arshin Adib-Moghaddam commence par débugger le discours des machines éthiques. Les fondations idéologiques de la science sont dysfonctionnelles, rappelle le philosophe. La science a accompagné le projet politique de la #modernité, comme l’expliquaient Ulises A. Mejias et Nick Couldry dans Data Grab (voir notre recension). Les Lumières ont transformé le #racisme en science. Et l’IA n’est qu’une extension d’un #système_techno-colonial, remanié par le #néofascisme en cours.

    L’idée même d’éthique est poreuse à ces idées problématiques, explique-t-il. L’éthique se présente comme un mécanisme universel, mais oublie que cette philosophie qui pense pouvoir rendre nos machines et nos actions responsables, est une pensée spécifique, historique, contingente à la philosophie occidentale… Et qui l’est d’autant plus qu’elle a oublié les apports des autres philosophies. Arshin Adib-Moghaddam évoque nombre de philosophes asiatiques, arabes ou juifs effacés de la tradition philosophique au profit des philosophes grecs et européens. « Les façons de poser les questions éthiques autrement ont été balayées ». Pour les thuriféraires de l’IA, la vénération de sa puissance tourne à la #religion. Mais si la machine peut-être Dieu, ce #fondamentalisme s’annonce aussi dangereux que l’extrémisme religieux, prévient Arshin Adib-Moghaddam. Pourtant, qui s’inquiète de l’interfaçage des machines à nos cerveaux, du devenir posthumain que nous promettent les développeurs de l’IA ? Kant, Hume ou Locke, ces grands penseurs de l’Occident, ont tous tenu des propos racistes, ont tous défendu l’idée que les barbares devaient être civilisés par les Européens. Et ces grandes pensées occidentales sont celles-là même qui viennent alimenter de leurs données l’IA moderne. « L’IA est ethnocentrée et cet #ethnocentrisme ne sera pas corrigé par les données », par l’amélioration des traitements ou par un sursaut éthique. Les manuels d’éthique doivent être réécrits, estime Adib-Moghaddam, qui invite à partir d’autres philosophies pour bâtir d’autres IA.

    L’IA : machine à discriminer

    Arshin Adib-Moghaddam dénonce le terme de #biais qui a colonisé la critique de l’IA. Les biais sont un terme bien dépolitisé pour évoquer l’#oppression_structurelle inscrite dans les #données, dans notre histoire. Le racisme des sociétés occidentales a été intériorisé dans une « #géopolitique_eugéniste » qui ne domine pas seulement les relations internationales ou économiques, mais qui psycho-codifie jusqu’à nos corps et nos esprits. Le #racisme a été la stratégie impériale et scientifique qui a encore des effets quotidiens, qui inocule nos outils, comme la #médecine, qui tue encore des patientes et des patients parce qu’elles et ils sont noirs, parce qu’elles sont des femmes et parce que les #données_médicales ne sont pas collectées sur elles et eux. Les rapports et les études sur le sujet s’accumulent sans que la médecine elle-même ne réagisse vraiment, comme si elle ne s’était jamais départie des origines racistes de la science, que dénonçait par exemple le sociologue #Eduardo_Bonilla-Silva dans son livre Racism without Racists : Color-Blind Racism and the Persistence of Racial Inequality in the United States (Le racisme sans les racistes : le racisme indifférent à la couleur et la persistance des inégalités raciales en Amérique, Rowman & Littlefield , 2003, non traduit). Même durant le Covid, les quartiers racisés ont été plus décimés que les autres.

    On peut alors dénoncer les #biais_racistes des systèmes, de la reconnaissance faciale aux pratiques algorithmiques d’Uber. Mais c’est oublier que nous sommes cernés par des données algorithmiques « blanchisées » (#whitewashing), c’est-à-dire à la fois blanchies parce qu’ignorantes de la couleur de ceux qu’elles écartent et blanchies parce qu’elles masquent leurs dysfonctionnements raciaux. Nous sommes coincés entre un passé pollué et un présent problématique. Nous restons par exemple coincés dans les constats où les cancers de la peau sont plus importants pour les populations de couleurs alors qu’ils sont moins diagnostiqués pour les patients noirs que blancs. Ces données et ces erreurs pourtant ne sont pas corrigées, pas prises en compte. La perspective d’augmenter notre capture par des données n’annonce pourtant pas d’amélioration, au contraire, d’abord et avant tout parce que cette invasion doit être comprise pour ce qu’elle est : une extension de l’héritage de l’#eugénisme raciste de la #science, une forme d’expansion biopolitique du contrôle plus qu’une promesse de justice et d’égalité.

    Les mauvaises données produisent de mauvais algorithmes et de piètre systèmes d’IA, rappelle le philosophe. Or, nous sommes cernés de mauvaises données. Les #préjudices du passé envers certaines populations sont intégrés aux systèmes qui vont produire l’avenir. Cela ne peut pas bien se passer. Pourtant, fort de ces constats, terribles, les recommandations éthiques paraissent bien trop mesurées. Elles invitent à améliorer la représentation et la diversité des ingénieurs et des éthiciens, à améliorer les principes éthiques, à améliorer l’éducation des ingénieurs… dénonce Arshin Adib-Moghaddam. Autant de mesures qui tiennent plus de l’#orientalisme qu’autre chose, pour faire référence au concept développé par l’intellectuel palestino-américain Edward Saïd dans son livre éponyme (Le Seuil, 1978), ouvrage fondateur des études postcoloniales. Pour Saïd, la tradition artistique et scientifique orientaliste n’est qu’une étude de l’Orient par l’Occident, une interprétation de l’Orient, une condescendance au service de l’impérialisme.

    Du #techno-orientalisme au #privilège_épistémique

    Pour Arshin Adib-Moghaddam, le techno-orientalisme qui consiste à améliorer la diversité des développeurs ou à produire une équité par des corrections techniques n’est en rien une solution. ll ne remet pas en cause le pouvoir de la #technologie. « Les personnes historiquement marginalisées et vulnérables continuent à être inventées comme objets de la technologie ». Les erreurs à leurs égards, finalement, renforcent l’obsession à mieux les surveiller sous prétexte d’#objectivité, pour mieux hiérarchiser la société par le calcul. « Le techno-orientalisme ne vise qu’à renforcer les frontières entre nous et eux, l’est et l’ouest, les noirs et les blancs, entre les nationaux et les autres ». Shoshana Zuboff a montré que la tolérance à l’extrémisme est bien souvent un modèle d’affaire acceptable. Dans une étude sur la toxicité de Twitter, le Centre de lutte contre la haine numérique avait montré qu’une dizaine de comptes sur X pouvaient produire du contenu haineux et conspirationniste capable de rapporter… 19 millions de dollars en revenus publicitaires. « Le techno-orientalisme s’impose comme un incubateur pour l’expansion impériale afin de maximiser les revenus pour quelques personnes sélectionnées ». L’#impérialisme de X prolifère et impose sa #colonialité. Comme les projections de Mercator ont valorisé l’Occident, nous montrant un Groenland par exemple aussi grand que la Chine, quand en réalité il ne fait qu’un quart de la superficie de la Chine. L’impérialisme de X, comme l’impérialisme de l’IA rend possible un « privilège épistémique » qui « confère à une poignée d’hommes le privilège d’interpréter, de juger et de planifier l’avenir de la majorité ». Partout, une poignée d’hommes blancs parlent d’un avenir inévitable (le leur), utilisent ces outils pour diffuser leurs idées sans nuances, mégalomanes, patriarcale et coloniales influentes, sans se préoccuper du sort des autres. Derrière leurs idées rances, ils défendent avant tout leur #identité. Les néo-Nazis comme les terroristes d’ISIS tuent au nom de l’identité, comme le soulignait Paul Gilroy dans Against Race. Les médias sociaux sont devenus des paradis pour les fausses informations des extrémistes, où ils peuvent se faire les avocats de leurs agendas hystériques avec plus ou moins d’impunité. La #stupidité y est le meilleur capital, assène le philosophe.

    La coercition est forte avec les technologies. Microsoft et Google déploient des technologies de surveillance à l’encontre des Palestiniens. Saïd disait que la #déshumanisation des Palestiniens était l’un des grands héritage de l’orientalisme. Pour Arshin Adib-Moghaddam, une IA vraiment éthique devrait assurer que ses traitements et données soient auditables en accord avec les législation qui défendent les #droits_humains au niveau international, national et local. Le déploiement sans limite des technologies aux frontières, par la police et les militaires, nous montre qu’il n’en est rien.

    L’IA pour peaufiner l’oppression

    L’oppression structurelle, codifiée dans des institutions genrées et racistes, dans des normes politiques et sociales omniprésentes, s’apprête à entrer plus profondément dans nos esprits avec l’IA générative. Quand on pose des questions à ces moteurs, ils produisent certaines réponses qui sont le reflet des sociétés occidentales qui les produisent. A la question y-a-t-il un génocide à Gaza, #ChatGPT répond non. A la question peut-on torturer une personne, ChatGPT répondait par l’affirmative si cette personne venait d’Iran, de Corée du Nord ou de Syrie. Ces « #erreurs » qui n’en sont pas mais qui peuvent nous être présentées comme telles, sont bien sûr corrigées parfois. Les #modèles_de_langage galvanisent les préjudices raciaux comme le montrait l’étude menée par Valentin Hofmann (qu’on évoquait ici : https://danslesalgorithmes.net/2024/06/04/open-source-lia) qui montrait que l’IA s’adapte aux niveaux de langage de son interlocuteur ou qu’elle classe les mêmes CV différemment selon les consonances culturelles des noms et prénoms. Mais ils ne sont que les reflets des sociétés qui les produisent. Les modèles de langage sont bien les produits racistes de sociétés racistes, affirme celui qui avait dénoncé le caractère raciste de l’IA dans un précédent livre. Les corrections sont possibles, au risque d’enseigner superficiellement aux modèles à effacer le racisme, tout en le maintenant à des niveaux plus profonds. « En fait, nous sommes confrontés par une forme furtive de #technoracisme soigneusement dissimulée par un univers d’IA de plus en plus opaque ». Dans ces IA, les musulmans sont toujours associés à la violence.

    Weizenbaum nous avait prévenu : les humains sont plus enclins à se confier à une machine qu’à un humain. Et ce pourrait être exploité plus avant par les machines de coercition de demain. La CIA a beaucoup travaillé sur les drogues et outils permettant de mettre les gens en confiance, rappelle Arshin Adib-Moghaddam. Si les méthodes d’interrogation utilisées à Abu Ghraib ont été sur la sellette, le Mikolashek Report montrait par exemple que les frontières entre la torture, les abus et les techniques d’interrogations dites légitimes étaient plus poreuses que strictes. A Abu Ghraib, la torture n’était pas un accident. Les individus qui ont été torturés n’étaient pas isolés. A Abu Ghraib, les interrogatoires ne devaient pas laisser de traces sur les prisonniers et le système médical a donné ses conseils aux militaires pour y parvenir. C’est lui qui a proposé des modalités d’interrogatoires coercitives. A Abu Ghraib comme à Guantanamo Bay, des procédures ont été mises en place, comme le fait d’empiler les prisionniers nus pour profiter du fort tabou de l’homosexualité dans la culture arabe et musulmane.

    Que fera l’IA qui est déjà appelée à assister les interrogatoires de la CIA ou de la police ? Aura-t-elle encore plus que les humains la capacité de briser notre humanité, comme s’en inquiétaient des chercheurs ? Sera-t-elle l’outil parfait pour la #torture, puisqu’elle pourra créer du contexte psychologique ou informationnel pour rendre les gens toujours plus vulnérables à la #manipulation, comme des #chatbots compagnons, dressés contre nous.

    La torture à Abu Ghraib a été rendu possible parce qu’elle a épousé totalement la culture de ceux qui l’ont pratiqué. « L’histoire récente de l’IA n’apporte aucune preuve que les systèmes d’IA soient plus objectifs que les humains, à mesure qu’ils déploient les mêmes biais qu’eux, avec bien moins de responsabilité ».

    L’IA pour pour penser à notre place et prendre le contrôle des esprits

    Pour le philosophe, le contrôle de l’esprit est le Graal des systèmes d’IA. Ce que veulent ceux qui déploient l’IA, c’est qu’elle prenne le contrôle des esprits.

    Mais, dans les systèmes de domination, la résistance apparaît souvent là où on ne l’attend pas, disait Anibal Quijano. Pourtant, souligne Arshin Adib-Moghaddam, la société civile ne regarde pas suffisamment ce qui se déploie, elle semble peu impliquée dans le très dynamique secteur de l’IA militaire. Face à l’inégalité de pouvoir entre utilisateurs de l’IA et producteurs d’IA qui se sédimente avec le déploiement et l’extension des outils d’IA partout, peu est fait pour nous protéger. L’érosion lente de la #vie_privée, l’objectivation posthumaine… nous éloignent de la dé-technologisation qu’appelle de ses vœux Carissa Véliz dans son livre, Privacy is Power (Penguin, 2021).

    Pour Adib-Moghaddam, nous devrions pourtant chercher à protéger notre humanité, plutôt que de chercher à flouter les différences entre l’homme et la machine, comme l’attendent les tenants du posthumanisme. Adib-Moghaddam souhaiterait un futur qui soit post-IA, dans lequel l’IA, au moins telle que nous la connaissons aujourd’hui, n’ait pas sa place. Tant que nous la laisserons exploiter les données passées nous laisserons construire une IA fondamentalement destructrice, extractive, qui perpétue l’#irrationalité et l’agenda des conservateurs et de l’extrémisme de droite, en exploitant les données pour renforcer les différences entre un nous et un eux dans lesquels personne ne se reconnaîtra autres que les plus privilégiés.

    La promesse d’une bonne IA est centrale dans l’approche éthique que pousse la Silicon Valley, enrôlant les meilleurs chercheurs avec elle, comme ceux du MIT, du Berkman Klein Center for internet et society de Harvard. Leur travail est remarquable, mais la poursuite d’une IA éthique ne nous aide pas à trouver des restrictions au déploiement de technologies qui maximalisent la #surveillance_de_masse et la #violence_systémique. « Tant qu’il n’existera pas de #restrictions, les délibérations morales et politiques sur l’informatisation demeureront secondaires par rapport à l’impératif de profit ».

    A l’heure de l’IA, la lutte pour la #démocratie risque d’être plus essentielle que jamais et plus difficile que jamais. Le mythe de la bonne IA nous promet un monde dont les fondations et constructions sociales ne changeront pas. « L’âge de l’IA nous promet un rapport léthargique et résigné au monde ». C’est sans surprise que ceux qui refusent cette IA là sont qualifiés d’être irrationnels, radicaux ou idéalistes… Mais ne soyons pas dupes. « Il est plus facile de prendre le parti des puissants à l’heure de l’IA, alors que nous devrions prendre la direction inverse ». « Les technologies d’IA sont un danger pour nos démocraties car elles inhibent nos choix en donnant de l’impulsion aux seuls extrêmes ». Elles nous confinent dans un espace de pensée restreint. Pour Arshin Adib-Moghaddam, il nous faut reconnaître notre humanité, une humanité qui ne peut être programmée par des machines qui ne seront jamais sensibles.

    Être humain, c’est savoir se protéger

    Être humain signifie savoir se protéger de la pénétration, c’est-à-dire un droit à être laissé tranquille, seul. Nous devons réaffirmer la nécessité d’un « bouclier de la vie privée ». La critique féministe et décoloniale nous donne des armes, comme le fait Françoise Vergès par exemple en croisant les deux. Ressentir, penser, percevoir ou croire doivent rester des valeurs humaines, sans altération des machines. C’est notre #intimité même que tente d’envahir le complexe industriel de l’IA.

    Ainsi par exemple, être créatif c’est indubitablement être humain. La #créativité des machines n’est qu’un effort pour rendre confus nos sens et émotions, au profit du profit et dans une aversion de l’art comme un comportement insurrectionnel. Psycho-codifiés, TikTok, FB ou X sont des moyens d’envahir nos sanctuaires intérieurs. Les machines peuvent faire n’importe quelle tâche sans ressentir la douleur et la discipline nécessaire que l’auto-amélioration nécessite. D’où des productions sans âme, « inutiles pour l’émancipation sociale comme politique ». En associant l’art au seul profit, la matrice technologique propose de faire suffoquer l’essence même de l’art, comme s’il n’était qu’une extension technologique, qu’un moyen de contrôler la subjectivité humaine.

    De quelque endroit qu’on l’analyse, l’IA ne nous offrira aucun antidote à l’#impéralisme, au #colonialisme et à l’#extrémisme. « Nous sommes tous devenus les objets du #colonialisme_des_données extraites de nos corps mêmes ». Le colonialisme était horizontal, géopolitique dans son expansion. Le colonialisme des données, lui, est intimement vertical. Il vise à objectifier des individus vulnérables au profit des sociétés technologiques du Nord global. Les grandes entreprises exigent de nous psycho-codifier en permanence et partout. Arshin Adib-Moghaddam défend un manifeste post-IA qui seul peut gagner la bataille entre le poète et la machine, le stylo et l’épée, le modérateur biaisé et l’activiste paisible. Nous avons besoin de #justice et d’#émancipation_sociale, rien d’autre. Ce qui n’y œuvre pas n’a pas d’intérêt. L’#ignorance, l’#évitement et la #passivité que nous promettent l’IA et ses tenants, ne nous proposent aucun avenir. « Si nous avons besoin d’une bonne IA, nous avons besoin d’une bonne IA qui réponde à nos termes », qui puisse nous permettre de reprogrammer le futur plutôt que de subir la perpétuation du passé.

    Être humain, c’est savoir se protéger. Et face aux machines, l’enjeu est encore de le pouvoir.

    https://danslesalgorithmes.net/2025/12/11/le-mythe-de-la-bonne-ia
    #décolonial #IA #AI #intelligence_artificielle

  • PJL Fraudes sociales et fiscales : un flicage qui n’en finit pas
    https://www.laquadrature.net/2025/12/15/pjl-fraudes-sociales-et-fiscales-un-flicage-qui-nen-finit-pas

    Un projet de loi de « lutte contre les fraudes sociales et fiscales » est débattu en ce moment à l’Assemblée nationale, après une première lecture au Sénat. Ce texte prévoit d’augmenter les pouvoirs d’enquête pour…

    #Non_classé

  • Héritage : « Les chercheurs disposent de moins d’informations sur les transmissions que quand l’informatique n’existait pas »
    https://www.lemonde.fr/idees/article/2025/11/30/heritage-les-chercheurs-disposent-de-moins-d-informations-sur-les-transmissi

    Le processus de transmission des déclarations de succession à l’administration fiscale a sans conteste besoin d’être modernisé. Les notaires rédigent aujourd’hui les déclarations de succession sur support électronique. Les héritiers et légataires peuvent de même remplir les formulaires Cerfa sur ordinateur. Mais ils sont les uns et les autres obligés de les transmettre au service de l’enregistrement sous format papier. L’envoi de documents numérisés sous format papier fait obstacle à la production de données agrégées et à leur exploitation scientifique.

    Aussi la direction générale des finances publiques a-t-elle prévu un service numérique de l’enregistrement avec la mise en place de la plateforme e-Enregistrement. Malheureusement la date de son ouverture ne cesse d’être repoussée. Dans le contrat de transformation e-Enregistrement de 2019, la bascule numérique était programmée pour 2021 ; dans le décret 2020-772 du 24 juin 2020, l’entrée en vigueur de l’obligation de télédéclaration était fixée au plus tard au 1er juillet ; jusqu’à ce que le décret 2025-561 du 30 mai la supprime en abrogeant le précédent décret – et ce sans qu’aucune justification soit apportée.

    Résultat paradoxal : à l’heure du numérique et du big data, les chercheurs disposent de moins d’informations agrégées sur les transmissions que quand l’informatique n’existait pas ! Or quand les moyens nécessaires lui sont alloués, l’administration fiscale parvient à produire des données de grande qualité. Ainsi, par exemple, des progrès notables ont été réalisés au cours des dernières années permettant de coupler les données fiscales sur les revenus des ménages à celles sur leur patrimoine. Il est dommage que les successions et les donations aient été laissées de côté.
    Or les enjeux de connaissance en ce domaine sont essentiels. Jusqu’en 2010, ces données fiscales permettaient de dresser un état des lieux précis des patrimoines transmis et de leur composition par type d’actif (immobilier, financier, professionnel). Elles rendaient également possible la mesure du niveau de concentration des héritages et de leur répartition géographique.

    La réouverture de l’accès à ces données permettrait de nourrir, de manière posée et rationnelle, le débat public qui est en train d’émerger autour de la question de l’héritage. Les droits de succession et donation se sont élevés en 2024 à 20,8 milliards d’euros dont nous savons en définitive peu de choses. Grâce aux données fiscales, nous pourrions calculer les taux d’imposition effectifs selon le montant et la nature des biens transmis, ou encore selon le lien de parenté entre défunts et héritiers.

    https://justpaste.it/m451d

    « La France du XXIᵉ siècle est redevenue une société d’héritiers », Mélanie Plouviez
    https://seenthis.net/messages/1106293#message1107143

    #héritocratie #propriété #héritage #société_d’héritiers #patrimoine #successions #donations #niches_fiscales #données_fiscales #fiscalité #débat_public

  • « De quoi être désespéré » : le calvaire de Rémy, demandeur d’emploi privé de ses indemnités après le vol de ses données - Le Parisien
    https://www.leparisien.fr/faits-divers/il-y-a-de-quoi-etre-desespere-apres-le-vol-de-ses-donnees-en-ligne-le-cal

    Victime comme des dizaines de milliers d’autres personnes d’un vol de ses #données_personnelles sur le site de #France_Travail, l’administration a bloqué son compte. Il se retrouve sans aucune indemnité et dans l’impossibilité de chercher un emploi.

    « Le 23 juillet, une antenne de France Travail de la région Paca m’appelle. Dès le départ, rien ne va, je suis Parisien et je n’ai jamais travaillé dans cette région. En fait, l’agent soupçonne une activité suspecte sur mon compte personnel. J’aurais fait une demande de RSA et une autre pour une indemnité mobilité. » Aucune de ces démarches n’émane de lui. L’agence décide alors de bloquer son espace personnel pour éviter toute nouvelle activité frauduleuse.
    Comme des milliers de personnes, Rémy expérimente à ses dépens les conséquences du #vol_des données_personnelles. France Travail en a subi plusieurs ces derniers mois. La dernière grosse attaque informatique visant l’établissement public remonte à cet été, quand des renseignements personnels de 600 000 personnes se sont retrouvés dans la nature. Une fuite qui fait suite à une autre plus colossale, concernant cette fois 43 millions de personnes, en mars 2024. Depuis, fin octobre 2025, la plate-forme de recherche d’emploi a reconnu un autre incident avec 30 Go de données piratées.

    Pour Rémy, développeur en logiciel, le blocage de son compte marque le début du cauchemar. Les tentatives de connexion se soldent toutes par la même issue. Avec des conséquences bien concrètes : « Je ne perçois aucune indemnité chômage, déplore l’infortuné. Et je ne peux effectuer aucune démarche de recherche d’emploi ou de formation puisque tout passe par l’espace personnel. » Pis, France Travail a procédé à sa radiation puisqu’il n’a justifié d’aucune activité de recherche au mois d’octobre. Et pour cause, les propositions de formation ou d’emploi atterrissent dans l’espace personnel.
    « Une situation ubuesque », s’insurge sa compagne, Charlotte, qui se trouve dans la même situation que lui, victime elle aussi de la fuite de ses données et d’un compte personnel bloqué.

    Les échanges réguliers avec France Travail ne les rassurent pas sur le règlement de leur situation. « La manageuse qui nous a reçus a reconnu qu’elle ne savait que faire. Administrativement, on n’existe pas. On ne peut produire aucune preuve de notre situation de demandeurs d’emploi. »
    Contacté, l’établissement public fait savoir qu’il « regrette » la situation : « Nous sommes conscients que, tout en maintenant des vérifications préalables d’identité qui sont indispensables, nos délais concernant la procédure de réinscription doivent être améliorés. » Le retour à la normale après une fuite de données prend du temps. La fuite des identifiants sur le dark Web ou l’utilisation supposée frauduleuse des données obligent « le service fraude à bloquer les accès de comptes de demandeurs d’emploi ».

    Les fuites récurrentes de données personnelles se multiplient. Rien qu’en 2024, la Commission nationale de l’informatique et des libertés (Cnil) a recensé 5 629 violations de données, soit une augmentation de 20 % par rapport à l’année précédente. Une série noire qui fait dire à Clément Domingo, hacker éthique, que « les deux dernières années sont une hécatombe cyber en France ».
    Sur son clavier d’ordinateur, celui qu’on surnomme SaxX sur les réseaux nous démontre que les données subtilisées à France Travail sont en vente sur le dark Web. « Avec un e-mail, il est facile d’usurper l’identité auprès d’agences publiques pour changer les mots de passe. »
    Un RIB et un login se monnayent 35 €

    #cybersécurité #revenu

  • Le gouvernement veut nous obliger à utiliser le Dossier Médical Partagé
    https://www.laquadrature.net/2025/11/21/le-gouvernement-veut-nous-obliger-a-utiliser-le-dossier-medical-partag

    L’article 31 du projet de loi de financement de la sécurité sociale (PLFSS) pour 2026 renforce l’obligation pour les professionnel·les de santé de reporter les données de santé de leurs patient·es dans leur Dossier Médical…

    #Données_personnelles

  • Charte de développement responsable des neurotechnologies | enseignementsup-recherche.gouv.fr
    https://www.enseignementsup-recherche.gouv.fr/fr/charte-de-developpement-responsable-des-neurotechnolo

    Cette charte a pour objectif de favoriser le développement responsable des neurotechnologies pour des applications médicales et non médicales, en renforçant la confiance entre tous les acteurs. Elle a aussi pour objectif de protéger patients et consommateurs contre des utilisations potentiellement abusives et malveillantes conduisant à une perte de liberté cognitive ou au non-respect de la confidentialité des données cérébrales personnelles collectées.

    #BCI #Données_cérébrales

  • Le #Royaume-Uni et le #Vietnam concluent un nouvel #accord pour lutter contre l’immigration clandestine

    Pour lutter contre les traversées illégales de la #Manche par les migrants vietnamiens, un accord a été conclu entre Londres et Hanoï, ont annoncé les autorités britanniques mercredi. Son objectif est de lutter contre l’immigration clandestine en accélérant les procédures d’expulsion. « Le nombre d’arrivées illégales en provenance du Vietnam a déjà été réduit de moitié, mais il est possible de faire davantage », a déclaré le Premier ministre britannique dans un communiqué.

    Un nouvel accord migratoire a été signé entre le Royaume-Uni et le Vietnam mercredi 29 octobre, a indiqué le gouvernement britannique. Il permettra, selon le Home Office, « d’accélérer la procédure de retour des personnes n’ayant pas le droit de séjourner au Royaume-Uni ». Il s’agit du second traité conclu entre les deux pays. Un précédent accord avait déjà été signé en 2024.

    Grâce au partage de #données_biométriques et à des procédures administratives simplifiées, cet accord permettra de réduire « de 75 % le temps de traitement des documents des migrants en simplifiant les procédures administratives » et ainsi « de renvoyer plus rapidement et plus facilement ceux qui n’ont pas le droit de se trouver ici », a-t-il ajouté dans un communiqué.

    La signature de cet accord fait suite à une forte augmentation des arrivées en provenance de ce pays d’Asie du Sud-Est l’année dernière. Les Vietnamiens représentaient la plus importante nationalité à traverser la manche par #petites_embarcations durant le premier trimestre 2024, et la quatrième plus importante sur l’ensemble de l’année.

    Baisse des arrivées de Vietnamiens

    Selon le Premier ministre britannique Keir Starmer, cet accord, qui est « le plus ambitieux jamais conclu par le gouvernement vietnamien avec un autre pays », pourrait entraîner le retour de quatre fois plus de ressortissants vietnamiens n’ayant « aucun motif légitime de rester en Grande-Bretagne ».

    « Cet accord historique envoie un message clair : si vous entrez illégalement au Royaume-Uni, vous serez rapidement renvoyés », a encore déclaré Keir Starmer. Et d’ajouter : « Le nombre d’arrivées illégales en provenance du Vietnam a déjà été réduit de moitié, mais il est possible de faire davantage ».

    Selon les chiffres officiels britanniques, 1 026 Vietnamiens sont arrivés par « #small_boats » entre janvier et juin 2025, soit la moitié par rapport à la même période l’année précédente.

    « Ce pays est resté trop longtemps incapable d’expulser ceux qui n’avaient aucun droit de se trouver ici », a félicité la ministre de l’Intérieur, Shabana Mahmood, suite à la signature de cet accord.

    Campagnes de communication

    Un précédent accord avait déjà été signé en 2024 entre les deux pays. Il comprenait une série de mesures comme l’accroissement du partage de renseignements, la diffusion de messages de dissuasion et la facilitation des processus de retours des migrants illégaux du Royaume-Uni vers leur pays d’origine.

    Une #campagne sur les #réseaux_sociaux avait notamment été lancée au Vietnam via des vidéos reprenant des témoignages de migrants partageant les conséquences et les dangers de l’immigration vers le Royaume-Uni.

    « #One_in_one_out »

    Depuis le début du phénomène des « small boats » en 2018, les gouvernements britanniques successifs multiplient les accords avec différents pays pour lutter contre l’immigration irrégulière. Le Royaume-Uni a notamment conclu de nouveaux traités avec des pays comme l’#Irak ou les Balkans occidentaux.

    Le dernier en date est l’accord « one in one out », passé avec la #France. Cet accord - en vigueur depuis le mois d’août 2025 - prévoit le renvoi en France de migrants arrivés au Royaume-Uni à bord de « small boats », en échange de l’accueil par Londres de migrants se trouvant en France, sur le principe du « un pour un ».

    Malgré cela, les traversées de la Manche continuent d’être importantes. Depuis le début de l’année, 36 954 exilés sont arrivés en bateau au Royaume-Uni, selon les données du #Home_Office. Un chiffre qui dépasse désormais celui enregistré en 2024 qui s’élevait à 36 816 arrivées.

    https://www.infomigrants.net/fr/post/67860/le-royaumeuni-et-le-vietnam-concluent-un-nouvel-accord-pour-lutter-con

    #UK #Angleterre #migrations #réfugiés #renvois #expulsions

  • Des données publicitaires géolocalisées ont permis de suivre à la trace des responsables de l’UE, parfois jusqu’à leur domicile

    Des #données_publicitaires géolocalisées (...) ont permis d’identifier et de suivre à la trace plusieurs dignitaires de l’Union européenne. Un cas pratique illustrant les limites du cadre européen en matière de #données_personnelles.

    Chaque seconde, des millions de données personnelles s’échangent sur le marché de la publicité en ligne. Issues des applications installées sur les #smartphones, elles sont parfois assorties d’une #géolocalisation précise. Et permettent donc le pistage, parfois à quelques mètres près, de millions d’utilisateurs de mobiles.

    Ce marché publicitaire, où les données personnelles des mobinautes s’échangent et se vendent, prospère la plupart du temps sans que les premiers concernés en soient conscients. Et profite des angles morts des lois relatives aux données personnelles, en particulier le règlement général sur la protection des données (#RGPD), adopté de haute lutte par l’Union européenne (#UE) en 2016.

    [...]

    Le Monde et ses partenaires ont eu accès à des échantillons de ces données concernant la Belgique, proposés gratuitement par un courtier pour faire montre de ses capacités : ils comportent plus de 2,5 millions d’identifiants publicitaires – chaque téléphone en a un, auquel sont associées les données personnelles comme la géolocalisation –, soit l’équivalent de plus de 20 % de la population belge. Les données sont présentées comme couvrant une période de quelques jours en octobre 2024.
    Ces échantillons montrent à nouveau le caractère intrusif de ces données. Nous avons identifié 264 identifiants publicitaires géolocalisés au sein du bâtiment Berlaymont, quartier général de la #Commission_européenne à Bruxelles, et 756 au siège bruxellois du Parlement européen. En analysant leurs allées et venues, nous avons identifié plusieurs dizaines d’adresses pouvant appartenir à des membres des institutions européennes.
    https://www.lemonde.fr/pixels/article/2025/11/04/comment-des-donnees-publicitaires-permettent-de-pister-des-responsables-de-l

    https://justpaste.it/hodfm

    #data #identifiants_publicitaires #cybersécurité

  • #Frontex, agent intouchable du #renseignement_migratoire

    L’Agence européenne de garde-frontières et de garde-côtes, Frontex, est devenue, en vingt ans [1], le bras armé des politiques sécuritaires de l’Union européenne (UE) et de ses États membres. Initialement créée pour coordonner le contrôle des #frontières, organiser les #expulsions et produire des « #analyses_de_risques » des mouvements de populations, Frontex a élargi son champ d’intervention bien au-delà des questions migratoires.

    Nonobstant des enquêtes institutionnelles et journalistiques ayant démontré que ses officiers s’étaient rendus coupables de graves #violations_de_droits, tout semble organisé pour que la responsabilité de l’agence Frontex ne soit ni engagée ni reconnue. En sus de ses traditionnelles activités de #surveillance et de #contrôle des frontières prévues dans le règlement (UE) 2019/1896, l’agence tentaculaire dotée de moyens exponentiels est devenue tout à la fois agent du renseignement, négociateur, influenceur et membre d’un réseau de dissuasion violente, que rien ni personne ne semble pouvoir arrêter.

    Produire de l’information, qu’importe sa véracité

    Comme pour tout bon agent du renseignement, recueillir et exploiter des informations relevant de la vie privée est un axe essentiel du travail de Frontex. Elle collecte ces #données par le biais des États membres, d’agences européennes et d’organisations partenaires, mais aussi dans le cadre de ses propres opérations (maritimes, aériennes, terrestres). Elle est présente aux #frontières_maritimes (Méditerranée centrale et Manche), ainsi qu’aux #frontières_terrestres et aériennes de plusieurs pays (#Albanie, #Géorgie, #Monténégro, #Serbie, #Macédoine_du_Nord, #Moldavie, #Ukraine). Elle a progressivement élargi ses activités vers la zone #pré-frontière de l’UE et ouvert des bureaux #satellites temporaires dans des pays tiers du voisinage méridional et en #Afrique_de_l’Ouest [2].

    Quantité d’informations sont susceptibles d’être enregistrées : certaines sont générales, telles les routes migratoires empruntées, les dates de franchissement de frontière, les listes de passagers ou le pays de provenance ; d’autres, plus spécifiques, sont relatives aux #données_biographiques, aux incidents au cours d’opérations, jusqu’au lieu où se cachent les personnes au moment du contrôle. Les données recueillies nourrissent divers fichiers, parmi lesquels celui d’#Eurosur, instrument de surveillance et d’échange d’informations entre Frontex et les États membres, ou le #Joint_Operation_Reporting_Application (#Jora). Elles donnent aussi – et surtout – lieu à la production de #rapports_analytiques, avec une photographie de la situation aux frontières, supposés permettre de déterminer le niveau de « #risques » de déplacements vers le continent européen.

    Le Contrôleur européen de la protection des données (CEPD) estime que, malgré les moyens déployés, les « analyses de risques » produites par l’agence sont fondées sur des informations peu fiables, obtenues lors d’entretiens menés sans le consentement des migrant·es ni protection de leur identité [3]. Il a également émis des réserves quant à la sécurisation des données et l’ampleur de la collecte.

    L’#opacité des activités de Frontex inquiète aussi le Médiateur européen, qui a traité plusieurs plaintes concernant l’impossibilité d’accéder à des documents et informations. Il faut préciser que l’agence est très réticente à fournir les informations demandées, y compris à ses propres contrôleurs, chargés depuis 2019 d’évaluer en permanence le respect des droits fondamentaux dans ses activités opérationnelles [4].

    Frontex reconnaît elle-même que ses chiffres comportent des #erreurs : alors qu’elle communique chaque année sur le nombre de franchissements de frontières non autorisés, elle admet qu’« il n’existe aucun dispositif permettant d’établir le nombre exact de personnes ayant franchi les frontières [5] ». Mais pour elle, il s’agit presque d’une question secondaire : selon sa directrice adjointe, Aija Kaljana, « il est essentiel de devenir une organisation axée sur le #renseignement, car les ressources humaines et techniques sont limitées [6] ». L’ambition de Frontex est donc de passer d’une agence du contrôle migratoire à un #service_de_renseignement.

    Travailler en synergie, y compris hors du champ migratoire

    L’agence, au cœur d’un vaste réseau d’échanges de données, coopère avec de nombreux services, civils ou militaires, ayant des objets aussi variés que la pêche, la lutte contre le #narcotrafic ou la #sécurité_aérienne [7]. Frontex a créé, en 2018, la #Maritime_Intelligence_Community–Risk_Analysis_Network (#MIC-RAN), soit une communauté du #renseignement_maritime et un réseau d’analyse des risques, pour collecter des données et diffuser des rapports sur les #menaces_maritimes (i.e. l’appropriation illégale des zones maritimes, les conséquences du réchauffement climatique, les « usages illégaux » de la mer). Autre illustration de la diversité de ses collaborations : l’agence négocie des accords avec des sociétés d’affrètement comme #EASP_Air, #DEA_Aviation ou #Airbus [8] qui fournissent des #aéronefs, le personnel pour les exploiter et l’infrastructure technique pour la transmission des données enregistrées, en temps réel, au siège à Varsovie [9]. Elle capte également des données depuis l’espace, car elle a conclu un contrat avec #Unseenlabs, une entreprise française spécialisée dans la surveillance maritime par radiofréquence depuis l’espace, ou se sert des satellites du programme #Copernicus d’observation de la Terre qui sont utilisés pour la sécurité, la protection civile, la gestion de l’environnement et la recherche sur le changement climatique [10].

    Engagée dans des projets de recherche et développement, l’agence finance ceux qui se focalisent sur le matériel de surveillance [11]. Elle a étroitement suivi les avancées du programme #ITFlows, un outil de prédiction des flux migratoires à partir de techniques d’analyse automatisée de données, en y contribuant activement via la fourniture d’informations récoltées dans le cadre de ses missions [12]. Dans le même registre, elle a organisé avec des garde-côtes italiens, début 2025, un atelier international intitulé Évolution des garde-côtes : l’#intelligence_artificielle et les systèmes sans pilote améliorent les opérations de recherche et de sauvetage. Vaste programme à l’heure où le recours à l’intelligence artificielle (#IA) pose de sérieuses questions éthiques [13].

    Au-delà des frontières de l’Europe, Frontex multiplie des #campagnes qui sont de véritables opérations de séduction, afin de s’assurer du concours des États tiers pour empêcher les départs depuis les pays d’origine. Ainsi est-elle à l’initiative du projet #Africa–Frontex_Intelligence_Community (#Afic) dans huit pays africains (#Côte_d’Ivoire, #Gambie, #Ghana, #Mauritanie, #Niger, #Nigeria, #Sénégal et #Togo), officiellement lancé pour « collecter et analyser des données sur la #criminalité_transfrontalière et soutenir les autorités impliquées dans la #gestion_des_frontières ». Frontex a également organisé des séances opérationnelles de #sensibilisation à la lutte contre la #fraude_documentaire et la fraude à l’identité en #Albanie, #Bosnie-Herzégovine, #Égypte, #Géorgie, #Moldavie, #Macédoine_du_Nord, #Serbie et en #Tunisie.

    Comme pour conforter sa place centrale dans le réseau d’information qui surveille tout et constamment, c’est avec les services de répression, tels l’#Office_européen_de_police (#Europol) et l’#Organisation_internationale_de_police_criminelle (#Interpol), que l’agence a intensifié ses relations. Depuis 2008, Frontex signe des accords de coopération et des plans d’action conjoints avec Europol pour partager avec cette agence les informations qu’elle recueille, singulièrement via Eurosur, à des fins de lutte contre la criminalité ou le terrorisme. Sur le terrain, cette entente s’est notamment matérialisée durant des opérations relevant de la politique de sécurité et de défense commune (opérations #Sophia et #Jot_Mare en 2015). Plus surprenant : en 2024, Frontex a codirigé une opération internationale visant à lutter contre la #contrebande_de_drogue par voie maritime en fournissant un soutien technique et opérationnel [14] ; elle est aussi intervenue pour des opérations de soutien pendant les #Jeux_olympiques en France [15], pendant la compétition de l’Euro en Allemagne, ou encore durant la guerre en Ukraine... Elle outrepasse ainsi sa mission initiale et s’érige comme un organe de « super-contrôle ».

    De son côté, Interpol travaille avec l’UE et Frontex dans le domaine de la sécurisation des frontières, sous forme de collaborations techniques, de #formations et de projets de recherche communs. Frontex a élaboré un manuel de référence contenant des alertes de falsification et des cartes de contrôle rapide servant d’aides visuelles à la décision lors de la vérification de documents. Ce dispositif est désormais au cœur du système de bibliothèque électronique de documents #Frontex-Interpol (#Fields). Les #bases_de_données d’une agence de surveillance des frontières et celles d’une organisation de lutte contre la criminalité sont dès lors interconnectées.

    Une agence opaque et délétère qui influence les législations

    Plusieurs enquêtes documentées décrivent les actes illicites commis par l’agence sur ses terrains d’intervention. Il n’est plus à démontrer qu’elle s’est rendue complice ou coupable, à de nombreuses reprises, de #refoulements (#push-backs) en Grèce, pourtant interdits par le droit international. Des refoulements qui sont recensés dans sa base de données #Jora comme de simples opérations de « #prévention_de_départs [16] ». Des pratiques similaires ont été dénoncées à la frontière bulgare, où des violences ont été commises par des garde-frontières participant aux opérations de Frontex [17]. À #Chypre, de nombreux ressortissant·es syrien·nes ont été illégalement enfermé·es et d’autres ont été expulsé·es vers la Syrie, sous les yeux d’officiers de Frontex [18]. Des pratiques épinglées par l’Office européen de lutte antifraude (Olaf), qui a émis des doutes sur « la capacité de l’agence FRONTEX à […] veiller au respect et à la protection des droits fondamentaux dans toutes ses activités aux frontières extérieures ».

    L’agence va jusqu’à fabriquer de fausses informations lorsqu’elle prétend sauver des vies en mer, alors qu’elle transmet la position des embarcations en détresse aux #garde-côtes_libyens, dont les comportements violents envers les personnes migrantes sont notoires [19]. Il lui arrive aussi d’interrompre la prise de vue aérienne au-dessus de la mer Méditerranée pour ne pas avoir à référer d’abandon de personnes en mer [20]. En 2023, un navire où s’entassaient près de 200 migrants au large des côtes italiennes (Crotone) ne présentait, selon le rapport d’incident de Frontex, « pas d’intérêt particulier ». La même année, Frontex a omis d’envoyer un signal de détresse lors du naufrage de l’Adriana (Pylos), provoqué par une manœuvre des garde-côtes grecs [21]. Faut-il le rappeler, alerter les secours relève pourtant d’une obligation internationale de droit maritime. La multiplication des cas de refoulements ou le silence gardé à la vue d’embarcations en détresse contribuent à abaisser les standards de protection. L’agence fait en outre croire qu’elle s’intéresse au sort des personnes expulsées, voire améliore leur situation, lorsqu’elle met en avant les effets bénéfiques qu’aurait eu le retour dans le pays d’origine [22]. La violation des #droits_fondamentaux se banalise et, dans un contexte d’impunité généralisée, est traitée en matière migratoire comme un dommage collatéral.

    Malgré ces multiples mises en cause, Frontex exerce une influence croissante sur les instances politiques et les législations européennes. Ses « analyses de risques » sont l’unique source d’information de la Commission européenne, et l’image construite d’une perpétuelle « #crise aux frontières » qu’elles donnent à voir sert à justifier l’augmentation des contrôles et des mesures sécuritaires. Depuis des années, l’agence véhicule une image négative de la migration en la présentant comme une menace dont il faudrait se protéger.

    Cette image trouve sa traduction dans les réformes législatives. L’insistance de Frontex à alerter, dans ses rapports d’activité, sur « les #mouvements_secondaires […] à grande échelle » ou sur la persistance de la #pression_migratoire a sans nul doute contribué à l’adoption, en 2024, du #pacte_européen_sur_la_migration_et_l’asile. Un pacte dans la mise en œuvre duquel Frontex détient un rôle clé, avec, notamment, les nouvelles attributions qui lui sont confiées aussi bien lors des procédures frontalières (« #filtrage ») que dans l’organisation des #expulsions. Onze États sont en train de s’équiper d’un système informatique numérisé de gestion des retours sur le modèle du #Return_Case_Management_System (#Recamas) mis au point par Frontex.

    La réforme du règlement #Eurodac ouvre une nouvelle brèche en permettant à l’agence de consulter le #répertoire_central_des_rapports_et_statistiques (#CRRS) et d’avoir accès aux #statistiques de l’agence de l’Union européenne pour la gestion opérationnelle des systèmes d’information à grande échelle au sein de l’espace de liberté, de sécurité et de justice (#EU-Lisa).

    Enfin, la #réforme en cours des directives « Facilitation » et « Retour » risque de renforcer les pouvoirs de l’agence, en augmentant – encore – son #budget et en l’autorisant à transférer à des pays tiers des données relatives à des ressortissants aux fins de #réadmission.

    Une agence peu fiable, mais intouchable

    Selon l’Organisation internationale pour les migrations (OIM), plus de 74 352 personnes ont trouvé la mort depuis 2014 en tentant de franchir les frontières [23]. En dehors du champ de la migration, l’acteur, personne physique ou morale, qui serait impliqué dans une telle hécatombe serait poursuivi et jugé, voire condamné. Malgré les preuves tangibles de la #responsabilité de Frontex, comme de l’UE et de ses États membres, dans ces drames, aucun d’entre eux n’a jamais été inquiété. Bien au contraire, la Commission européenne confirme son agenda politique basé sur la mise à l’écart des personnes exilées en donnant à l’agence un rôle de premier plan dans les politiques migratoires européennes et en proposant de tripler ses effectifs. Les États s’appuient toujours plus sur Frontex : en 2024, la #Belgique a adopté une loi pour permettre le déploiement d’officiers de l’agence sur son territoire afin de soutenir la police fédérale dans l’exécution des expulsions. Le #Royaume-Uni a signé un accord de coopération avec Frontex sur divers aspects de la gestion des frontières, comme la surveillance et l’évaluation des risques, l’échange d’informations, le renforcement des capacités et le partage d’expertise. Dans ces conditions, pourquoi l’agence intouchable s’arrêterait-elle là, même coupable du pire ? La meilleure défense étant l’attaque, la criminalisation des solidarités et la décrédibilisation de celles et ceux qui dénoncent ses actions – à l’image de la campagne Abolish Frontex accusée de « discours haineux » – sont érigées en stratégie de dissuasion. De même, celles et ceux qui pallient l’action défaillante des États, comme les ONG de sauvetage en mer, sont assimilées à des réseaux de passeurs. Une #rhétorique qui ressemble à s’y méprendre à celle des partis populistes.

    https://migreurop.org/article3472.html
    #migrations #réfugiés #directive_retour #directive_facilitation

    ping @karine4 @reka

  • Politiques publiques : passer de l’#IA… à la #dénumérisation

    L’intelligence artificielle et son monde est en train de prendre la main sur les #politiques_publiques, au risque de nous laisser sans échappatoire, alerte Dan McQuillan.

    L’IA prédictive comme générative semble offrir une multitude d’avantages à l’élaboration des politiques publiques : de l’analyse de données complexes à l’optimisation des ressources. Elle semble à la fois être capable d’apporter une vision globale et d’identifier les leviers permettant de la modifier. Recourir à l’IA signifie mettre en place des politiques conduites par les données, ce qui permet d’assurer une forme d’#objectivité, notamment quant il s’agit de rationner le #service_public

    Mais, cette production de solutions politiques semble oublier que l’IA est incapable de résoudre les #problèmes_structurels. Elle propose des #solutions_performatives qui obscurcissent et amplifient les problèmes, explique l’iconoclaste #Dan_MacQuillan dans un article pour la Joseph Rowntree Foundation, une association britannique de lutte contre la pauvreté, qui a initié une réflexion sur l’usage de l’IA pour le #bien_public. Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’intelligence artificielle, Bristol University Press, 2022, non traduit) dont nous avions déjà parlé.

    McQuillan rappelle que l’IA, par principe, consiste à produire des #corrélations réductrices plutôt que des analyses causales. « La complexité de l’IA introduit une #opacité fondamentale dans le lien entre les #données_d’entrée et les #résultats, rendant impossible de déterminer précisément pourquoi elle a généré un résultat particulier, empêchant ainsi toute voie de recours. Ce phénomène est aggravé dans les applications concrètes, où les résultats apparemment fiables de l’IA peuvent devenir auto-réalisateurs. Un #algorithme d’apprentissage automatique qualifiant une famille de « difficile » peut ainsi créer une #boucle_de_rétroaction entre les membres de la famille et les #services_sociaux. De cette manière, l’IA imite des phénomènes sociologiques bien connus, tels que les #stéréotypes et la #stigmatisation, mais à grande échelle ». Ses inférences au final renforcent les #stratifications_sociales de la société comme pour les rendre acceptables.

    Or, rappelle le chercheur, « une bonne politique doit impérativement être ancrée dans la réalité ». C’est pourtant bien ce lien que rompent les calculs de l’IA, à l’image des #hallucinations. Celles-ci proviennent du fait que l’IA repose sur l’#imitation_du_langage plutôt que sa #compréhension. Le même principe s’applique à toutes les #prédictions ou #classifications que produit l’IA. « Que l’IA soit appliquée directement pour prédire la #fraude aux #aides_sociales ou simplement utilisée par un décideur politique pour « dialoguer » avec une multitude de documents politiques, elle dégrade la #fiabilité des résultats ».

    Des données probantes suggèrent déjà que l’imbrication des #algorithmes dans les solutions politiques conduit à une appréciation arbitraire de l’#injustice et de la #cruauté. Les #scandales abondent, de #Robodebt en Australie à l’affaire des allocations familiales aux Pays-Bas, qui auraient tous pu être évités en écoutant la voix des personnes concernées. Mais l’IA introduit une #injustice_épistémique, où la capacité des individus à connaître leur propre situation est dévaluée par rapport aux abstractions algorithmiques. Si l’IA, comme la #bureaucratie, est présentée comme une forme généralisée et orientée vers un objectif de processus rationnel, elle engendre en réalité de l’#inconscience : l’incapacité à critiquer les instructions, le manque de #réflexion sur les conséquences et l’adhésion à la croyance que l’ordre est correctement appliqué. Pire encore, l’IA dite générative offre la capacité supplémentaire de simuler une large consultation, que ce soit par « l’interprétation » hallucinatoire d’un grand nombre de soumissions publiques ou par la simulation littérale d’un public virtuel et prétendument plus diversifié en remplaçant des personnes réelles par des avatars d’#IA_générative. Une technique, qui, si elle a l’avantage de réduire les coûts, est dénoncée par des chercheurs comme contraire aux valeurs mêmes de l’enquête et de la recherche, rappelait Scientific American. « L’approche technocratique mise en œuvre par l’IA est à l’opposé d’un mécanisme réactif aux aléas de l’#expérience_vécue », explique McQuillan. « L’IA n’est jamais responsable, car elle n’est pas responsable ». Si l’on considère les attributs de l’IA dans leur ensemble, son application à l’élaboration des politiques publiques ou comme outil politique aggravera l’#injustice_sociale, prédit le chercheur. L’apport de l’IA à l’ordre social ne consiste pas à générer des arrangements de pouvoir alternatifs, mais à mettre en place des mécanismes de classification, de #hiérarchisation et d’#exclusion.

    Chaque signalement par l’IA d’un risque de #fraude, d’un classement d’une personne dans une catégorie, mobilise une vision du monde qui privilégie des #représentations_abstraites à la complexité des relations vécues, et ce dans l’intérêt des institutions et non des individus. « Imprégnées des injustices criantes du #statu_quo, les solutions de l’IA tendent inexorablement vers la #nécropolitique, c’est-à-dire vers des formes de prise de décision qui modifient la répartition des chances de vie par des désignations de disponibilité relative. Détourner massivement les individus des parcours éducatifs ou des prestations sociales dont ils ont besoin pour survivre, par exemple, constitue un #filtre_algorithmique pour déterminer qui est bienvenu dans la société et qui ne l’est pas ».

    Le problème, c’est que la pression sur les décideurs politiques à adopter l’IA est immense, non seulement parce que ses #biais viennent confirmer les leurs, mais plus encore du fait des engagements commerciaux et des promesses économiques que représente le développement de ce secteur. Et McQuillan de regretter que cette orientation nous éloigne de l’enjeu éthique qui devrait être au cœur des politiques publiques. La politique s’intéresse de moins en moins aux injustices structurelles de la société. « Un monde où l’élaboration et la mise en œuvre des politiques publiques reposent sur l’IA est aussi un monde qui confère un #pouvoir considérable à la petite poignée d’entreprises capables de disposer de ces ressources ». Par essence, « l’adoption de l’IA constitue un engagement en faveur de l’#extractivisme et d’un transfert de contrôle à un niveau qui supplante toute politique réelle ».

    En fait, explique McQuillan, adopter l’IA dans l’élaboration des politiques publiques revient à soumettre les politiques à des agendas corporatifs et idéologiques plus vastes (à savoir se soumettre à ceux qui ont déjà décidé que l’avenir de la civilisation réside dans l’intelligence artificielle générale (IAG), ceux qui ont décidé que la meilleure réponse à la crise structurelle est de la masquer sous le battage médiatique de l’IA, et ceux qui ont conclu que le meilleur moyen de maintenir les revenus en période de récession mondiale est de remplacer les travailleurs réels par des émulations d’IA de mauvaise qualité). L’impact net de l’IA dans l’élaboration des politiques la rendrait plus précaire et favoriserait l’externalisation et la #privatisation sous couvert d’une #technologie surmédiatisée. Il s’agit d’une forme de « #stratégie_du_choc », où le sentiment d’urgence généré par une technologie prétendument transformatrice du monde est utilisé comme une opportunité pour l’#emprise des entreprises et pour transformer les systèmes sociaux dans des directions ouvertement autoritaires, sans réflexion ni débat démocratique.

    Pour Dan McQuillan, plutôt que de se demander comment l’IA va imprégner l’élaboration des politiques, il faudrait se concentrer sur des politiques publiques qui favorisent la dénumérisation. C’est-à-dire favoriser une stratégie sociotechnique de réduction de la #dépendance à l’échelle computationnelle, de participation maximale des communautés concernées et de reconnaissance accrue du fait que le raisonnement computationnel ne saurait se substituer aux questions politiques exigeant un jugement réfléchi et perspicace. L’IA, en tant qu’appareil de calcul, de concepts et d’investissements, est l’apothéose de la « vue d’en haut », l’abstraction désincarnée du savoir privilégié qui empoisonne déjà nombre de formes d’élaboration des politiques. Pour McQuillan, un pivot vers la « #décomputation » est une façon de réaffirmer la valeur des #connaissances_situées et du contexte sur le seul passage à l’échelle. Contrairement aux prédictions et simulations de l’IA, notre réalité commune est complexe et intriquée, et la théorie ne permet pas de prédire l’avenir. Cela ne signifie pas que nous ne pouvons pas progresser vers des objectifs tels que la justice sociale et une transition juste, mais la dénumérisation suggère de les aborder de manière à la fois itérative et participative. Le véritable travail de restructuration réoriente l’attention des technologies toxiques vers le développement de techniques de #redistribution du #pouvoir_social, telles que les #conseils_populaires et les #assemblées_populaires. Bref, pour sortir de l’enfermement des politiques publiques de l’abstraction qu’impose l’IA, il faut prendre un virage contraire, suggère McQuillan. Un constat qui n’est pas si éloigné de celui que dresse le chercheur Arvind Narayanan quand il invite à limiter l’emprise du calcul sur le social, même s’il est exprimé ici d’une manière bien plus radicale.

    https://danslesalgorithmes.net/2025/10/07/politiques-publiques-passer-de-lia-a-la-denumerisation
    #intelligence_artificielle #AI

  • Cancer : pourquoi la France fait partie des pays les plus touchés au monde
    https://www.lemonde.fr/planete/article/2025/10/10/cancer-pourquoi-la-france-fait-partie-des-pays-les-plus-touches-au-monde_664

    In fine, les cancers sont la première cause de mortalité en France (27 %), suivis des maladies cardio-neurovasculaires (21,4 %), c’est-à-dire l’infarctus du myocarde, l’AVC et l’insuffisance cardiaque.

    #paywall_merci !

    • Cancer : pourquoi la France fait partie des pays les plus touchés au monde
      https://archive.ph/2025.10.10-151949/https://www.lemonde.fr/planete/article/2025/10/10/cancer-pourquoi-la-france-fait-partie-des-pays-les-plus-touches-au-monde_664

      On comprend bien que le système de dépistage des cancers est nécessairement plus performant en France que dans des pays à faible revenu ne disposant pas de systèmes de santé aussi solides ; ce qui explique au moins en partie une incidence plus élevée. Mais la comparaison ne tient pas avec les autres pays à haut revenu.

      En effet, au niveau européen, la France fait plutôt figure de mauvaise élève du dépistage.

      […]

      Quelle est la part de l’environnement ?

      Toute la population est involontairement exposée à d’autres substances actives, par le biais de l’environnement et de l’alimentation. Pollution atmosphérique, additifs et résidus de pesticides dans la chaîne alimentaire, plastifiants (phtalates, bisphénols), dioxines, polluants organiques persistants (PFAS, PCB, PBDE…), etc. : cette multi-exposition de basse intensité est suspectée d’être à l’origine d’une part substantielle des cancers non attribués à des facteurs de risques connus. Mais les données sont lacunaires et les risques souvent impossibles à chiffrer. « De grandes agglomérations, comme la région parisienne, ou encore de nombreux bassins industriels ne sont pas couverts par des registres de cancer, remarque la toxicologue Francelyne Marano (université Paris Cité). Or ce sont des données cruciales si l’on veut estimer le rôle de l’environnement dans la progression de ces maladies. »

      La hausse rapide de certains cancers est néanmoins fortement suspectée d’être liée à l’environnement. « Quand on voit la hausse alarmante du cancer du pancréas, et que les principaux facteurs de risque connus, en particulier le tabac, ne permettent pas d’expliquer cette tendance, une ou des causes environnementales sont plus que probables », dit Mme Marano. Au cours des trente dernières années, selon Santé publique France, le nombre de cas a quadruplé chez les hommes et quintuplé chez les femmes, les deux tiers de ces hausses n’étant pas explicables par le vieillissement ou l’accroissement de la population.

      La Conférence nationale des unions régionales des professionnels de santé a récemment alerté sur un lien possible avec le #cadmium. Ce métal lourd, classé cancérogène, est présent dans les engrais phosphatés importés du Maroc très utilisés en France. L’imprégnation des Français est, de ce fait, notoirement forte (trois fois celle des Américains, deux fois celle des Italiens). Selon les données du CIRC, la France est le quatrième pays le plus touché au monde, même en tenant compte de l’âge de sa population. En 2024, des chercheurs français ont ouvert une piste de recherche en montrant une association statistique entre #pesticides épandus localement et risque de contracter la maladie.

      Les pesticides – dont la France est l’une des plus fortes utilisatrices au monde – sont, par ailleurs, une cause établie de lymphomes et de cancer de la prostate chez les professionnels exposés, mais aussi de certains cancers pédiatriques chez les populations riveraines d’exploitations. En population générale, les preuves sont limitées, mais des travaux menés en France et publiés en 2018 ont montré un risque diminué de lymphomes (− 75 %) et de cancer du sein post-ménopausal (− 34 %) chez les plus gros consommateurs d’aliments #bio, par rapport à ceux qui ne consomment que des produits issus de l’agriculture conventionnelle. L’hypothèse des auteurs était une responsabilité des résidus de pesticides de synthèse dans l’alimentation. Les données disponibles ne permettent cependant pas de faire de cette imprégnation une particularité française.

    • En effet, au niveau européen, la France fait plutôt figure de mauvaise élève du dépistage. Selon les données publiées par l’Organisation européenne du cancer en 2024, la France se situe en dessous de la moyenne européenne pour les trois principaux programmes mis en place. Le taux de participation au dépistage du cancer du sein est de 46 % en France contre 54 % en Europe, et de 62 % contre 69 % concernant le cancer du col de l’utérus. L’écart est particulièrement marqué pour le cancer colorectal, avec un taux de participation de 29 % en France contre 44 % en moyenne en Europe. Alors, comment interpréter la place singulière qu’occupe la France dans le nombre de cancers affectant sa population ?

      Que disent précisément les données ?
      Le Centre international de recherche sur le cancer (CIRC), une agence de l’Organisation mondiale de la santé basée à Lyon, travaille également sur le fardeau du cancer dans le monde et produit le Globocan, une base de données en ligne. Pour ce dernier, la France est classée à la neuvième place des pays ayant la plus grande incidence de cancers, derrière un trio de tête constitué par l’Australie, la Nouvelle-Zélande et le Danemark. « Ces résultats ne sont pas nécessairement surprenants compte tenu de nos différences dans les sources de données et les méthodes utilisées, et soulignent l’importance de soutenir les efforts locaux de surveillance du cancer », estime Lisa Force, maîtresse de conférences en sciences des mesures de santé à l’IHME.
      La France a la particularité d’être l’un des derniers pays européens à ne pas disposer de registre national. Le décompte des cas de cancers est confié à Francim, un réseau regroupant une trentaine de registres locaux et deux registres pédiatriques nationaux. Au total, les nouveaux cas de cancer ne sont ainsi comptabilisés que pour 24 % de la population française. Pour le reste, des mathématiciens sont chargés de faire des estimations, ce qui ouvre la voie à des différences d’interprétation et de méthode.
      Par ailleurs, le travail des registres recoupe plusieurs sources, avec lesquelles chacun doit nouer des conventions de transfert de données. Ce travail de fourmi prend du temps. En 2025, la plupart des registres sont à jour sur les données réelles observées en 2022. Mais les dernières données officielles dont on dispose, publiées par Santé publique France en juillet 2023, sont les nouveaux cas observés jusqu’en 2018, à partir desquels des extrapolations ont été faites jusqu’en 2023. En 2027, Francim espère publier sa prochaine étude d’incidence des cancers basée sur les chiffres de 1985 à 2022.
      « Cela fait longtemps que l’on discute de la qualité des données en France, souligne Isabelle Soerjomataram, cheffe adjointe de la branche surveillance du cancer au CIRC. La vérité est probablement entre la valeur du GBD et celle de Globocan, avec la France dans le top 10 de l’incidence mondiale. » Une loi promulguée le 30 juin prévoit la mise en place d’un registre national, confiée à l’Institut national du cancer. Mais l’instabilité politique a repoussé la publication du décret d’application, initialement prévue en septembre.

      #données_chiffrées (fiabilité des) #santé_publique (défaillance des politiques de)

      #cancers (incidence des) #pollutions #pesticides #phytosanitaires #intrants #cadmium #agro-industrie

  • Face à l’avalanche de #violences_en_ligne envers les femmes, l’#ONU appelle à réagir et protéger

    #Internet est devenu un terrain d’entraînement à la #haine envers les femmes par le biais de la « #machosphère », a averti mardi l’Ambassadrice mondiale de l’initiative Spotlight lors d’une réunion en marge du débat général de l’ONU à New York, appelant à la mise en place d’un cadre juridique qui réglemente Internet de toute urgence.

    « Comment expliquer l’existence d’un forum Facebook réunissant 32.000 hommes, où chacun a partagé — sans consentement — des photos intimes de sa partenaire pour qu’elles soient notées par d’autres ? Que révèle un tel acte sur la place que ces hommes accordent aux femmes dans leur vie et, par extension, les femmes dans notre société ? », s’est indignée la championne de l’initiative #Spotlight des Nations Unies, qui vise à mettre fin aux violences envers les femmes et les filles.

    L’#IA entraine de nouvelles formes de #violence_numérique

    Selon l’actrice mexicaine, l’apparition de l’intelligence artificielle s’accompagne d’une « avalanche » de nouvelles formes de #violence_numérique allant de l’#extorsion à la violence basée sur l’#image, de la divulgation de #données_personnelles au #cyberharcèlement, du #harcèlement_sexuel au #grooming en vue d’une #agression_sexuelle (#pédopiégeage), pour n’en citer que quelques-unes.

    « Au cours des 12 derniers mois, 300 millions d’#enfants ont été victimes d’#exploitation_sexuelle et d’#abus en ligne », a-t-elle déploré.

    On assiste à une croissance exponentielle des groupes opposés aux droits des femmes, ainsi qu’à l’émergence de nouvelles technologies qui renforcent les pensées et les actes misogynes, « à tel point qu’aujourd’hui, un nombre écrasant de jeunes garçons ne croient pas que la #violence_sexiste soit réelle et existe ».

    Mme Suarez estime que « les intermédiaires technologiques doivent être tenus de détecter, d’évaluer et d’orienter, de manière proactive, le comportement de leurs utilisateurs, qui doivent être passibles de sanctions légales, le cas échéant ».

    Elle a souligné que la violence que subissent les femmes et les filles en ligne a exactement le même impact que la violence subie hors ligne : son impact et ses conséquences sont d’une ampleur identique.

    Des hommes qui restent silencieux

    La violence sexiste ne touche pas seulement les femmes et les filles, signale Mme Suarez. Elle impose aussi aux hommes une image rigide, où douter, pleurer ou montrer sa fragilité est perçu comme un manque de virilité.

    Selon les études citées par Equimundo, une initiative partenaire de Spotlight qui lutte contre les violences sexistes et œuvre pour une #masculinité_positive, 40 % des #jeunes_hommes ont été victimes de harcèlement homophobe en ligne et de nombreux jeunes hommes sont victimes de #sextorsion.

    « La majorité des hommes ne commettent pas ces actes, mais beaucoup restent silencieux », a affirmé à son tour Gary Barker, PDG d’Equimundo.

    Selon lui, c’est dans les salons de discussion, les plateformes de jeux, TikTok, YouTube — tous ces lieux de rassemblement pour les jeunes hommes dénommés la « machosphère », qu’ils sont témoins de ces violences, voient leurs pairs en être responsables, sans pour autant agir pour y mettre fin.

    « La plupart du temps, les garçons ne vont pas sur Internet pour chercher la misogynie. C’est la misogynie qui trouve les garçons sur Internet », déclare M. Barker.

    Selon une récente étude irlandaise, sur la machosphère anglophone, quel que soit le contenu qu’il recherche, un jeune homme connecté à Internet reçoit un message misogyne, en l’espace de seulement 23 minutes, une fois que l’algorithme sophistiqué a identifié son âge et son sexe.

    Quelles sont les solutions ?

    M. Barker demeure toutefois optimiste : « 23 minutes, c’est beaucoup de temps pour nous permettre de déterminer ce qu’il faut faire ».

    « Nous déployons des robots pour remplacer les messages misogynes par des contenus positifs, et mobilisons de nombreux influenceurs — souvent méconnus — parmi lesquels beaucoup de jeunes hommes qui s’engagent à combattre la misogynie. Nous investissons en eux pour qu’ils diffusent des messages constructifs ».

    Le monde du jeu vidéo est également un espace dans lequel Equimundo s’implique.

    « Nous investissons ces espaces en collaborant avec certains créateurs, qui, bien que parfois perfectibles, acceptent de nous ouvrir leurs plateformes. Ensemble, nous développons des jeux où les jeunes hommes peuvent promouvoir une masculinité positive et saine ».

    Mme Suarez s’est félicitée de la présence de deux jeunes garçons dans la salle.

    « Nous avons besoin que les hommes se joignent à ce combat et, en tant que société, nous devons mettre en place une éducation qui s’adresse directement aux hommes », a-t-elle conclu.

    https://news.un.org/fr/story/2025/09/1157544

    #femmes #harcèlement #AI #intelligence_artificielle #misogynie

  • China Is Building a Brain-Computer Interface Industry | WIRED
    https://www.wired.com/story/china-is-getting-serious-about-brain-computer-interfaces

    In a policy document released this month, China has signaled its ambition to become a world leader in brain-computer interfaces, the same technology that Elon Musk’s Neuralink and other US startups are developing.

    Brain-computer interfaces, or BCIs, read and decode neural activity to translate it into commands. Because they provide a direct link between the brain and an external device, such as a computer or robotic arm, BCIs have tremendous potential as assistive devices for people with severe physical disabilities.

    In the US, Neuralink, Synchron, Paradromics, and others have sprung up in recent years to commercialize BCIs. Now, China boasts several homegrown BCI companies, and its government is making the development of the technology a priority.

    Research on BCIs dates back to the 1970s, but for decades, the technology was too cumbersome and unreliable for practical applications. Neuralink and its US competitors are all aiming to improve on the design and performance of early BCIs to make useful products for patients.

    China’s foray into BCI research came later, but the country is quickly catching up to the US. Several companies and research institutions in China have successfully tested BCI implants in patients, showing that people with paralysis can move a cursor on a computer screen, operate a robotic arm, and type out their thoughts. Last year, the Chinese government released ethical guidelines for the use of BCIs. Now, its policy document lays out a road map for speeding up the development of these devices. It outlines 17 specific steps, which include creating better chips to capture brain signals, improving software to decode those signals, standardizing BCI technology, and establishing manufacturing capabilities.

    “The Chinese government has always been supportive of disruptive technologies,” says Phoenix Peng, cofounder and CEO of NeuroXess, a BCI company based in Shanghai. “I think, from the government’s point of view, this policy means that BCI technology has already passed from a concept level into the product level.”

    Beyond those uses, the policy document lays out other medical applications. It says BCIs could be used to monitor and analyze brain activity in real time to potentially prevent or reduce the risk of certain brain diseases. It also endorses consumer applications, such as monitoring driver alertness. The document says a wearable BCI could provide timely alerts for drowsiness, lack of attention, and slow reaction times, helping to reduce the probability of traffic accidents.

    “I think noninvasive BCI products will get a huge market boost in China, because China is the biggest consumer electronics manufacturing country,” Peng says.

    A few US companies, including Emotiv and Neurable, have started selling consumer wearables that use electroencephalography, or EEG, to capture brain waves through the scalp. But the devices are still expensive and have yet to take off more broadly.

    China’s policy document, meanwhile, is promoting the mass production of non-implantable devices in various forms—forehead-mounted, head-mounted, ear-mounted, ear buds, and helmets, glasses, and headphones. It also proposes piloting BCIs in certain industries for safety management, such as hazardous materials handling, nuclear energy, mining, and electricity. The document suggests that BCIs could provide early warnings for workplace events such as low oxygen levels, poisoning, and fainting.

    #BCI #Données_cérébrales

  • Auchan victime d’un piratage massif : « des centaines de milliers » de données clients dérobées, selon le groupe
    Sueurs froides pour de nombreux consommateurs. L’enseigne de grande distribution Auchan a annoncé jeudi avoir été victime « d’un acte de cyber malveillance » ayant causé le vol de données des comptes de fidélité de « quelques centaines de milliers » de ses clients. Les données piratées comprennent le « nom, prénom, adresses email et postale, numéro de téléphone, numéro de carte de fidélité » des clients affectés, a signalé le groupe dans un communiqué, tout en assurant que « l’incident a été circonscrit ».


    « Les données bancaires, mot de passe et code pin des cartes de fidélité » ainsi que les « montants des cagnottes » des clients ne sont pas concernés, a assuré Auchan, ajoutant qu’il avertissait l’ensemble des personnes concernées et la Commission nationale de l’informatique et des libertés (Cnil). « Quelques centaines de milliers » de clients d’Auchan sont concernés, a précisé à l’AFP une porte-parole du groupe. L’enseigne nordiste avait déjà été victime d’une attaque similaire en novembre 2024.

    Ce groupe phare de l’empire Mulliez, qui a annoncé fin 2024 un grand plan de restructuration avec près de 2.400 suppressions de postes, a invité ses clients à « rester vigilants » face aux risques de sécurité liés à l’hameçonnage, c’est-à-dire des SMS ou courriels frauduleux destinés à tromper des personnes pour les inciter à transmettre des données personnelles ou bancaires. L’année 2025 a été marquée par plusieurs attaques informatiques d’ampleur en France. Début août, plus de six millions de comptes clients de Bouygues Telecom ont été affectés par une cyberattaque ayant conduit à la fuite de données, y compris des coordonnées bancaires.

    #auchan #mulliez #france #grande_distribution #données_personnelles #en_vedette #piratage_informatique #données
    Source : https://www.lefigaro.fr/conjoncture/auchan-victime-d-un-piratage-massif-des-centaines-de-milliers-de-donnees-cl

  • Des Afghans craignent pour leur vie après une fuite massive de données des autorités britanniques
    https://www.france24.com/fr/asie-pacifique/20250716-afghans-craignent-pour-vie-apr%C3%A8s-fuite-massive-donn%C3%A9es-

    La divulgation accidentelle des données de 19 000 Afghans ayant aidé les forces britanniques plonge une partie des personnes concernées et leurs familles dans l’angoisse des représailles de la part des Taliban. Car si certaines ont été discrètement évacuées par le Royaume-Uni depuis l’année dernière, les autres dénoncent un sentiment d’abandon.

    #Royaume-Uni #données_personnelles #fichage #Afghans #talibans

  • La police pourra extraire toutes les données d’un #smartphone, même verrouillé

    Plusieurs centaines de commissariats français devraient être équipées de boîtiers capables d’extraire automatiquement toutes les données d’un smartphone, même verrouillé, d’ici à 2024. Un gain de temps précieux pour les enquêteurs, qui pose néanmoins plusieurs questions quant au respect de la vie privée.

    « Accédez à un large éventail de preuves, même sur des dispositifs mobiles chiffrés ou verrouillés, sur les #réseaux_sociaux publics et privés ou sur différents services de stockage #cloud. » Voici ce que propose sur son site Internet #Cellebrite, société israélienne spécialisée dans les questions de sécurité dont la police française fait partie des clients depuis plusieurs années.

    Une relation commerciale qui suit son cours puisqu’une source policière confirme que le ministère de l’intérieur équiper d’ici à 2024 plusieurs centaines de commissariats français d’une technologie développée par l’entreprise israélienne depuis 2017, capable d’extraire automatiquement toutes les données d’un smartphone, même verrouillé, « sans date précise pour le moment ».

    Un gain de temps précieux pour les enquêteurs

    « Cellebrite nous fournit déjà un logiciel qui permet d’extraire les données d’un téléphone », explique Éric Pastre, référent investigations pour Unsa Police et lui-même officier de police judiciaire. Cependant, pour le moment, ce processus est long et ne peut se faire que si le smartphone est allumé et déverrouillé.

    Aujourd’hui, les téléphones saisis et réclamant exploitation doivent être envoyés dans un des centres spécialisés de la police technique et scientifique, opération d’autant plus chronophage que ces derniers sont souvent embouteillés. « Il faut entre trois et six mois pour avoir les résultats de l’exploitation d’un téléphone en partie parce que nous manquons de personnels, déplore Éric Pastre. Ce nouveau boîtier devrait nous faire gagner du temps. »

    La question de la #protection_des_données personnelles

    « Je comprends tout à fait la volonté des enquêteurs d’avoir un accès rapide à des informations, mais je suis inquiet devant l’adoption d’un dispositif si efficace », s’interroge Thierry Vallat. Pour cet avocat spécialiste du numérique, « la législation actuelle n’est pas adaptée aujourd’hui à l’utilisation d’une telle technologie ».

    Il pointe notamment le fait que le boîtier aspire absolument toutes les données du #téléphone, messages, photos, vidéos, #géolocalisation ou PDF, et s’inquiète du respect des droits de la défense. Pour lui, dès lors que les policiers ont accès à l’entièreté des données, « il existe un risque d’extension abusive de l’accusation ».

    Une idée que réfute une source policière, pour qui le boîtier ne pourra extraire « que les données utiles à l’enquête, sans les stocker ». « Il ne faut pas oublier qu’avant d’extraire, il faut qu’il y ait une enquête et donc une autorisation soit d’un juge d’instruction, soit d’un procureur, tient à préciser Éric Pastre. Les personnes qui utilisent ce logiciel sont spécialement formées, on ne fait pas n’importe quoi. »

    L’extraction de données verrouillées, un large débat aux États-Unis

    Encore récemment, le président américain, Donald Trump, a apostrophé publiquement Apple, dénonçant le fait que la marque à la pomme refuse de débloquer « les téléphones utilisés par des tueurs, des dealers ou d’autres éléments criminels violents ». Ceci après l’attaque en décembre de la base aéronavale de Pensacola, en Floride, où trois marins avaient été tués par un aviateur saoudien.

    Depuis, le gouvernement américain réclame au géant californien l’accès aux deux iPhones du tireur que les enquêteurs ne parviennent pas à débloquer. Un conflit similaire avait éclaté en 2015 après la tuerie de San Bernardino, en Californie, qui avait fait 14 morts. Et fait l’objet, la même année, d’une tribune du procureur de la République alors en charge des enquêtes sur le terrorisme, François Molins, et de ses homologues américain, anglais et espagnol, dans le New York Times.

    https://www.la-croix.com/France/Securite/police-pourra-extraire-toutes-donnees-dun-smartphone-meme-verrouille-2020-
    #données #données_personnelles #police #surveillance #smartphones #Israël

    • La police pourra extraire toutes les données d’un smartphone, même verrouillé

      Plusieurs centaines de commissariats français devraient être équipées de boîtiers capables d’extraire automatiquement toutes les données d’un smartphone, même verrouillé, d’ici à 2024. Un gain de temps précieux pour les enquêteurs, qui pose néanmoins plusieurs questions quant au respect de la vie privée.

      « Accédez à un large éventail de preuves, même sur des dispositifs mobiles chiffrés ou verrouillés, sur les réseaux sociaux publics et privés ou sur différents services de stockage cloud. » Voici ce que propose sur son site Internet Cellebrite, société israélienne spécialisée dans les questions de sécurité dont la police française fait partie des clients depuis plusieurs années.

      Une relation commerciale qui suit son cours puisqu’une source policière confirme que le ministère de l’intérieur équiper d’ici à 2024 plusieurs centaines de commissariats français d’une technologie développée par l’entreprise israélienne depuis 2017, capable d’extraire automatiquement toutes les données d’un smartphone, même verrouillé, « sans date précise pour le moment ».

      Un gain de temps précieux pour les enquêteurs

      « Cellebrite nous fournit déjà un logiciel qui permet d’extraire les données d’un téléphone », explique Éric Pastre, référent investigations pour Unsa Police et lui-même officier de police judiciaire. Cependant, pour le moment, ce processus est long et ne peut se faire que si le smartphone est allumé et déverrouillé.

      Aujourd’hui, les téléphones saisis et réclamant exploitation doivent être envoyés dans un des centres spécialisés de la police technique et scientifique, opération d’autant plus chronophage que ces derniers sont souvent embouteillés. « Il faut entre trois et six mois pour avoir les résultats de l’exploitation d’un téléphone en partie parce que nous manquons de personnels, déplore Éric Pastre. Ce nouveau boîtier devrait nous faire gagner du temps. »

      La question de la protection des données personnelles

      « Je comprends tout à fait la volonté des enquêteurs d’avoir un accès rapide à des informations, mais je suis inquiet devant l’adoption d’un dispositif si efficace », s’interroge Thierry Vallat. Pour cet avocat spécialiste du numérique, « la législation actuelle n’est pas adaptée aujourd’hui à l’utilisation d’une telle technologie ».

      Il pointe notamment le fait que le boîtier aspire absolument toutes les données du téléphone, messages, photos, vidéos, géolocalisation ou PDF, et s’inquiète du respect des droits de la défense. Pour lui, dès lors que les policiers ont accès à l’entièreté des données, « il existe un risque d’extension abusive de l’accusation ».

      Une idée que réfute une source policière, pour qui le boîtier ne pourra extraire « que les données utiles à l’enquête, sans les stocker ». « Il ne faut pas oublier qu’avant d’extraire, il faut qu’il y ait une enquête et donc une autorisation soit d’un juge d’instruction, soit d’un procureur, tient à préciser Éric Pastre. Les personnes qui utilisent ce logiciel sont spécialement formées, on ne fait pas n’importe quoi. »
      L’extraction de données verrouillées, un large débat aux États-Unis

      Encore récemment, le président américain, Donald Trump, a apostrophé publiquement Apple, dénonçant le fait que la marque à la pomme refuse de débloquer « les téléphones utilisés par des tueurs, des dealers ou d’autres éléments criminels violents ». Ceci après l’attaque en décembre de la base aéronavale de Pensacola, en Floride, où trois marins avaient été tués par un aviateur saoudien.

      Depuis, le gouvernement américain réclame au géant californien l’accès aux deux iPhones du tireur que les enquêteurs ne parviennent pas à débloquer. Un conflit similaire avait éclaté en 2015 après la tuerie de San Bernardino, en Californie, qui avait fait 14 morts. Et fait l’objet, la même année, d’une tribune du procureur de la République alors en charge des enquêtes sur le terrorisme, François Molins, et de ses homologues américain, anglais et espagnol, dans le New York Times.

      https://www.la-croix.com/France/Securite/police-pourra-extraire-toutes-donnees-dun-smartphone-meme-verrouille-2020-

    • D’où l’importance d’avoir un smartphone à jour au niveau des corrections des failles de sécurité.
      Pour Android, à part GrapheneOS tournant sur des pixels je ne vois pas quel téléphone serait à la hauteur.

  • #France_Travail : des #robots pour contrôler les chômeurs·euses et les personnes au #RSA

    France Travail déploie actuellement des robots visant à automatiser et massifier le contrôle des personnes inscrites à France Travail. Depuis le 1 janvier 2025, cela inclut également les personnes au RSA. Il s’agit d’une nouvelle étape du dangereux projet de #gestion_algorithmique des personnes sans-emplois, porté par le directeur général de France Travail, #Thibaut_Guilluy. Retour sur le contexte de cette mise en place et ses implications sociales.

    Sous l’impulsion d’Emmanuel Macron, les #contrôles réalisés par France Travail sont passés de moins de 200 000 en 2017 à plus de 600 000 en 2024. Il y a tout juste un an, l’exécutif surenchérissait et fixait à l’institution un objectif de 1,5 million de contrôles en 20271.

    Parallèlement était votée, en décembre 2023, la loi dite « #Plein_Emploi », entrée en vigueur le 1er janvier dernier. Cette dernière vient modifier en profondeur les modalités du contrôle des personnes sans-emplois via deux mesures phares. La première est l’extension du pouvoir de contrôle et de #sanctions des personnes au RSA par France Travail. La seconde concerne l’obligation pour toute personne suivie par France Travail – qu’elle soit au RSA ou au chômage – de réaliser 15 « heures d’activité » hebdomadaires sous peine de sanctions.

    C’est dans ce contexte que France Travail déploie actuellement une refonte de son processus de contrôle. Dénommée « #Contrôle_de_la_Recherche_d’Emploi_rénové » (ou « #CRE_rénové »), elle vise tant à « arriver à mettre en oeuvre 1,5 million de contrôles […] à l’horizon 2027 » qu’à prendre en compte les « évolutions introduites par la loi “Plein Emploi” »2.

    #Automatisation et #massification des contrôles

    Pour atteindre l’objectif de massification des contrôles, France Travail mise sur l’automatisation3. Début 2025, ses dirigeant·es ont ainsi annoncé que le « CRE rénové » s’accompagnerait du déploiement de « robot[s] d’aide à l’analyse du dossier » destinés à assister la personne en charge du contrôle. L’objectif affiché est de réaliser des « gains de productivité » permettant de réduire la durée d’un contrôle pour pouvoir alors les multiplier à moindre coût4.

    Pour ce faire, ces « robots » ont pour tâche de classer les personnes ayant été sélectionnées pour un contrôle selon différents degrés de « #suspicion »5 afin de guider le travail du contrôleur ou de la contrôleuse. Concrètement, ils réalisent un #profilage_algorithmique de la personne contrôlée sur la base de l’analyse des #données_personnelles détenues par France Travail.

    Ce #profilage prend la forme d’une #classification en trois niveaux : « #clôture » (pas de suspicion), « #clôture_potentielle » (suspicion moyenne) ou « #contrôle_potentiel » (suspicion forte)6. Ce résultat est alors transmis, en amont du contrôle, au contrôleur ou à la contrôleuse afin de l’inciter à se concentrer sur les dossiers considérés comme suspects par l’#algorithme, tout en clôturant rapidement le contrôle pour les autres.

    France Travail se réfugie dans l’#opacité

    À travers notre campagne France Contrôle, nous avons déjà parlé de la Caisse nationale des allocations familiales (CNAF), la première à se lancer dans ce contrôle algorithmique des populations. Le fait qu’elle soit rejointe par France Travail démontre une fois de plus pourquoi il est fondamental de s’opposer, par principe, à l’usage d’algorithmes de profilage à des fins de contrôle. Mais également d’exiger la transparence autour du fonctionnement de ces algorithmes, afin de mieux pouvoir les combattre tant politiquement que juridiquement.

    Dans le cas présent, cette transparence est d’autant plus importante que l’objectif d’un contrôle de la #recherche_d’emploi – « une appréciation globale des #manquements [de la personne contrôlée] afin de sanctionner un comportement général »7 – est très flou et propice à l’#arbitraire. L’analyse du #code de l’algorithme pourrait aussi appuyer un combat juridique, tel que l’actuel contentieux contre la CNAF.

    Mais sur le sujet des « robots » de contrôle – comme sur beaucoup d’autres8 – la direction de France Travail se refuse à toute transparence. Son directeur est allé jusqu’à déclarer à la Commission d’accès aux documents administratifs (CADA) « qu’aucun algorithme n’est utilisé dans le cadre du « CRE rénové » […] » suite à la saisine déposée par des journalistes de Cash Investigation ayant travaillé sur ce sujet9.

    Un profilage policier

    En l’absence de transparence sur le fonctionnement de ces « robots », nous ne pouvons qu’avancer quelques hypothèses sur le fonctionnement du profilage algorithmique. Côté technique, la direction de France Travail a déclaré que le « robot » n’était pas basé sur de l’intelligence artificielle, sans toutefois exclure qu’il puisse l’être à l’avenir10. En conséquence, le profilage serait le résultat d’opérations algorithmiques simples issues de la combinaison de différents critères construits à partir des données personnelles détenues par France Travail11.

    Quant à la nature de ces critères, des pistes sont données par un document distribué aux équipes de contrôle de France Travail il y a quelques mois. Assumant pleinement un discours policier, la direction de France Travail y présente une « grille d’analyse » venant préciser le « niveau d’importance » de différents « indices » permettant de caractériser les « manquements » des personnes contrôlées.

    Parmi ces éléments, notons notamment l’absence de périodes récentes de travail ou de formation, l’absence de mobilisation des outils numériques mis à disposition par France Travail (offres, CV ou carte de visite en ligne), l’absence de contact avec son ou sa conseiller·ère, les résultats des derniers contrôles de recherche d’emploi, l’absence de candidatures envoyées via le site de France Travail ou encore le non-respect des 15 « heures d’activité » prévue par la loi « Plein Emploi ».

    Tout indique que ce travail de #rationalisation du processus de contrôle aurait servi de base à la construction du « robot » lui-même. En effet, en plus du résultat du profilage, le « robot » fait remonter au contrôleur ou à la contrôleuse une liste d’éléments issus de cette grille. Ces remontées permettent alors à la personne en charge du contrôle d’apprécier la décision de classification du « robot », sans pour autant qu’il ou elle ait accès à ses règles de fonctionnement précises.
    Automatisation et violence institutionnelle

    Le déploiement d’algorithmes de profilage à des fins de contrôle participe activement à la politique de #répression et à la #paupérisation des personnes sans-emplois. La massification des contrôles à laquelle contribue ce processus d’automatisation entraîne mécaniquement une hausse du nombre de sanctions et de pertes de #droits associé·es.

    Ainsi, d’après les documents de France Travail, 17% en moyenne des contrôles aboutissent à une radiation12. Dans l’hypothèse où ce taux resterait constant, l’augmentation de 500 000 à 1,5 million de contrôles par an implique que le nombre de radiations associées passerait d’environ 85 000 aujourd’hui à 255 000 en 202713. Ajoutons que l’impact des contrôles n’est pas le même pour toutes et tous : d’après les chiffres disponibles, les personnes n’ayant pas le bac ou étant au RSA sont sur-représentées parmi les personnes radiées suite à un contrôle14. L’automatisation des contrôles est donc une manière d’écarter les plus précaires de France Travail.

    Notons enfin, comme le rappellent cinq chercheurs et chercheuses dans le livre Chômeurs, vos papiers !15, qu’aucun travail scientifique ne vient valider le récit mis en avant par nos dirigeant·es selon lequel les contrôles favoriseraient la reprise d’emploi. Cette hypocrisie politique n’a pour fondement qu’une vision stigmatisante et infantilisante des personnes sans-emplois, visant à nier toute responsabilité collective vis-à-vis du chômage de masse et à le réduire à une problématique individuelle.

    À l’inverse, ajoutent les auteurs·ices, les effets négatifs des contrôles sont largement documentés. En plaçant les personnes contrôlées dans une situation humiliante – « où au stigmate de l’assisté s’ajoute celui du tricheur »16 – s’accompagnant de lourdes démarches de justification, ils induisent un effet dissuasif vis-à-vis de l’accès aux droits. En retour, ils contribuent à l’augmentation du non-recours, dont le taux est estimé à plus de 25% pour l’assurance chômage et à 30% pour le RSA17. À ceci s’ajoute le fait qu’il plonge dans la précarité celles et ceux contraints·es à accepter des postes pénibles, sous-payés et précaires.

    Loi « Plein Emploi » : des contrôles aux effets démultipliés

    Tout ceci est d’autant plus inquiétant à l’heure où entre en vigueur la loi « Plein Emploi », qui vient renforcer l’impact et le champ des contrôles réalisés par France Travail.

    En premier lieu via l’instauration d’une obligation de 15 « heures d’activité » pour toute personne sans-emploi18. À la violence qu’elle entraîne en termes de niveau de contrôle et d’intrusion dans la vie privée des personnes contrôlées, cette mesure conjugue une contrainte administrative extrêmement lourde de par la difficulté que chacun·e aura pour justifier ces heures. Elle vient ainsi considérablement renforcer l’arbitraire des contrôles et, de fait, les pouvoirs de répression de France Travail. Si la difficulté qu’il y aura à (faire) respecter cette mesure pourrait la faire paraître presque illusoire, notons cependant que France Travail développe déjà un agenda partagé entre personne sans-emploi et conseiller·ère, c’est-à-dire un outil numérique dédié au contrôle de ces « heures d’activité ».

    En second lieu, parce que la loi « Plein Emploi » vient étendre les prérogatives de contrôle de France Travail sur les personnes au RSA19. Jusqu’alors, les sanctions relatives au RSA relevaient de la compétence du département et le retrait de son bénéfice nécessitait le passage devant une commission pluridisciplinaire dédiée. Via les « suspensions-remobilisations »20, la loi « Plein Emploi » a désormais introduit la possibilité pour les départements de déléguer à France Travail la compétence de suspension du RSA. Dans ce cas, France Travail pourra suspendre le RSA d’une personne à la suite d’un contrôle de manière unilatérale et sans que l’avis d’une commission de contrôle de la suspension soit nécessaire.
    Face au contrôle algorithmique, lutter

    À l’heure où nous écrivons ces lignes, la contestation monte de toute part contre le renforcement des contrôles à France Travail.

    Du Défenseur des Droits à la Commission nationale consultative des droits de l’Homme (CNCDH), en passant par le Conseil national des politiques de lutte contre la pauvreté et l’exclusion (CNLE), l’ensemble des institutions de lutte contre la pauvreté critiquent vertement la loi « Plein Emploi » et ses velléités autoritaires21.

    De leur côté les associations de lutte contre la précarité se regroupent et dénoncent une réforme « inhumaine, injuste et inefficace », tandis que sur le terrain, les premier·ères concernées s’organisent. En Bretagne, le Conseil départemental du Finistère a ainsi été occupé par des personnes réunies en « Assemblée Générale contre la réforme du Rsa-france-travail »22.

    Devant la multiplication des oppositions et la diversité des modes d’actions, nous appelons toutes celles et ceux qui refusent la destruction de notre système de protection sociale et la violence des politiques néo-libérales dont elle s’inspire à s’organiser et à rejoindre ces luttes de la manière qui leur convient le mieux.

    De notre côté, nous tâcherons d’y contribuer à travers la documentation de cette infrastructure numérique de surveillance que les dirigeant·es de France Travail mettent en place dans le cadre de la loi « Plein Emploi ». Nous appelons par ailleurs les personnes ayant connaissance des critères utilisés par les robots de contrôle à nous contacter à algos@laquadrature.net ou à déposer des documents de manière anonyme sur notre SecureDrop (voir notre page d’aide ici). Si vous le pouvez, vous pouvez nous aider en nous faisant un don.

    –---
    References

    ↑1 Pour les chiffres de 2017, voir l’étude de Pôle Emploi « Le contrôle de la recherche d’emploi : l’impact sur le parcours des demandeurs d’emploi » disponible ici. Pour 2024, voir « Bilan du Contrôle de la recherche d’emploi » disponible ici. Pour les annonces d’Emmanuel Macron dès son arrivée au pouvoir voir cet article de 2017 et cet article de 2021. L’objectif de 1,5 million a été annnoncé par Gabriel Attal en 2024, voir cet article.
    ↑2 « Information en vue d’une consultation sur le contrôle de la recherche d’emploi rénové », Comité Social d’Entreprise Central des 9 et 10 octobre 2024, disponible ici.
    ↑3 A noter que le CRE rénové s’accompagne aussi d’une réduction des droits des personnes contrôlées afin de réduire le temps nécessaire à un contrôle. Il s’agit de mettre en place une procédure « flash » permettant de faire « l’économie de l’entretien téléphonique » et/ou de l’envoi d’un formulaire à la personne contrôlée, deux choses qui étaient systématiques jusqu’alors lors d’un CRE. En cas d’« avertissement avant sanction », la personne contrôlée disposera de 10 jours pour justifier de sa situation. Voir « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.
    ↑4 « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central (CSEC) des 13 et 14 mars 2024, disponible ici.
    ↑5 La sélection des personnes relève d’un autre traitement algorithmique. Elles sont le fruit de requêtes ciblées (métiers en tensions…) et aléatoires, de signalements agence ou encore d’« alertes automatiques » incluant désormais certains des flux provenant de la « gestion de la liste ». Voir le document « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.
    ↑6 Ces informations se basent sur des discussions avec des équipes de France Travail ayant eu accès aux résultats des profilages réalisés par les robots. Notons aussi l’existence d’une catégorie « erreur » pour les dossiers n’ayant pas pu être traités par l’algorithme.
    ↑7 « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.
    ↑8 Une grande partie de nos demandes d’accès aux documents administratifs restent sans réponse. Nous reviendrons sur ce point dans un article dédié.
    ↑9 L’avis de la CADA citant le directeur de France Travail est disponible ici.
    ↑10 Propos tenus lors du CSEC de France Travail du 22 novembre 2024.
    ↑11 On pense assez naturellement à un algorithme du type « arbre de décision ».
    ↑12 Voir le tableau 1 du document Le contrôle de la recherche d’emploi en 2023, France Travail, disponible ici. A noter que ce chiffre est passé à 20% dans les régions ayant expérimentées le CRE rénové avant sa généralisation. Voir la slide 15 de ce document présenté en Comité Social et Economique Central de France Travail le 9 octobre 2024.
    ↑13 A noter ici que l’effet de la loi « plein emploi » sur le nombre total de radiations n’est pas clair. En effet, une partie de la « gestion de la liste » – situations entraînant auparavant une radiation automatique tel que l’absence à un rendez-vous ou l’absence à formation – est transférée au CRE. Pour des statistiques sur les radiations et les sorties des personnes inscrites à France Travail est disponible ici sur le site de la DARES.
    ↑14 Voir Le contrôle de la recherche d’emploi en 2023, France Travail, tableau 2, disponible ici. Voir aussi le tableau 1 de l’étude « Le contrôle de la recherche d’emploi : l’impact sur le parcours des demandeurs d’emploi », Pôle Emploi, 2018.
    ↑15 C. Vives, L. Sigalo Santos, J.-M Pillon, V. Dubois et H. Clouet, « Chômeurs, vos papiers ! », 2023. Cet essai revient sur les aspects historiques, politiques et sociologiques du contrôle dans les politiques publiques de l’emploi. Concernant l’impact des contrôles, notons l’étude « Le contrôle de la recherche d’emploi : l’impact sur le parcours des demandeurs d’emploi » publiée par Pôle Emploi en 2018, qui ne permet pas de conclure, tels que les résultats sont présentés, à un quelconque impact statistiquement significatif du contrôle.
    ↑16 V. Dubois, « Contrôler les assistés », Chapitre 10. Voir aussi l’article de Lucie Inland disponible ici, cet article du Monde et le rapport du Défenseur des Droits « La lutte contre la fraude aux prestations sociales » disponible ici. La Fondation pour le logement des défavorisés, le Défenseur des droits et le collectif Changer de Cap ont par ailleurs collecté de nombreux témoignages décrivant la violence vécue par les allocataires lors des contrôles. Difficultés de recours, contrôles répétés, suspension automatique des prestations sociales, intrusion humiliante dans les moindres recoins de la vie privée. Nous vous invitons à lire l’ensemble de ces témoignages disponibles ici.
    ↑17 C. Hentzgen, C. Pariset, K. Savary, E.Limon, « Quantifier le non-recours à l’assurance chômage », Direction de l’Animation de la recherche, des Études et des Statistiques, 2022, disponible ici. Céline Marc, Mickaël Portela, Cyrine Hannafi, Rémi Le Gall , Antoine Rode et Stéphanie, Laguérodie « Quantifier le non-recours aux minima sociaux en Europe », 2022, disponible ici.
    ↑18 Le nombre « d’heures d’activités hebdomadaires » à réaliser peut être diminué en fonction des difficultés personnelles (handicap, parent isolé…). Voir l’article 2 de la loi pour le « Plein Emploi ».
    ↑19 L’obligation d’inscription concerne aussi les personnes en situation de handicap suivies par Cap Emploi et les « jeunes » accompagnés par une mission locale ayant conclu un « Parcours contractualisé d’accompagnement vers l’emploi et l’autonomie » ou un « contrat d’engagement jeune ». Voir l’article 1 de la loi pour le « Plein Emploi ».
    ↑20 L’article 3 de la loi pour le « Plein Emploi » prévoit notamment la possibilité pour un département de déléguer le « prononcé des mesures de suspension du versement du RSA » pour les personnes dont France Travail est l’organisme référent. L’article 2 de la même loi une coopération accrue entre France Travail. Il précise aussi que France Travail est en charge du contrôle du « Contrat d’Engagement » des personnes au RSA dont il est l’organisme référent et qu’il peut proposer au Conseil Départemental des sanctions (suspension/radiation) concernant le versement du RSA. Des précisions seront apportées par décret dont une version préliminaire a fuité dans la presse.
    ↑21 Voir notamment la déclaration de la CNCDH, l’avis du CNLE et cette étude publiée par le Secours Catholique, Aequitaz et ATD Quart Monde.
    ↑22 Voir notamment cet appel et cet article sur leur action au conseil départemental du Finistère. Vous pouvez les contacter à l’adresse ag-rsa-francetravail-brest chez riseup.net.

    https://www.laquadrature.net/2025/05/22/france-travail-des-robots-pour-controler-les-chomeurs%C2%B7euses-et-le

    #contrôle #surveillance #loi_plein_emploi #chômeurs

    –-
    voir aussi : https://seenthis.net/messages/1116620
    ping @karine4

  • #Données_personnelles : l’#Europe va assouplir sa réglementation dans “les semaines à venir”
    https://www.politico.eu/article/donnees-personnelles-leurope-va-assouplir-sa-reglementation-dans-les-semain

    Longtemps considéré comme intouchable à #Bruxelles, le #RGPD est le prochain sur la liste de la croisade de l’#UE contre la surréglementation.

    Quand tu es journaliste ds un journal de droite, tu as le droit de ne pas être tout à fait sans idéologie dans tes papiers.