• Discriminée à l’embauche : face à l’injustice, elle témoigne de la galère de milliers d’autistes
    https://www.lemediatv.fr/emissions/2025/discriminee-a-lembauche-face-a-linjustice-elle-temoigne-de-la-galere-de-mi

    Alba, 20 ans, est en pleine recherche d’emploi. Souffrant de troubles du spectre autistique, elle est reconnue par la MDPH (maison départementale des personnes handicapées) et touche l’allocation adulte handicapé.

    #Discriminations

  • Rage against the racism. Prendre le temps de penser, s’armer avec les sciences sociales

    « It’s raining haine miskina » - Les moules s’en frittent

    Dans le contexte actuel d’attaques contre les personnels de l’université sur les questions de #discrimination ainsi que contre les militantes et militants qui luttent sur ces questions, nous souhaitons donner des éléments de compréhension de ce qui se joue dans notre université suite à la #censure par le président de l’UGA d’œuvres d’art sur notre campus.

    –-
    Signer la pétition intersyndicale : pour le rétablissement de l’intégrité de l’œuvre artistique réalisée par les étudiants et personnels de l’UGA pendant le « #Mois_de_l’égalité », exposée dans la galerie des amphithéâtres du bâtiment Pierre Mendès France :
    https://mobilisation-uga.ouvaton.org/2025/05/21/petition-pour-defendre-la-liberte-dexpression-a-luga
    –—

    Très récemment, l’#UNI, soutenue par des médias d’extrême droite (CNews) et de droite réactionnaire (Le Figaro), s’est offusqué de l’affichage (sous forme de stickers) de messages construits et produits lors d’activités organisées pour le mois de l’Égalité. L’UNI a aussi annoncé avoir porté #plainte contre l’Université. Le président a décidé suite à cela de faire retirer certains de ces stickers qui selon lui « sont incompatibles avec les #valeurs et les #principes républicains que l’université incarne ».


    Le communiqué du président, puis son message à tous les personnels, relayé à sa demande expresse dans certaines structures (notamment plusieurs laboratoires), soulève plusieurs questions de fond, notamment quant aux « valeurs » et aux « principes » mentionnés.

    Quelles sont ces « valeurs » et « principes » qui sont mentionnés, mais jamais définis explicitement par le président ?

    Qui décide, et comment, quelles sont ces « valeurs » ? Est-on sûr·es qu’elles soient largement partagées dans notre communauté universitaire ?

    Comment ces valeurs sont-elles censées être mises en œuvres, sans réponse à ces premières questions ?

    Les décisions prises, de communications, et de censures de certains messages, ont été prises sans consulter aucune instance représentative. Au vu du contenu des écrits du président, on peut aussi légitimement se demander si les personnels et services compétent·es ou expert·es de ces questions ont bien été impliqué·es ou au moins consulté·es pour ces décisions et communications.

    Dès les premiers articles parus dans les médias, et en prévention d’éventuelles réactions irréversibles, la CGT a pris contact avec le président avant que les messages ne soient enlevés, et s’est rendue disponible pour échanger avec lui sur ces questions que l’on sait sensibles. Cet échange n’a finalement pas pu avoir lieu. Les méthodes de communication du président, qui choisit lui-même, plutôt que le dialogue apaisé, de diffuser au maximum sa propre analyse, nous contraint à des modes d’échanges publics que nous regrettons, mais qui nous paraissent nécessaires pour rétablir un peu d’équilibre et de pluralisme dans l’analyse de la situation.

    Voici donc quelques clés pour vous faire une idée par vous même, loin des discours réducteurs et simplistes.

    Prenons par exemple l’accusation de « #racisme_anti-blanc », lancée sur CNews en particulier.

    Le #racisme kesako ?
    À part pour les personnes qui militent ou qui se forment sur ces questions-là, la question peut sembler absurde. Voyons, nous savons toutes et tous ce que c’est que le racisme ! Sauf que c’est un peu plus compliqué que ce qu’on peut penser au premier abord.

    Si on pense que le racisme c’est insulter une personne pour ce qu’elle est, alors oui tout le monde peut en être victime. Cela semble simple… sauf que. Nous y reviendrons plus bas.


    En revanche, si on considère le racisme par ses conséquences sociales ou par le biais de la statistique, alors tout d’un coup les choses changent. En effet, statistiquement, en France, les personnes qui sont discriminées dans l’accès au logement, l’accès au travail, l’accès aux stages, le droit à la santé, ou les personnes victimes d’agressions racistes ou des violences policières, ce sont les personnes identifiées comme noires, arabes, musulmanes, juives, roms ou asiatiques [1]. Pas les personnes perçues comme blanches.

    Cela ne veut pas dire que ces dernières ne vivent pas des situations sociales difficiles mais être non-blanc·he implique un risque largement accru de vivre des #discriminations et des #violences_sociales.

    Revenons sur la question des insultes et du fameux « racisme anti-blanc » si cher à l’extrême-droite.

    Statistiquement, ce racisme en direction des blancs est inexistant. Par exemple, il est socialement toujours avantageux d’être identifié comme blanc pour trouver un logement ou un emploi.

    Quelques repères pour comprendre certains concepts
    Personne racisée : il s’agit non pas de dire que ces personnes sont d’une race différente mais bien de dire qu’elle subissent une assignation à l’appartenance à un groupe supposé (« les noirs », « les arabes » par exemple) et aux #représentations_racistes qui y sont attachées.

    Blanc : utiliser les termes « noir » ou « asiatique », etc, qui renvoie à une caractéristique biologique floue (couleur de peau, forme du visage, …), ou à une origine supposée, peut sembler étrange pour des militants de l’#anti-racisme. Sauf que cela recouvre des réalités sociales de discrimination et de violence. L’utilisation du terme « blanc » est une façon de renvoyer les personnes non racisé·es à leurs caractéristiques pseudo-biologiques, comme pour les personnes racisées. Sauf que dans ce cas, cela ne recouvre pas des réalités de #discriminations.

    #Privilège_blanc : les avantages qu’ont les blancs dans les différentes sphères (accès au logement, à l’emploi etc) en comparaison des personnes non blanches, sans qu’ils ou elles s’en rendent compte. On peut de la même façon parler de #privilège_masculin pour parler de la question féministe, de #privilège_bourgeois pour parler de déterminisme social, de #privilège_valide pour parler du handicap, de privilège lié à l’âge, etc.

    #Intersectionnalité : l’idée ici est de dire que ce que subit une personne discriminée par plusieurs critères n’est pas la simple addition de chacun des effets associés. Par exemple, ce que subit comme violence sociale une femme noire n’est pas la simple addition des violences racistes et des violences sexistes. Le monde n’est pas linéaire, les représentations complexes.

    #Racisme_structurel : on utilise cette expression quand un effet raciste est fortement ancré dans la société. Il n’est pas forcément la conséquence d’une intention directe mais peut aussi l’être d’une façon d’organiser la société, un procédé administratif, etc. et de représentations racistes établies. On peut aussi parler de sexisme structurel, de validisme structurel, etc.

    #Woke : c’est aussi l’occasion de rappeler ici que le terme woke est utilisé depuis longtemps aux États-Unis, qu’il désigne simplement pour les personnes victimes de racisme le fait de rester éveillées sur ces questions et de ne rien laisser passer. Ce n’est en rien une théorie, juste un slogan pour la mobilisation et la vigilance.

    Murs blancs, peuple muet

    Revenons sur les #stickers, créés dans le cadre d’un #atelier organisé à l’occasion du mois de l’égalité, stickers qui ont été tant décriés par l’UNI et les médias de droite réactionnaire et d’extrême droite. Les réactions de ces médias servent le programme politique de l’#extrême_droite qui se présente aujourd’hui comme anti-raciste et premier rempart contre l’antisémitisme, alors que les liens des partis concernés ou des propriétaires de ces grands médias avec les mouvements néonazis ou ouvertement racistes, homophobes et sexistes sont parfaitement établis.

    Mais il n’est pas inutile, pour les personnes non spécialistes et honnêtes intellectuellement, de donner quelques clés de lecture de certains des stickers incriminé.

    Parmi les 32 messages initiaux, collés lors de l’atelier, et qui sont restés un mois et demi sur les vitres, seuls 16 restent intacts à l’heure actuelle. Les 16 autres ont donc été soit effacés à la demande du président, soit vandalisés. Le président n’ayant pas précisé quels messages étaient « incompatibles avec les valeurs », difficile de connaître le responsable réel de l’effacement de chaque message ; reste que nous faisons le lien entre la #censure_institutionnelle largement revendiquée, qui ouvre la porte au #vandalisme des messages restants.

    Voici les phrases qui ont été retirées :

    – « La Terre est monochrome comme un arc-en-ciel, le racisme est juste blanc »
    – « Le monde a mal, normal, il est dirigé par des blancs et des mâles. »
    – « Le bruit et l’odeur de la lacrymo et de la peur, dans les quartiers où les fachos sont passés. »
    – « Halal z’enfants de la patrie »
    – « J’aimerais grand remplacer le gouvernement français »
    – « Il était une fois des corps de mille couleurs illuminant le ciel d’un nuage iridescent les cœurs » (waaaa <3)
    – « Les fascistes c’est comme les enfants, c’est mieux chez les autres »
    – « Toutes les soirées en amphi mais pas de diplôme à la sortie. Qui suis-je ? » (à l’envers, en-dessous : « Le personnel de ménage »)
    – « Ce n’est pas du racisme, c’est une question de culture mais ce sont eux qui font votre couture »
    – « La pookie dans le faf »
    – « Aux échecs comme dans la vie, les blancs ont un coup d’avance »
    – « Racines emmêlées qui renvoient à une même forêt »
    – « Le bruit hait l’odeur »
    – « C’est le travail d’arabe qui a construit Versailles »
    – « L’amour est enfant de Bohème mais on les a mis dans des HLM »

    Sur ces 15 messages seuls 3 parlent explicitement des « blancs » ; les actions de censure ou de vandalisme visaient donc plus largement certains messages du fait de leur simple caractère politique.

    Ces messages nous inspirent ces quelques explications ou interprétations possibles, forcément partielles et partiales, comme le sera toute interprétation de messages à portée artistique.

    La notion de « #hiérarchie_des_races » a été inventée en Europe au moment où celle-ci a commencé à conquérir le monde. Nos plus grands penseurs de la Renaissance et des Lumières, que nous adorons citer, nos penseurs et scientifiques des 18ème, 19ème et 20ème siècles ont produit des textes d’un racisme incroyable, justifiant la domination coloniale et esclavagiste ainsi que l’antisémitisme par des #théories_racistes. C’est une production de notre civilisation européenne et il faut bien le reconnaître. Cela ne veut pas dire qu’il n’y a pas eu de violence ou d’#esclavage avant. Mais la théorisation de la #hiérarchisation_des_races comme justification à ces violences, c’est chez nous, européens. Cela appartient à notre civilisation. Et cela a permis de justifier les pires horreurs, de l’extermination quasi complète des peuples autochtones d’Amérique, l’esclavage des peuples noirs d’Afrique pour remplacer cette population, les massacres de la colonisation comme à Madagascar, en Algérie, en Indochine comme dans toutes les colonies qu’elles soient françaises ou pas, et bien évidemment la solution finale nazie contre les juifs et les roms. En ce sens, le racisme est blanc.

    Le racisme au sens de domination sociale est produit et maintenu par les dominants, les décideurs. Or dans nos sociétés européennes, très majoritairement, les dominants sont blancs. En ce sens, le racisme est (majoritairement) blanc.

    Même lecture sociale : en France comme dans de nombreux pays qui dominent économiquement, ceux qui dirigent font partie des catégories privilégiées : des blancs, des #hommes, CSP+ qui n’ont aucun intérêt objectif à voir les choses s’améliorer pour les autres. Et la lutte pour l’égalité passe bien évidemment par la question démocratique, la question de la légitimité de nos représentants (voir leurs catégories socio-professionnelles, leur genre, leur couleur, leur age, ...) ainsi que des ministres qui sont par exemple très nombreux à être millionnaires.

    Il s’agit de dénoncer le racisme comme phénomène social et structurel. Le privilège blanc.

    Pour en revenir au contexte


    Le racisme est bien du côté de l’UNI dont plusieurs de ses membres ont soutenu des candidats aux élections objectivement racistes et parfois multi-condamnés pour cela, ou qui sont aussi membres de partis d’extrême droite.

    Le racisme est dans le camp du RN et de Reconquête qui utilisent des signes distinctifs de ralliement appelés #dog_whistles (https://blogs.mediapart.fr/ilkor/blog/211222/les-dog-whistles-des-extremes-droites-liste-non-exhaustive) pour continuer à communiquer et militer avec les pires militants néonazis et racistes.

    Le racisme est du côté du #ministre_de_l’Intérieur qui désigne systématiquement les musulmans comme la source de tous les maux.

    Il est du côté du président de la République qui laisse depuis des mois les Palestiniens se faire massacrer sans réagir sérieusement, et laisse depuis des années les migrants crever en Méditerranée et dans l’Atlantique en laissant les ONG agir dans des conditions déplorables.

    Dans notre Université, le choix du Président de qualifier de non conforme à nos valeurs les stickers cités plus haut, les retirer, sans en faire l’analyse, sans discuter avec le groupe qui les a créés, est un cadeau fait à l’UNI et à l’extrême droite, ainsi qu’aux médias tenus par celle-ci. C’est un manque de respect et de solidarité avec les personnels et les étudiant.es qui ont passé du temps à travailler pour produire ces œuvres, et à qui nous apportons tout notre soutien. C’est une porte ouverte aux prochaines attaques racistes et réactionnaires qui ne manqueront pas de venir.

    –---

    [1] Pour creuser la question, de nombreux travaux et études sont disponibles : voir par exemple le dossier « Racisme et discrimination » de l’Ined (https://www.ined.fr/fr/ressources-methodes/etat-de-la-recherche/racisme-et-discrimination), les rapports de la Commission nationale consultative des droits de l’homme (CNCDH) (https://www.cncdh.fr/actualite/cncdh-publie-le-rapport-2023-lutte-contre-racisme-antisemitisme-xenophobie), le guide de ressources UGA « Lutter contre le racisme et l’antisémitisme » (https://www.univ-grenoble-alpes.fr/lutte-contre-le-racisme-et-l-antisemitisme/guide-de-ressources-de-lutte-contre-le-racisme-et-l-antisemitism), l’enquête « ACADISCRI : Inégalités de traitement, conditions d’étude et de travail dans l’enseignement supérieur et la recherche (https://acadiscri.hypotheses.org).

    https://cgt.fercsup.net/syndicats/auvergne-rhone-alpes/universite-de-grenoble/uga/article/rage-against-the-racism-prendre-le-temps-de-penser-s-armer-avec-les-sci

    #UGA #Université_grenoble_alpes #petite_poissonne #tags #graffitis #art #oeuvres_d'art #ESR #universités #France

    ping @karine4

  • Les menaces sur l’État de droit en France
    https://radioparleur.net/2025/05/21/les-menaces-sur-letat-de-droit-en-france

    Le rapport annuel d’Amnesty International tire la sonnette d’alarme sur la situation des #Droits_humains dans le monde. L’ONG dénonce une dégradation continue des droits fondamentaux en France. Le rapport, publié le 28 avril,s’intitule « 2025, menaces sur l’État de droit ». La présidente d’Amnesty International France, Anne Savinel-Barras présente les principaux éléments du […] L’article Les menaces sur l’État de droit en France est apparu en premier sur Radio Parleur.

    #Au_fil_des_luttes #Carousel_1 #Amnesty_International #Discriminations #Libertés #Migrations #Mouvements_sociaux #Politique #répression

  • #Islamophobie : Retailleau souhaite interdire le port du #foulard à l’#université

    https://www.revolutionpermanente.fr/local/cache-vignettes/L880xH495/2126aeed22cd15977367e7f433883c-a4661.jpg

    Interrogé jeudi par RMC, Bruno Retailleau a réitéré son souhait d’interdire le port du voile à l’université. Une nouvelle sortie raciste, quelques jours après l’attentat islamophobe qui a tué Aboubakar Cissé, qui illustre le rôle du gouvernement dans le renforcement de l’islamophobie d’Etat.

    Interrogé ce jeudi 1er mai sur le plateau de la chaîne RMC, le Ministre de l’Intérieur a réitéré son souhait d’interdire le port du voile à l’université, ressortant une proposition qu’il avait faite en janvier dernier.

    Cette mesure s’inscrit dans la continuité de son meeting, « Pour la République… La France contre l’islamisme », où Retailleau avait fait une véritable démonstration de l’islamophobie d’Etat, scandant la phrase ignoble « A bas le voile ! » Interrogé sur ses propos au regard du meurtre islamophobe d’Aboubacar Cissé dans une mosquée à La Grand-Combe vendredi dernier, Retailleau a affirmé n’avoir aucun regret. Après le vote au Sénat de l’interdiction du foulard dans le cadre des compétitions sportives, Retailleau redouble donc dans sa volonté de stigmatiser les musulmans, en agitant encore « un islamisme qui essaie d’implanter son étendard. » Le meurtre raciste d’Aboubacar, permis par l’islamophobie du gouvernement, avait été traité avec le plus grand des mépris par Bruno Retailleau, incapable de prononcer le nom de la victime et évoquant sa situation administrative irrégulière.

    Aujourd’hui, de nombreuses étudiantes font déjà face à des #discriminations sexistes et islamophobes sur leurs lieux d’études.. L’#acharnement contre les #femmes_musulmanes, chassées par l’Etat et ses relais dans tous les #espaces_publics, est au cœur de la stratégie de surenchère raciste et sécuritaire du ministre de l’Intérieur, qui aujourd’hui reprend programme et discours du RN avec grand enthousiasme.

    Une telle offensive n’est cependant pas sure d’être à l’ordre du jour. En effet, des divergences s’expriment au sein du gouvernement qui a déjà retoqué cette proposition en janvier. Ainsi, le ministre de l’Enseignement supérieur et de la recherche, Philippe Baptiste a de son côté affirmé lors d’un entretien accordé à Sud Radio qu’il ne fallait pas interdire le voile à l’université.. Une telle position n’est en rien une question de conviction puisque l’ensemble de la macronie a défendu avec force l’interdiction des #Abayas, mais une question de rapport de force : l’interdiction du voile à l’université pourrait en effet ouvrir la voie à une importante contestation au sein de la jeunesse.

    Si Bruno Retailleau incarne le pôle le plus droitier du gouvernement, avec Gérald Darmanin désormais ministre de la Justice, l’ensemble du gouvernement est aligné des politiques profondément racistes. La violente #répression qui s’abat contre les organisations, comme #Urgence_Palestine et la #Jeune_Garde, menacés de #dissolution, illustrent la volonté du gouvernement Macron de mettre le #mouvement_social au pas. Face à ces #attaques, il est plus que jamais urgent de construire la riposte contre l’offensive anti-démocratique, et les menaces de dissolutions. Dans ce combat, mais aussi contre la répression étatique de notre camp social, le mouvement ouvrier a un rôle central à jouer.

    https://www.revolutionpermanente.fr/Islamophobie-Retailleau-souhaite-interdire-le-port-du-foulard-a
    #voile #interdiction #Bruno_Retailleau #ESR #université
    ping @karine4

  • Le fondateur du WEF Klaus Schwab visé par une enquête interne RTS

    Le Wall Street Journal a révélé mercredi qu’une lettre anonyme a été adressée la semaine passée au conseil d’administration de la prestigieuse institution, mettant en cause klaus schwab et son épouse hilde qui auraient « mélangé leurs affaires personnelles avec les ressources du Forum, sans surveillance appropriée ».

    Un porte-parole du fondateur, interrogé par le quotidien, a démenti toutes ces accusations.
    . . . . .
    Cette lettre anonyme, qui émane d’anciens et actuels employés, selon le quotidien américain, a poussé le conseil d’administration à se réunir dans l’urgence « le dimanche de Pâques », klaus schwab ayant « opté pour une démission immédiate » de son rôle de président du Conseil d’administration, « plutôt que de rester pour une période de transition prolongée comme prévu auparavant », ajoute le Wall Street Journal, qui s’appuie sur des sources informées sans les nommer.

    La lettre inclut entre autres des accusations selon lesquelles klaus schwab, le fondateur de ce forum qui organise chaque année un sommet pour les élites politiques et économiques dans la luxueuse station de ski suisse de davos, aurait demandé à de jeunes employés de retirer pour lui « des milliers de dollars » dans des distributeurs de billets et utilisé des fonds de l’organisation pour régler des massages lors de séjours à l’hôtel.


    . . . . .
    Les dépenses facturées pour des massages lorsqu’il était en voyage ont toujours été remboursées, a-t-il précisé, klaus schwab réfutant également les accusations contre lui et son épouse concernant les voyages luxueux et retraits d’argent.

    Source : https://www.rts.ch/info/economie/2025/article/klaus-schwab-fondateur-du-wef-vise-par-une-enquete-apres-sa-demission-28861986.h
    #massage #prostitution #chute #klaus_schwab #wef #capitalisme #politique #violence #racisme #discriminations #davos #globalisation_4.0 #actualités_internationales #Grande_Réinitialisation #Réinitialisation #crise #économie #économie_mondiale

  • Klaus Schwab, président du WEF, annonce sa démission immédiate RTS

    Selon un communiqué du WEF publié lundi, Klaus Schwab a informé le conseil d’administration de sa démission lors d’une réunion extraordinaire le dimanche de Pâques. Le choix du chef intérimaire Peter Brabeck-Letmathe, ancien président du conseil d’administration de Nestlé, s’est fait à l’unanimité. Le conseil de fondation a mis en place un comité de recherche pour trouver un successeur durable.

    Il y a un an, en mai, Klaus Schwab avait déjà annoncé son intention de quitter son poste de directeur et de passer à la présidence du conseil de fondation. Il se retire maintenant de cette même fonction.

    Le wef Fondé avec l’argent de ses parents

    Le professeur d’économie allemand Klaus Schwab, né à Ravensburg dans le sud de l’Allemagne, fils d’un directeur d’usine suisse, a créé le Forum économique mondial en 1971 avec l’argent de ses parents, ses économies de manager et un crédit. Le Forum, avec sa réunion annuelle à Davos, est devenu l’une des rencontres les plus importantes pour les politiciens de haut niveau, les grands managers, les scientifiques et les représentants de la société civile du monde entier.

    Le siège du WEF se trouve à Genève. Il emploie 600 personnes dans le monde entier, à Genève, New York, Pékin et Tokyo.
    . . . . .
    Source et suite : https://www.rts.ch/info/economie/2025/article/klaus-schwab-quitte-la-presidence-du-wef-peter-brabeck-letmathe-interimaire-2886

    #klaus_schwab #wef #capitalisme #politique #violence #racisme #discriminations #davos #globalisation_4.0 #actualités_internationales #Grande_Réinitialisation #Réinitialisation #crise #économie #économie_mondiale

  • #Lettre de l’ambassade des États-Unis aux #entreprises françaises : Paris dénonce des « ingérences »

    Plusieurs entreprises françaises ont reçu une lettre de l’ambassade des États-Unis, demandant si elles avaient des programmes internes de lutte contre les #discriminations. Paris a réagi samedi, qualifiant cette initiative d’"ingérences inacceptables".

    Paris a vivement réagi, samedi 29 mars, après l’envoi d’une lettre de l’ambassade des États-Unis à plusieurs entreprises françaises, demandant si elles avaient des programmes internes de #lutte_contre_les_discriminations, qualifiant cette initiative d’"ingérences inacceptables" et prévenant que la France et l’Europe défendront « leurs valeurs ».

    Plusieurs sociétés françaises ont reçu une lettre et un #questionnaire leur demandant si elles mettaient en place des programmes internes de lutte contre les discriminations.

    La missive les prévient que, le cas échéant, cela pourrait les empêcher de travailler avec l’État américain, ce alors que la France interdit la plupart des formes de #discrimination_positive.

    L’information – révélée vendredi 28 mars par Le Figaro et les Echos – s’inscrit dans un contexte de fortes tensions commerciales alimentées par Donald Trump, qui agite tous azimuts des menaces de droits de douane.

    « Les ingérences américaines dans les politiques d’inclusion des entreprises françaises, comme les menaces de #droits_de_douanes injustifiés, sont inacceptables », a rétorqué le ministère français du Commerce extérieur, dans un message transmis à l’AFP.

    Les destinataires du courrier ont été informés du fait que « le #décret_14173 », pris par Donald #Trump dès le premier jour de son retour à la Maison Blanche pour mettre fin aux programmes promouvant l’#égalité_des_chances au sein de l’État fédéral, « s’applique également obligatoirement à tous les #fournisseurs et #prestataires du gouvernement américain », comme le montre le document révélé par Le Figaro.

    Une initiative « inadmissible »

    Une initiative « inadmissible », a réagi samedi auprès de l’AFP le président de l’organisation patronale CPME, Amir Reza-Tofighi, qui dénonce une « atteinte à la #souveraineté » et appelle les responsables politiques et économiques à « faire front commun ».

    De son côté, la CGT demande au gouvernement « d’appeler les entreprises à ne pas engager de politique dommageable pour l’égalité entre les femmes et les hommes et la lutte contre le racisme », a déclaré à l’AFP Gérard Ré, secrétaire confédéral du syndicat.

    Au ministère de l’Économie, l’entourage d’Éric Lombard assurait vendredi soir que « cette pratique reflète les valeurs du nouveau gouvernement américain ». « Ce ne sont pas les nôtres », ajoutait Bercy dans sa réaction transmise à la presse, précisant que « le ministre le rappellera à ses homologues au sein du gouvernement américain ».

    Samedi, les contours de la lettre restaient flous.

    Le cabinet du ministre de l’Économie, contacté par l’AFP, estime que le nombre d’entreprises ayant reçu la lettre serait « de quelques dizaines », tout en précisant que le décompte est toujours en cours.

    Les grands groupes contactés par l’AFP qui ont accepté de s’exprimer ont déclaré de ne pas avoir reçu la lettre, dont le format est inhabituel.

    « Ce n’est pas un courrier qui est parti sur le papier à en-tête de l’ambassade, ni du consulat ou d’une quelconque agence américaine », note auprès de l’AFP Christopher Mesnooh, avocat d’affaires américain du cabinet Fieldfisher basé à Paris, se basant sur la lettre publiée dans le Figaro.

    « Si c’est bien sous cette forme-là que les entreprises l’ont reçue, ce n’est pas une communication officielle et encore moins une communication diplomatique », selon l’avocat. « Ce n’est pas parce que ça traduit l’attitude de cette administration que c’est l’administration au sens propre du terme qui a autorisé son envoi à des entreprises », indique prudemment Christopher Mesnooh.

    Sollicitée par l’AFP, l’ambassade des États-Unis à Paris n’a pas répondu dans l’immédiat.

    L’administration américaine peut-elle exiger des entreprises françaises qu’elles se conforment à sa loi ? « Non », affirme Christopher Mesnooh. « Les entreprises françaises ne vont pas être obligées maintenant d’appliquer le droit social ou la loi fédérale contre les discriminations positives », poursuit l’avocat.

    En outre, pour les entreprises françaises, le problème ne se pose pas dans les termes posés par la lettre car en France, la discrimination positive fondée explicitement sur l’origine, la religion ou l’ethnie « n’est pas autorisée », rappelle l’avocat d’affaires.

    Pour autant, sur le volet de l’égalité hommes/femmes, depuis 2021, pour les entreprises de plus de 1 000 salariés, la loi française impose des quotas de 30 % de femmes cadres-dirigeantes et de 30 % de femmes membres des instances dirigeantes en 2027, puis d’atteindre des quotas de 40 % en 2030.

    Les entreprises qui choisiraient de se conformer aux exigences stipulées dans la lettre se mettraient donc dans l’illégalité du point de vue du droit français.

    https://www.france24.com/fr/am%C3%A9riques/20250329-en-guerre-contre-la-diversit%C3%A9-l-administration-trump-fait-pr

    #USA #France #Etats-Unis #ingérence #ambassade #trumpisme

    • Stupeur dans les entreprises françaises après une lettre de l’ambassade américaine à Paris exigeant qu’elles respectent la politique antidiversité de Trump

      La représentation des Etats-Unis a envoyé un courrier à des nombreux groupes tricolores exigeant qu’ils respectent la politique « #anti-DEI » de l’administration républicaine pour tout contrat avec l’Etat fédéral.

      La lettre est signée par un certain Stanislas Parmentier, le directeur général des services de l’ambassade des Etats-Unis à Paris, selon l’annuaire du département d’Etat américain. En temps normal, cette affaire serait restée sous les radars, mais on est en plein trumpisme et la missive révélée par Les Echos, vendredi 28 mars, dont Le Monde a obtenu copie, enjoint les entreprises françaises destinataires de respecter les règles édictées par Donald Trump, qui bannissent toute discrimination positive en faveur de la diversité et de la parité homme-femme (DEI, Diversity Equity Inclusion) : « Nous vous informons que le décret 14173 concernant la fin de la discrimination illégale et rétablissant les opportunités professionnelles basées sur le mérite, signé par le président Trump, s’applique également obligatoirement à tous les fournisseurs et prestataires du gouvernement américain, quels que soit leur nationalité et le pays dans lequel ils opèrent », écrit l’employé de l’ambassade, qui demande à ses interlocuteurs de signer « sous cinq jours (…) un formulaire de certification du respect de la loi fédérale sur l’antidiscrimination ».

      L’affaire a créé la stupeur à Paris et est remontée au niveau des directions générales, voire des conseils d’administration. Son ampleur est inconnue : s’agit-il uniquement des fournisseurs de l’ambassade ou du département d’Etat ? C’est que laisse croire le préambule du formulaire à signer, qui explique que « tous les contractants du département d’Etat doivent certifier qu’ils ne conduisent pas de programmes de promotion de DEI ».

      Ceci expliquerait aussi que le groupe Orange, qui n’a pas d’activité aux Etats-Unis, l’ait reçue. Ou est-ce une opération de mise en garde de toutes les entreprises françaises ? Mais, dans ce cas, comment expliquer que des grands noms opérant aux Etats-Unis, comme Saint-Gobain, n’aient pas été destinataires du courrier, ni en France, ni aux Etats-Unis ? « Cette lettre n’a été adressée qu’à des entreprises ayant des relations contractuelles avec l’Etat fédéral. Saint-Gobain n’est pas concerné », nous indique l’entreprise. Axa et Kering ne l’ont pas reçue non plus, selon nos interlocuteurs.

      La discrimination positive, faible en France

      La tension créée par Donald Trump a atteint un tel niveau qu’une lettre d’ambassade suscite une panique du même ordre que si elle avait été envoyée par le secrétaire au Trésor ou le secrétaire d’Etat américain. Sans doute pas complètement à tort : la politique voulue par Donald Trump est désormais mise en œuvre avec diligence par les fonctionnaires de l’administration fédérale. La missive est sans doute avant-coureuse des exigences à venir, celles faites aux entreprises européennes de respecter les règles de DEI si elles veulent faire des affaires avec le gouvernement américain, voire faire des affaires tout court aux Etats-Unis.

      Les accusations d’abus d’extraterritorialité et d’ingérence fusent. Toutefois, certains tentent de temporiser avant d’y voir plus clair : l’indignation reste anonyme tandis que plusieurs groupes ont choisi de ne pas signer la lettre de certification, nous indique une haute dirigeante d’un grand groupe français.

      L’entourage du ministre français de l’économie, Eric Lombard, a jugé que « cette pratique reflète les valeurs du nouveau gouvernement américain. Ce ne sont pas les nôtres. Le ministre le rappellera à ses homologues au sein du gouvernement américain ».

      En réalité, dans une République qui a historiquement combattu tout communautarisme et toute distinction ethnique, à l’opposé des Etats-Unis, les politiques de discrimination positive, en France, ont historiquement été beaucoup plus faibles qu’aux Etats-Unis et très peu fondées sur le droit, le comptage ethnique étant prohibé et la prise en compte des origines interdite au sein des entreprises. En revanche, les sociétés de plus de 250 salariés sont légalement soumises à un quota minimal de 40 % de femmes dans leur conseil d’administration ou de surveillance.

      Disney visé par une missive spécifique

      Le décret de Donald Trump a été pris dans la foulée d’un arrêt de la Cour suprême de l’été 2023, interdisant la discrimination positive dans les universités américaines. Dans son décret signé dès le 21 janvier, le président américain écrit que les politiques de diversité « non seulement violent le texte et l’esprit de nos lois fédérales sur les droits civiques, mais portent également atteinte à notre unité nationale. Elles nient, discréditent et sapent les valeurs américaines traditionnelles de travail, d’excellence et de réussite individuelle, au profit d’un système de spoliation identitaire illégal, corrosif et pernicieux ».

      Selon M. Trump, « les Américains qui travaillent dur et qui méritent de réaliser le rêve américain ne devraient pas être stigmatisés, rabaissés ou exclus de certaines opportunités en raison de leur origine ethnique ou de leur sexe ».

      Cette politique est menée tous azimuts. Vendredi 28 mars, le patron de la Federal Communication Commission, qui régule les médias, Brendan Carr, a posté, sur X, la lettre qu’il avait envoyé à Bob Iger, patron de Disney, pour s’assurer qu’il avait démantelé sur le fond et pas seulement sur la forme ses politiques DEI.

      « Pendant des décennies, Disney s’est concentré sur le box-office et la programmation à succès mais quelque chose a changé. Disney est désormais empêtré dans une vague de controverses concernant ses politiques de diversité, d’inclusion et d’inclusion », écrit Brendan Carr, qui met en cause les anciens objectifs de Disney d’avoir plus de 50 % d’acteurs, metteurs en scène, scénaristes issus des minorités ou de rémunérer ses dirigeants en fonction des résultats DEI. « Je veux m’assurer que Disney et ABC [sa chaîne de télévision] n’ont pas violé les réglementations de la FCC sur l’égalité des chances en matière d’emploi en promouvant des formes odieuses de discrimination DEI », met en garde M. Carr.

      En 2022, la querelle entre le gouverneur républicain de Floride, Ron DeSantis, et Disney, qui s’opposait à une loi surnommée « Don’t Say Gay » (« ne dites pas homo ») bannissant dans les écoles et lycées les cours sur l’homosexualité et la théorie du genre, avait marqué l’acmé de la guerre culturelle aux Etats-Unis. Elle avait également marqué le début de la réaction anti-DEI. Elle se poursuit désormais sans relâche.

      https://www.lemonde.fr/economie/article/2025/03/29/stupeur-dans-les-entreprises-francaises-apres-une-lettre-anti-diversite-de-l

    • L’embarras des entreprises françaises face à la croisade antidiversité de Donald Trump
      https://www.lemonde.fr/economie/article/2025/04/06/diversite-les-oukases-de-trump-destabilisent-les-entreprises-francaises_6591

      Les exigences américaines sèment le trouble au sein des sociétés, notamment chez celles qui ont une présence aux #Etats-Unis. Si beaucoup assurent qu’elles vont maintenir leur politique inclusive, d’autres ont déjà tourné casaque.

      ... Le cabinet de conseil Accenture, jusque-là chantre des valeurs de diversité et d’inclusion, a supprimé ses objectifs DEI. ...

      Aujourd’hui, quelque 4 500 institutions ont signé la Charte de la diversité, « mais, en réalité, ce n’est pour beaucoup qu’une pétition de principe. Du moins pour les discriminations liées aux origines. En France, on parle désormais du genre, des LGBTQ+ et des personnes trans, mais on ne parle toujours pas des Noirs et des Arabes », estime M. Sabeg, ancien commissaire à la diversité et à l’égalité des chances (2008-2012).

      https://archive.ph/K40Z0

  • La Défenseure des droits s’alarme de « l’ampleur et l’augmentation des #discriminations en France »

    Dans son rapport annuel publié mardi 25 mars, Claire Hédon alerte sur l’ampleur de l’augmentation des discriminations en France, liées à l’origine particulièrement. Elle s’inquiète aussi des conséquences de la dématérialisation des services publics.

    https://www.humanite.fr/societe/claire-hedon/la-defenseure-des-droits-salarme-de-lampleur-et-laugmentation-des-discrimin

    • La Défenseure des droits dénonce les « excès de la dématérialisation mal pensée »
      https://archive.ph/https://www.mediapart.fr/journal/france/250325/la-defenseure-des-droits-denonce-les-exces-de-la-dematerialisation-mal-pense
      `
      Dans son rapport annuel publié mardi 25 mars, Claire Hédon, la Défenseure des droits, constate une augmentation des discriminations en lien avec l’origine. Elle pointe aussi les difficultés engendrées par les démarches numérisées dans les services publics.

      Claire Claire Hédon est inquiète de la fragilisation des #droits et #libertés à l’œuvre dans la société. « On oublie que les droits sont là pour protéger les personnes et qu’ils nous réunissent pour faire société », déclare la Défenseure des droits lors de la conférence de presse accompagnant la sortie du rapport annuel de l’institution, le 25 mars. Elle souhaite sonner « deux alertes lancinantes » concernant deux phénomènes préoccupants : les discriminations qui ne cessent d’augmenter et les « excès de la dématérialisation mal pensée ».

      En 2024, plus de 141 000 réclamations et demandes d’informations ont été adressées à l’institution. La plateforme de la Défenseure des droits, le 39 28, a connu un « pic d’appels » durant l’été 2024 concernant des propos haineux en raison de l’origine ou de la religion. Une hausse de 53 % a été relevée entre mai et juin 2024. Des chiffres à mettre en parallèle avec le fait qu’en 2020, 18 % de la population de 18 à 49 ans a déclaré être victime de #discrimination, selon l’enquête Trajectoires et origines. Le rapport s’appuie aussi sur l’enquête de victimation menée en 2024 par le ministère de l’intérieur, qui indique une « très forte hausse » de 52 % des faits de discrimination entre 2021 et 2022.

      Alors que les chiffres s’affolent, de manière presque contre-intuitive, les saisines sont, elles, en baisse de 15 %, dit le rapport. Les victimes semblent renoncer à agir, découragées par la procédure ou effrayées par les possibles représailles.
      La Défenseure des droits écrit : « La diminution paradoxale des réclamations que nous avons reçues cette année dans ce domaine met en lumière la difficulté des victimes à faire valoir leurs droits et la nécessité de s’emparer collectivement de cette problématique. »

      L’euphémisation des discriminations est brocardée par Claire Hédon dans son propos liminaire. Elle pointe le fait que les décideurs préfèrent parler de « diversité » et de « lutte contre le discours de haine ». « Or, il est important de parler de discrimination », ajoute-t-elle.

      « Maltraitance institutionnelle »

      L’autre motif d’alerte porte sur les affres de la dématérialisation pour les usagers des services publics, dans un contexte de désengagement de l’État et avec des infrastructures toujours plus éloignées. Cela engendre, selon elle, du découragement, de la résignation et de la lassitude. « Les personnes ne croient plus en l’État. »

      La dématérialisation partait d’une démarche louable, pointe Claire Hédon, à savoir : simplifier les démarches administratives. Or, c’est le contraire qui se produit alors même que les droits sociaux sont fragilisés, « lorsqu’un service a été entièrement dématérialisé sans que l’accompagnement nécessaire ait été prévu, lorsque l’information délivrée est insuffisante, lorsque les procédures de contrôle sont expéditives », peut-on lire dans le rapport.

      37 % des saisines de l’institution en 2024 portaient sur les difficultés d’accès au #titre_de_séjour et au renouvellement, ce qui en fait le premier motif de saisine de l’institution depuis 2022. Un chiffre qui était seulement de 10 % en 2019. De fait, les difficultés rencontrées par les usagers ressortissants #étrangers se sont aggravées depuis le déploiement de l’#administration_numérique pour les étrangers en France (#Anef), canal unique dématérialisé pour les demandes de titres de séjour et de renouvellement.

      Il n’est pas possible de corriger ou de modifier sa demande sur le site. Sans compter les #délais élastiques. Des milliers de personnes étrangères, faute d’obtenir un titre de séjour dans les temps, souvent un renouvellement, perdent leurs droits sociaux ou leur travail, comme Mediapart l’a raconté. Ces personnes précarisées se retrouvent alors en situation irrégulière alors qu’elles étaient en règle. Il s’agit, selon Claire Hédon, d’une « maltraitance institutionnelle ». [#clandestinisation]

      Le risque des algorithmes

      L’inquiétude de l’institution porte aussi sur la généralisation de l’Anef pour toutes les demandes concernant les titres de séjour dans quelques mois. Or, le site dysfonctionne, rappelle Claire Hédon. « On dit à nos interlocuteurs au ministère de l’intérieur que c’est impossible d’étendre l’Anef à toutes les demandes dans ces conditions.

      Concrètement, les réclamants récupèrent leur titre de séjour à un mois de la fin de validité, ils doivent tout recommencer. Le renouvellement automatique des API, les attestations provisoires d’instruction, pourrait désengorger les préfectures. » Une situation à ses yeux révélatrice : « Le degré d’effectivité des #droits_des_étrangers me paraît être un marqueur des droits et libertés dans notre pays. »
      Plus généralement, l’impossibilité pour les usagers de services publics de pouvoir se rendre dans un #accueil physique ou de joindre un·e agent·e au téléphone pénalise les moins familiers avec le numérique. Dans son rapport, l’institution rappelle que « la dématérialisation doit rester une voie d’accès supplémentaire au service public et ne pas se substituer aux guichets, aux échanges postaux ou par téléphone qui doivent demeurer de réelles alternatives pour contacter l’administration ».

      Il ne s’agit pas de pointer le travail des agent·es, insiste Claire Hédon, mais de dénoncer le désinvestissement de l’État dans les services publics. Les agences #France_services, faute de personnels spécialisés en leur sein, ne peuvent pallier ces difficultés.

      Or le problème perdure et s’accentue année après année, « aussi bien pour MaPrimeRénov’ que pour la question des pensions de retraite ». « Nous avons des réclamants qui attendent six mois, un an, dix-huit mois, pour toucher leur retraite. Ils restent sans revenus pendant toute cette période-là, avec des difficultés pour joindre quelqu’un », explique celle qui a déjà rendu plusieurs avis sur le sujet. La Défenseure des droits a aussi été saisie par des bénéficiaires du revenu de solidarité active (#RSA) en raison d’une prise en considération erronée de leurs #ressources. [mais pas seulement]

      Autre sujet dans la ligne de mire de la Défenseure des droits : la #lutte_contre_la_fraude lorsqu’elle se retourne contre les usagers, avec un point de vigilance sur l’intelligence artificielle ou les #algorithmes. Ceux programmés par la Caisse nationale d’allocations familiales ou par la Caisse nationale d’assurance-maladie à l’aide du data mining (« extraction de données ») risquent de reproduire des biais discriminatoires.

      Les logiciels d’affectation au lycée et dans l’enseignement supérieur, #Affelnet et #Parcoursup, risquent, eux aussi, de porter atteinte aux droits des élèves, pointe enfin le rapport. « Lorsqu’une décision administrative est dite partiellement automatisée, un agent public doit contribuer à la prise de décision par une action concrète et significative. La Défenseure des droits relève cependant que cette intervention se révèle parfois inexistante. » Un travail approfondi sur la question spécifique des algorithmes va être mené dans les prochains mois. En attendant, comme le veut l’usage, ce rapport va être remis au premier ministre et à Emmanuel Macron.

      #retraites #CNAV #CAF #data_mining

    • [Exemple] CAF BDR délai de traitement supérieur à 60 jours pour AAH
      https://www.plus.transformation.gouv.fr/experiences/5830113_caf-bdr-delai-de-traitement-superieur-a-60-jours-po

      Cette réponse a été générée par une #IA à 88 % et vérifiée par un agent.

      On notera le titre euphémisant en diable : il s’agit d’une #AAH non versée durant un trimestre.

      En réponse à une réclamation CAF, on a le plus souvent un « votre demande a été traitée », sans plus de précision, qui n’a aucun sens, si ce n’est d’accuser réception. Voilà une chose que l’IA va améliorer en fournissant tissant des phrases ou jamais les dédions de ne seront notifiées "en fait et en droit" comme le veut la loi, quasi systématiquement bafouée.

  • #Julianne_Moore « profondément attristée » que son #livre « Freckleface Strawberry » soit banni aux États-Unis

    Au total, 160 écoles gérées par le ministère de la Défense ont obligation de retirer certains ouvrages liés à la question du #genre ou de la lutte contre les #discriminations.

    La liste des livres bannis dans les écoles américaines augmente. Cette fois-ci, c’est le livre de Julianne Moore qui est concerné. Son ouvrage pour enfants Freckleface Strawberry a été retiré des écoles gérées par le Département de la défense des États-Unis (DoDEA). L’actrice de Hungers Games a exprimé son « grand choc », dimanche 17 février, sur son compte Instagram.

    Julianne Moore a été alertée sur Instagram par l’organisation Pen America, qui protège et sensibilise à la protection de la libre expression aux États-Unis. « Quelques semaines après que l’administration Trump a déclaré que les interdictions de livres étaient un “canular”, la même administration purge les livres des écoles gérées par le département de la Défense, servant 67 000 enfants dans le monde », indique Pen America sur leurs réseaux sociaux.

    Selon The Guardian, le ministère de la Défense a fait circuler une note aux parents des enfants qui étudient dans les écoles du Pentagone. Il indique que les autorités allaient procéder à un « examen de conformité » sur les livres disponibles dans ses bibliothèques. Leur accès a été suspendu pendant une semaine.

    Cette initiative fait suite à la volonté de restriction du ministère de la Défense vis-à-vis des livres susceptibles de « promouvoir l’idéologie du genre ou l’idéologie de l’égalité face aux discriminations », comme le rapporte le Washington Post. Au total, 160 écoles situées dans sept États américains et 11 pays sont touchées par cet examen des autorités.
    Un livre qui s’inspirait du quotidien de Julianne Moore

    The Guardian a d’ailleurs obtenu une liste indiquant les titres de livres concernés. Parmi eux, le livre pour enfants Freckleface Strawberry de Julianne Moore, son premier livre paru en 2007. L’histoire illustrée par LeUyen Pham raconte le quotidien d’une jeune fille de 7 ans qui n’aime pas ses taches de rousseur. Elle finit par les accepter, comprenant qu’elles sont aussi le reflet de la différence.

    L’actrice de Hunger Games confie se sentir « stupéfaite » du retrait de son livre. Elle est elle-même ancienne élève de la Frankfurt American High School, une école du ministère de la Défense en Allemagne. « C’est exaspérant pour moi de réaliser que des enfants comme moi, qui grandissent avec un parent militaire et fréquentent une école [du DODEA], n’auront pas accès à un livre écrit par quelqu’un dont l’expérience de vie est si similaire à la leur », déclare-t-elle.

    « Je ne peux m’empêcher de me demander ce qui est si controversé dans ce livre illustré pour qu’il soit interdit par le gouvernement américain. Je suis vraiment attristée et je n’aurais jamais pensé voir cela dans un pays où la liberté de parole et d’expression est un droit constitutionnel », explique celle qui reste dans l’incompréhension.

    Julianne Moore rappelle avoir écrit son livre pour faire comprendre aux enfants que « nous luttons tous, mais que nous sommes unis par notre humanité et notre communauté ». En plus de Freckleface Strawberry, le livre No Truth Without Ruth, de Kathleen Krull et Becoming Nicole, d’Ellis Nutt ont aussi été retirés des bibliothèques scolaires par les autorités américaines.

    https://www.huffingtonpost.fr/culture/article/julianne-moore-profondement-attristee-que-son-livre-freckleface-straw
    #USA #Etats-Unis #censure #trumpisme #école #éducation #matériel_pédagogique

  • #Intelligence_artificielle : les 7 choses qu’on ne vous dit pas

    Du 10 et 11 février, la France accueille le Sommet mondial sur l’Intelligence Artificielle. Au programme  : une vitrine sur l’avenir qui n’exposera pas les #dangers de l’IA. Bien que ces technologies offrent des avancées réelles - dans le domaine de la médecine par exemple - elle présente aussi des dangers sérieux pour les droits humains. Avec plusieurs organisations de la société civile, nous listons ici les faces cachées de l’IA qui ne seront pas présentées au sommet.

    En organisant à Paris le sommet mondial sur l’Intelligence artificielle (IA), Emmanuel Macron souhaite que «  la France ne passe pas à côté de cette révolution. » Sous couvert d’innovation, c’est la course à la productivité et au profit qui est en jeu. Au rythme foudroyant à laquelle l’IA se développe, les dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux que posent ces nouvelles technologies. Pourtant, l’un des plus grands enjeux est là.

    Développer l’IA pour continuer d’obtenir des avancées majeures dans des domaines comme la médecine oui, mais développer l’IA en mettant en péril des droits : c’est non. Les droits humains et la justice environnementale doivent être placés au cœur de la régulation de l’intelligence artificielle.

    Et parce que les dangers de l’IA ne figureront pas au programme officiel du Sommet mondial, nous vous les rappelons ici.

    1. L’IA perpétue le #racisme

    Pour fonctionner, l’IA s’appuie sur des #bases_de_données qui intègre les #préjugés et #biais des personnes qui l’ont créé. L’IA perpétue donc les #stéréotypes et accentue les #discriminations déjà existantes.

    ➡️Aux États-Unis, la police utilise une IA pour prédire la récidive criminelle. C’est le fait qu’une personne accusée va potentiellement commettre un nouveau un délit. Cette IA cible deux fois plus les accusés Noirs que les accusés Blancs.

    2. L’IA accentue le #sexisme

    L’intelligence artificielle s’impose comme un miroir de nos sociétés  : elle reflète, aussi, ses biais et accentue les #inégalités_de_genre. 

    ➡️En Autriche, des #algorithmes utilisés dans des outils d’accès à l’emploi ont écarté les femmes des secteurs informatique.

    3. L’IA permet la #cybercriminalité

    Les montages perçus les plus crédibles générés par IA sont un réel danger pour les femmes et les enfants.

    ➡️Les #deepfakes sont massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.

    4. L’IA impacte la planète

    ➡️D’ici 2027, l’IA générative nécessitera une alimentation en #électricité équivalente à celle de l’Argentine, cinq fois la France en superficie.

    Les pays du Sud sont les premiers impactés par les ravages écologiques de l’IA : les #data_center y pullulent, l’extraction de #minerais comme le #cobalt (utilisé pour la fabrication des #batteries) met en péril la santé des populations et entraîne la #pollution des eaux et des terres.

    Les émissions de CO2 des "géants de la Tech” ont augmenté de 30 à 50% en 2024 suite au développement fulgurant de l’intelligence artificielle.

    5. L’IA désinforme

    Beaucoup d’outils d’intelligence artificielle permettent et participent à la #désinformation  :

    ➡️Des «  #bots  », ces robots qui imitent l’activité humaine sur les réseaux sociaux pour manipuler l’information, en spammant du contenu, en renforçant la notoriété de comptes ou en diffusant de fausses informations.

    ➡️Montage photo généré par l’IA. Lors de la campagne américaine, Donald Trump a relayé une photo générée par IA montrant Kamala Harris de dos en leader communiste face à une foule de partisans. Une image vue 82 millions de fois.

    ➡️Les deepfakes, ces fausses vidéos de célébrité qui prolifèrent sur les réseaux sociaux, outil notamment utilisé lors de campagnes présidentielles pour attribuer de faux propos aux candidats en lice.

    À la vitesse laquelle se développe l’IA, il va devenir de plus en plus difficile de déceler le vrai du faux. 

    6. L’IA surveille

    Les systèmes d’IA sont aussi utilisés à des fins de #surveillance contre certaines populations. En témoigne les pratiques de la Chine, dotées d’outils dopées à l’IA pour surveiller la population ouïghoure. Et bien souvent, ces technologies sont développées par les pays occidentaux.

    ➡️L’IA est d’ailleurs déjà utilisée aux #frontières européennes à des fins de surveillance contre les personnes exilées. Parmi les outils  : des #détecteurs_de_mensonge et d’émotions sont utilisés pour contrôler les frontières. Baptisé #iBorderCtrl, le projet est financé par l’Union européenne et déjà testé dans 3 pays  : Hongrie, Grèce et Lettonie.

    7. L’IA peut tuer

    L’IA, c’est aussi ça  : des drones et autres armes sophistiquées capables de choisir leurs propres cibles et de les attaquer sans contrôle humain. Des robots-tueurs, décidant via leurs algorithmes de qui vit et de qui meurt, se développent et se vendent déjà sur le marché.

    ➡️À Gaza, l’armée israélienne a utilisé une IA appelée Lavender, censée cibler des terroristes mais qui ont provoqué la mort de milliers de civils gazaouis.

    https://www.amnesty.fr/actualites/intelligence-artificielle-les-sept-choses-qu-on-ne-vous-dit-pas

    #IA

    • TRIBUNE | « L’IA contre les droits humains, sociaux et environnementaux »

      Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles Attac, La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde » (https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj), qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?
      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.
      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux États-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.
      Premiers signataires

      David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      https://france.attac.org/actus-et-medias/salle-de-presse/article/l-ia-contre-les-droits-humains-sociaux-et-environnementaux

  • "Excluding Indians" : Trump admin questions Native Americans’ birthright citizenship in court

    « Exclure les Indiens » : l’administration Trump remet en question le droit de citoyenneté par naissance des Amérindiens devant la justice

    https://www.msn.com/en-us/politics/government/excluding-indians-trump-admin-questions-native-americans-birthright-citizenship-in-court/ar-AA1xJKcs

    On lit ça et on croit à un gros fake. On vérifie, et puis non, c’est la réalité. Peu de chance que le truc passe, toutefois, le juge a dit qu’en quarante ans de pratique il n’avait jamais vu une ordonnance exécutive aussi inconstittionnelle. Mais sait-on jamais. Comme si il n’avait rien d’autres de mieux à foutre.

    Dans les arguments de l’administration Trump pour défendre son ordre suspendant la citoyenneté par naissance, le Département de la Justice remet en question la citoyenneté des Amérindiens nés aux États-Unis, en citant une loi du XIXe siècle qui excluait les Amérindiens de la citoyenneté par naissance.

    Dans une affaire concernant l’ordonnance exécutive de Trump sur la citoyenneté par naissance, émanant de Washington, les avocats du Département de la Justice citent le 14e amendement, qui stipule que « Toutes les personnes nées ou naturalisées aux États-Unis, et soumises à leur juridiction, sont citoyennes des États-Unis et de l’État où elles résident », et fondent l’un de leurs arguments sur la phrase « soumises à leur juridiction ».

    L’administration Trump soutient ensuite que la formulation du 14e amendement — la phrase « soumises à leur juridiction » — doit être interprétée « pour exclure les mêmes individus qui étaient exclus par la loi, c’est-à-dire ceux qui sont ‘soumis à toute puissance étrangère’ et ‘les Indiens non taxés’ ».

    Les avocats du Département de la Justice reviennent sur la question de savoir si les Amérindiens devraient ou non avoir droit à la citoyenneté par naissance plus loin dans leurs arguments, citant un arrêt de la Cour suprême, Elk v. Wilkins, dans lequel la cour a statué que « parce que les membres des tribus indiennes doivent ‘une allégeance immédiate’ à leurs tribus, ils ne sont pas ‘soumis à la juridiction’ des États-Unis et ne sont donc pas constitutionnellement en droit d’obtenir la citoyenneté. »

    « La relation des États-Unis avec les enfants d’immigrants illégaux et de visiteurs temporaires est plus faible que celle qu’ils entretiennent avec les membres des tribus indiennes. Si ce dernier lien est insuffisant pour la citoyenneté par naissance, le premier l’est certainement », a argumenté l’administration Trump.

    Cet argument marque un net changement par rapport à l’opinion gouvernementale, qui considère que les Amérindiens citoyens de leurs tribus respectives sont également citoyens des États-Unis.

    « Selon les termes clairs de la Clause, le fait de naître aux États-Unis ne confère pas en soi la citoyenneté. La personne doit également être ‘soumise à la juridiction’ des États-Unis » , indique le dossier.

    Le Département de la Justice cite ensuite la Civil Rights Act de 1866, qui précède de deux ans le 14e amendement. Les avocats du Département de la Justice citent spécifiquement une section de cette loi qui précise que « toutes les personnes nées aux États-Unis et non soumises à toute puissance étrangère, à l’exception des Indiens non taxés, sont déclarées citoyennes des États-Unis ».

    #premières_nations
    #peuples_autochtones
    #discriminations
    #Trump_décadence
    #Trump_fasciste

  • À #France_Travail, l’essor du #contrôle_algorithmique

    « #Score_de_suspicion » visant à évaluer l’honnêteté des chômeur·ses, « #score_d’employabilité » visant à mesurer leur « #attractivité », algorithmes de #détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les #expérimentations de #profilage_algorithmique des personnes sans emploi.

    Mise à jour du 12 juillet 2024 : le directeur général de France Travail a souhaité utiliser son droit de réponse. Vous la trouverez à la suite de l’article.

    Après avoir traité de l’utilisation par la #CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-#Pôle_Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de #numérisation_forcée du #service_public de l’#emploi.

    –-> Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab : https://git.laquadrature.net/la-quadrature-du-net/algo-et-controle.

    Au nom de la « #rationalisation » de l’action publique et d’une promesse « d’#accompagnement_personnalisé » et de « #relation_augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette #automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de #surveillance_de_masse visant à un #contrôle_social toujours plus fin et contribuant à une #déshumanisation de l’accompagnement social.

    De la CAF à France Travail : vers la multiplication des « scores de suspicion

    C’est, ici encore, au nom de la « #lutte_contre_la_fraude » que fut développé le premier algorithme de #profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’#honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants » [1], France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à #Cap_Gemini, une multinationale du CAC40 [2].

    La #notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un « score de suspicion » – dans le texte – visant à détecter les chômeur·ses les plus susceptibles « d’#escroquerie » grâce à l’exploitation de « #signaux_faibles » [3]. Une fois l’ensemble des personnes sans emploi notées, un système d’« #alertes » déclenche ainsi des #contrôles lorsque l’algorithme détecte des situations « suspectes » (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée) [4].

    Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du #RGPD [5]. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

    On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos #données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la #surveillance_numérique à l’œuvre, tout comme les risques de #discriminations que ce système comporte [6].

    #Profilage_psychologique et gestion de masse

    Fort de ce premier « succès », France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme #Intelligence_Emploi [7]. Son ambition affichée est de mettre l’#intelligence_artificielle « au service de l’emploi » pour « révéler à chaque demandeur d’emploi son #potentiel_de_recrutement » [8].

    Un des axes de travail retient notre attention : « Accélérer l’accès et le retour à l’emploi [via un] #diagnostic “augmenté” pour un accompagnement plus personnalisé ». Ici, l’#IA doit permettre de d’« augmenter la capacité de diagnostic » relative aux « traitements des aspects motivationnels » via la « détection de signaux psychologiques » [9]. En son sein, deux cas d’usage retenus sont particulièrement frappants.

    Le premier est le développement d’algorithmes visant à « anticiper les éventuels #décrochages », prévenir les « #risques_de_rupture » [10] ou encore « détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité » [11].

    Ces travaux ont trouvé, au moins en partie [12], un premier aboutissement dans l’outil du #Journal_de_la_Recherche_d’Emploi (#JRE) actuellement expérimenté dans plusieurs régions de France [13]. Le JRE assigne à chaque incrit·e quatre scores de « profilage psychologique » visant respectivement à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de #redynamisation » ou les « risques de dispersion » [14].

    Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord. « Parcours à analyser », « Situations à examiner », « Dynamique de recherche faible » : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un « #diagnostic_de_situation » – via l’interface numérique – afin d’« adapter l’intensité » des « actions d’accompagnement ». Et là encore, ils et elles peuvent s’appuyer sur des « #conseils_personnalisés » générés par un dernier algorithme [15].

    Contrôle, #mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle « l’accompagnement sur mesure de masse » [16].

    Diagnostic et score d’#employabilité

    Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la « qualité » d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son « employabilité » [17]. Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle [18] – a été développée en 2021 [19].

    L’algorithme alloue à chaque inscrit·e un score prédisant ses « chances de retour à l’emploi ». Véritable outil automatique de #tri des chômeur·ses, il vise à organiser la « #priorisation des actions d’accompagnement » [20] en fonction d’un supposé #degré_d’autonomie de la personne sans emploi.

    Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la « progression de la #recherche_d’emploi » via les actions entreprises pour améliorer « l’attractivité [de leur] profil » [21]. Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

    Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les « #métiers_en_tension », dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une #réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

    Agenda partagé & agences virtuelles

    Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface « #XP_RSA » [22], l’outil numérique déployé dans le cadre de la récente réforme du #RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt « #heures_d’activité » hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le #flicage des plus précaires.

    Côté IA, France Travail a lancé en 2024 le programme « #Data_IA » [23], successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’« innovation technologique » VivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une #IA_générative visant à numériser l’accompagnement et la #recherche_d’emploi (« #Match_FT ») [24]. France Travail s’intéresse aussi aux « #maraudes_numériques » pour « remobiliser les jeunes les plus éloignés de l’emploi » [25] et au développement d’« #agences_virtuelles » [26].

    #Austérité, automatisation et #précarisation

    La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de « fraude », de « dispersion », de « perte de confiance », suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes [27]. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi [28].

    À l’heure où Gabriel Attal annonce une énième réforme de l’assurance-chômage passée en force alors que l’Assemblée nationale est dissoute, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des #conditions_de_travail toujours plus dégradées [29].

    Loin des promesses de « libérer du temps pour les conseillers » ou d’offrir un accompagnement « plus réactif et plus personnalisé » [30] aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’#exclusion des plus précaires, voire tend à une généralisation du #non-recours_aux_droits. Il ne s’agit pas d’idéaliser le traitement « au guichet », mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge [31].

    En standardisant les processus d’accompagnement, via la #quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé [32].

    En facilitant le contrôle généralisé, elle accentue enfin la #stigmatisation des plus précaires et participe activement à leur #paupérisation.

    –-

    Mise à jour du 12 juillet 2024

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, a souhaité exercer son droit de réponse que nous publions ci-dessous in extenso.

    « Madame, Monsieur,

    Je reviens vers vous suite à mon précédent courrier du 2 juillet.

    Bien que le délai de 3 jours prévu à l’article 1.1-III de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique soit aujourd’hui expiré, je constate que le droit de réponse qui vous a été adressé n’a pas été publié. Pour rappel, le non-respect de cette obligation est passible d’une amende de 3 750 €.

    Aussi, je réitère par la présente ma demande de publication d’un droit de réponse suite à la parution le 25 juin 2024 de l’article intitulé « A France Travail, l’essor du contrôle algorithmique » (librement accessible à l’adresse : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique).

    Dans cet article, vous évoquez un « service public de l’emploi largement automatisé », ainsi qu’une utilisation des algorithmes qui « contribue à la déshumanisation d’un service essentiel », favorise « la stigmatisation des plus précaires et participe activement à leur paupérisation » et constitue « un pas supplémentaire vers le flicage des plus précaires ». Il s’agirait d’une « extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social », cette « numérisation à marche forcée ser[van]t avant tout à contrôler les personnes sans emploi ». Vous faites également état de « la fermeture des points d’accueil ».

    Nous nous inscrivons en faux contre ces propos erronés qui conduisent à jeter un discrédit sur le travail des plus de 55 000 collaborateurs qui accompagnent chaque jour les demandeurs d’emploi et les entreprises et à travestir la réalité concernant l’usage que nous faisons de ces algorithmes.

    L’utilisation des algorithmes au sein de France Travail ne vise en aucun cas à remplacer le travail des conseillers. L’intelligence artificielle (IA) vient en complément et ne se substitue jamais à une intervention humaine. Au contraire, nous concevons les algorithmes et l’IA comme des outils d’aide à la décision pour les conseillers ou un moyen de leur libérer du temps administratif afin de leur permettre de se consacrer pleinement à l’accompagnement des demandeurs d’emploi.

    Toute utilisation d’algorithmes est en outre encadrée par une charte éthique (https://www.francetravail.org/accueil/communiques/pole-emploi-se-dote-dune-charte-pour-une-utilisation-ethique-de-linte) qui décrit nos engagements pour garantir un cadre de confiance respectueux des valeurs de France Travail, à l’opposé de toute « notation de chômeurs » que vous pointez dans votre article. Un comité d’éthique externe composé de personnalités qualifiées garantit le respect de ce cadre. En aucun cas, les algorithmes ne sont utilisés pour « encourager les demandeurs d’emploi à accepter des emplois au rabais ».

    Concernant la « mécanisation » ou la « déshumanisation » de l’accompagnement que vous avancez, c’est méconnaitre le travail que réalisent les conseillers quotidiennement dans plus de 900 agences ou par téléphone. Aucun projet de fermeture d’agence n’est d’ailleurs envisagé contrairement à ce que vous dites et France Travail est un des rares services publics à être ouvert tous les jours, sur flux le matin et sur rendez-vous l’après-midi. Plus de 8,8 millions de personnes sont venues dans nos agences l’année dernière. Cet accueil en agence reflète justement notre politique de proximité et d’accompagnement notamment des plus précaires. L’ambition de la loi pour le plein emploi est en outre de renforcer l’accompagnement humain des plus éloignés, en particulier des bénéficiaires du RSA.

    Vous parlez enfin de « flicage des plus précaires » à travers l’utilisation d’algorithmes concernant le contrôle de la recherche d’emploi et la lutte contre la fraude. Il convient tout d’abord de souligner que ce sont deux activités distinctes, le contrôle de la recherche d’emploi ne saurait être assimilé à de la lutte contre de la fraude, qui est, par définition, une activité illégale et susceptible de poursuites pénales. Sur ce dernier point, l’utilisation des données dans la lutte contre la fraude vise avant tout à protéger nos usagers. En effet, la majorité des situations recherchées par les équipes de France Travail ne concerne pas des demandeurs d’emploi mais des individus qui détournent les services d’indemnisation du chômage, bien souvent au préjudice de nos usagers : usurpation d’identité des demandeurs d’emploi pour s’approprier leurs droits à l’assurance chômage ou détourner leurs paiements, individus se fabricant un faux passé professionnel ou une fausse résidence en France pour ouvrir des droits indus. Concernant le contrôle de la recherche d’emploi, là encore nous réfutons vivement l’idée selon laquelle nous mènerions une chasse aux plus précaires. Tout demandeur d’emploi inscrit à France Travail bénéficie de droits mais a également des devoirs qui lui sont présentés dès son inscription, dont celui de rechercher activement un emploi. 600 conseillers sont dédiés à ce contrôle et là encore, l’IA est un outil d’aide et en aucun la pierre angulaire des contrôles réalisés par ces conseillers en contact avec les demandeurs d’emploi tout au long de ce processus de contrôle. Là encore votre article méconnaît le travail de nos conseillers et constitue une atteinte à leur engagement et à leur intégrité.

    Je vous remercie de publier sans délai ce droit de réponse. A défaut, je me réserve la possibilité de saisir les juridictions à cet effet.

    Je vous prie d’agréer, Madame, Monsieur, l’expression de mes sincères salutations.

    Thibaut Guilluy »

    Notre réponse :

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, nous a initialement écrit pour faire des remarques d’ordre général sur notre article. Puis, dans une nouvelle lettre reçue aujourd’hui, il est subitement passé aux menaces : nous n’aurions, selon lui, pas fait droit à sa prétendue « demande de publication d’un droit de réponse ». Ces menaces sont particulièrement malvenues et, au demeurant, totalement vaines, puisque rien dans son courrier initial n’indiquait qu’il s’agissait d’une demande de droit de réponse…

    Le directeur général de France Travail s’en tient à une poignée d’éléments de langage sans jamais répondre sur le fond. Pas un mot sur la multiplication des algorithmes de profilage à des fins de contrôle. Tout au plus y apprend-on que des algorithmes d’IA sont aussi utilisés à des fins de « contrôle de la recherche d’emploi », ce que nous ignorions.

    Cette lettre se borne ainsi à un simple exercice, maladroit et malvenu, de communication. Elle s’essaye vainement à réfuter l’expression de « flicage des plus précaires » pour décrire les outils de surveillance des allocataires du RSA. La mise en place d’un agenda partagé pour le contrôle des 15 à 20 heures d’activité de ces dernier·ès serait ainsi – il faut savoir apprécier l’humour – une mesure visant à « renforcer l’accompagnement humain ».

    Quant à l’impact de la numérisation sur l’accueil des plus précaires, le directeur général de France Travail nie la réalité, tout comme son homologue de la CNAF, afin de minimiser l’étendue de la surveillance et le projet politique sous-jacent. Qu’a-t-il donc à répondre à la Défenseure des droits qui, en 2022 dans son deuxième rapportsur la dématérialisation des services publics, rappelait la hausse des inégalités et des réclamations en raison de cette dématérialisation « à marche forcée » ?

    Enfin, opposer, comme le fait cette lettre, le travail des salarié·es de France Travail et notre action de documentation et d’alerte sur les abus de l’administration est stérile : la déshumanisation et le changement de nature du service public se font non seulement au détriment des personnes au chômage mais également des agent·es de France Travail, comme l’ont dénoncé syndicats et associations au moment de la réforme de l’assurance chômage et la transformation de Pôle Emploi en France Travail [33].

    Ce que cette lettre souligne avant tout c’est donc l’absence de recul, de capacité de remise en cause et d’esprit critique du directeur général de France Travail quant à l’extension des logiques de contrôle numérique au sein de son institution. Ou sa pleine adhésion à ce projet.
    Notes

    [1] Voir cette note de synthèsenote de synthèse revenant sur les premières expérimentation faites par Pôle Emploi.

    [2] Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring.

    [3] L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’ article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.

    [4] L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.

    [5] Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.

    [6] Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page.

    [7] Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.

    [8] Rapport annuel 2018 de Pôle Emploi disponible ici.

    [9] Voir cette note envoyée par Pôle Emploi à la DINUM.

    [10] voir note 9

    [11] Voir ce support de webinaire.

    [12] En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement.

    [13] Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.

    [14] Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici.

    [15] Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.

    [16] Voir cette interview du directeur actuel de France Travail.

    [17] Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.

    [18] Voir cette note envoyée par Pôle Emploi à la DINUM en 2020.

    [19] Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021.

    [20] voir note 18

    [21] Voir ce document sur l’utilisation de l’IA à Pôle Emploi.

    [22] Voir ce document de présentation de XP RSA.

    [23] Voir ce document de présentation du programme Data IA.

    [24] Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.

    [25] Voir ce tweet.

    [26] Voir ce tweet.

    [27] Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet articledu même journal.

    [28] Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible Sur le triplement des contrôles, voir ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.

    [29] voir note 27

    [30] Voir, entre autres, cette vidéo du responsable du programme Data IA.

    [31] Voir le livre L’Etat social à distance de Clara Deville.

    [32] Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.

    [33] La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages ».

    https://lagrappe.info/?A-France-Travail-l-essor-du-controle-algorithmique-1132
    #algorithme #chômage #profilage

  • Logement des personnes handicapées : un bilan critique du « logement évolutif » toujours pas rendu public
    https://www.lemonde.fr/societe/article/2024/12/27/logement-des-personnes-handicapees-un-bilan-critique-du-logement-evolutif-to


    Une femme handicapée, dans son appartement, à Paris, en 2018. CHRISTOPHE ARCHAMBAULT/AFP

    Le gouvernement a fait réaliser, comme le demandait la #loi_ELAN de 2018, un bilan d’application de ces habitations, qui peuvent être rendues accessibles à tous par des « travaux simples ». Mais il ne l’a pas communiqué comme prévu au Parlement.
    Par Claire Ané

    Si 20 % des logements neufs ont l’obligation, dès leur construction, d’être accessibles aux personnes handicapées, les 80 % restants doivent être évolutifs : ils doivent pouvoir être rendus accessibles par des « travaux simples ». Cette définition et cette obligation datent de la loi portant évolution du #logement, de l’aménagement et du numérique, dite ELAN, de 2018, qui a aussi prévu qu’un bilan d’application du logement évolutif soit réalisé cinq ans plus tard.

    Le ministère de la transition écologique et le ministère délégué au logement ont bien commandé ce bilan à l’inspection générale de l’environnement et du développement durable, dans un courrier de novembre 2022, et l’ont bien réceptionné onze mois plus tard. Mais ils ne l’ont toujours pas remis au Parlement, alors qu’ils étaient tenus de le faire avant le 24 novembre 2023. Pourquoi un tel retard ? « Ce rapport aurait été jugé trop militant », répond Laurent Lejard, rédacteur en chef du magazine en ligne consacré au #handicap Yanous ! et auteur d’une enquête sur le sujet https://www.yanous.com/news/focus/focus240105.html.
    Sollicité par Le Monde, le ministère du logement indique que, « à ce jour, le rapport n’a pas pu être finalisé et aboutir à une transmission formelle » et que, « au-delà de ce rapport, dont les délais sont échus, la ministre, Valérie Létard, sera attentive à la poursuite de l’évaluation sur ce dossier majeur, qui doit permettre de garantir l’#accessibilité des logements sans en impacter les prix, en particulier dans le contexte de crise actuelle ».

    Coûts de transformation

    Le Monde a pu consulter le document en question, qui dresse, sur 141 pages, un constat « plus que mitigé » : l’écart de prix de revient est estimé « proche de zéro » entre logements accessibles et évolutifs – alors que les partisans de la loi ELAN assuraient que ces derniers seraient moins coûteux ; en revanche, « les coûts de transformation d’un logement évolutif en logement accessible peuvent atteindre des montants très élevés », avec un coût moyen d’intervention estimé entre 8 000 et 13 000 euros hors taxes.

    Les auteurs de ce bilan ajoutent que ces coûts de transformation pèseront non seulement sur les budgets des ménages concernés, mais aussi sur la collectivité, puisque les ménages pourront solliciter différentes aides publiques. Ils minorent au passage un autre argument qui avait été invoqué pour réduire la part de logements accessibles : créer une salle de bains et des toilettes adaptées à l’utilisation par une personne en fauteuil roulant ne prend pas 8 mètres carrés sur les pièces de vie comme annoncé dans l’étude d’impact de la loi ELAN, mais plutôt 1 à 4 mètres carrés.

    Le rapport s’achève par six recommandations et dix mesures techniques « qui pourraient être mises en place immédiatement au service d’une véritable évolutivité du logement ». S’y ajoutent six propositions visant à substituer au concept de logement évolutif, « dont force est de constater qu’il n’est pas consensuel », le concept de « logement à usage universel ». Celui-ci comprendrait notamment une chambre accessible aux personnes en fauteuil roulant, c’est-à-dire d’une superficie d’au moins 11,5 à 12,5 mètres carrés. « Si nous voulons garantir ce droit à un logement habitable par tous, il est nécessaire, dans une démarche d’optimisation économique, d’investir un peu plus au moment de la construction pour réduire fortement les dépenses d’adaptation de demain et les rendre ainsi possibles pour tous », expliquent les auteurs.

  • Suivi du #droit_à_la_vie – Année #2024

    En 2024, 10 457 personnes sont mortes à la frontière occidentale euro-africaine.

    Notre rapport “Droit à la vie 2024” fait état de la période la plus meurtrière jamais enregistrée, avec des chiffres dévastateurs de 30 morts par jour en moyenne. Parmi les victimes figurent 421 femmes et 1 538 enfants et adolescents.

    La route de l’Atlantique, avec 9 757 morts, reste la plus meurtrière au monde. Les tragédies ont particulièrement augmenté sur la route mauritanienne, consolidant ce pays comme le principal point de départ vers les îles Canaries. La route algérienne, en mer Méditerranée, est la deuxième plus meurtrière selon nos registres, avec 517 victimes. Le #détroit_de_Gibraltar a coûté la vie à 110 personnes et 73 autres ont perdu la vie sur la #route_d’Alboran. En outre, 131 bateaux ont été perdus avec toutes les personnes à bord.

    L’omission du devoir de sauvetage et l’#externalisation des frontières et du sauvetage sont parmi les principales causes de l’augmentation du nombre de décès aux frontières de l’État espagnol

    Outre ces chiffres, le rapport Droit à la Vie 2024 dénonce les principales causes de cette augmentation des naufrages et des victimes. Parmi les causes principales, nous soulignons l’omission du devoir d’assistance, la priorisation du contrôle migratoire sur le droit à la vie, l’externalisation des frontières dans des pays sans ressources adéquates, l’inaction et l’arbitraire dans les sauvetages, la criminalisation des organisations sociales et des familles, ainsi que les situations d’extrême vulnérabilité qui poussent les migrants à se jeter à la mer dans des conditions très précaires.

    Les #femmes confrontées à la #violence_structurelle à la frontière

    Le rapport analyse également la situation des femmes lors des traversées migratoires, qui se font principalement dans des embarcations pneumatiques entre #Agadir et #Dakhla. En transit, ces femmes subissent des violences, des #discriminations, du #racisme, des #expulsions et des #violences_sexuelles, et sont contraintes de survivre dans des conditions extrêmes qui les poussent à la #mendicité, à la #prostitution et à des #emplois_précaires, tout en risquant d’être recrutées par des réseaux de trafiquants d’êtres humains.

    Un nombre croissant de femmes migrantes se déplacent en #pirogue depuis le #Sénégal, la #Gambie et la #Mauritanie pour échapper aux conflits et à l’impact du #changement_climatique dans les régions appauvries. On observe également une présence croissante de femmes sur la route des #Baléares en provenance d’Afrique centrale et occidentale, traversant la Libye et la Tunisie et subissant des violences, de l’#esclavage, des #féminicides raciaux et des #déplacements_forcés vers l’#Algérie.

    Le manque de protection des #enfants sur les routes migratoires

    Notre rapport fait état d’une augmentation du nombre d’enfants et d’adolescents sur les principales routes migratoires vers l’Espagne, qui continuent de souffrir d’un manque de protection et de garanties de la part des autorités. Ces mineurs sont traités comme des migrants plutôt que comme des enfants, et sont donc exposés au marketing politique et sont la cible de discours de haine, ce qui les expose à des situations dans lesquelles leurs droits sont violés.

    La situation est particulièrement critique aux #îles_Canaries, où des enfants non identifiés comme tels vivent avec des adultes dans des centres d’accueil, une réalité qui les expose à de graves dangers.

    Il reste difficile pour les familles de dénoncer et de rechercher leurs #enfants_disparus le long des routes migratoires

    Un autre aspect analysé dans le rapport Droit à la vie 2024 est la réalité des familles qui recherchent leurs proches #disparus à la frontière occidentale euro-africaine. Malgré quelques progrès dans la réception des plaintes et des exemples de bonnes pratiques, les obstacles à l’exercice de leurs droits restent nombreux, et les difficultés à prélever des échantillons d’ADN ou à déposer des plaintes sont particulièrement choquantes. Ces familles sont ainsi re-victimisées par un système qui les stigmatise et considère leurs proches comme des victimes de seconde zone. En l’absence de garanties pour l’exercice de leurs droits, les familles courent le risque de tomber entre les mains de bandes d’extorqueurs.

    Face à ces situations difficiles, les familles s’organisent en réseaux communautaires et se tournent vers la famille élargie pour surmonter les obstacles qui les empêchent de retrouver leurs proches. Chaque année, les familles à la recherche de leurs proches sont confrontées à un système de mort systématique aux frontières qui fait des milliers de victimes comme celles décrites dans ce rapport.

    https://caminandofronteras.org/fr/monitoreo/suivi-du-droit-a-la-vie-annee-2024
    #caminando_fronteras #rapport #route_Atlantique #Espagne #statistiques #chiffres #mourir_aux_frontières #morts_aux_frontières #migrations #réfugiés #identification #disparitions #missing

    ping @6donie

  • EDF réprime ceux qui alertent
    https://www.lemediatv.fr/articles/2024/edf-reprime-ceux-qui-alertent-yhqmEY10QIiGE9cSW4u4Ig

    Après une alerte sur des problèmes de sûreté, de corruption, de harcèlement ou de #Discriminations, des salariés d’EDF sont réprimés voire licenciés. Le Média en a rencontré une douzaine dont dix ont lancé des procédures judiciaires. Dans au moins trois…

    #Travail

  • Comme des Italiens en #Suisse (1/5) : La liberté en Suisse et ailleurs

    Les Italiens sont des millions à avoir émigré vers la Suisse, d’abord à la fin du 19ème siècle, puis dans un second mouvement après la Deuxième Guerre mondiale. Ils sont venus pour travailler, dans des conditions souvent très difficiles. Ils n’étaient pas les bienvenus, même si la Suisse avait besoin d’eux, notamment pour ses grands chantiers comme la construction du tunnel du Gothard, pour édifier sa modernité. Les Italiens et les Italiennes formaient d’ailleurs encore en 2023 la population étrangère la plus importante de Suisse.

    A la fin des années 1880, la Suisse connaît un tournant dans son histoire démographique : de pays d’émigration, elle devient un pays d’immigration. La Suisse évolue et devient un pays désirable, en premier lieu pour ses Italiens.

    Rosita Fibbi est sociologue affiliée au Forum suisse pour l’étude des migrations et de la population à l’université de Neuchâtel. Elle répond aux questions de Marie Giovanola.

    https://www.rts.ch/audio-podcast/2024/audio/comme-des-italiens-en-suisse-1-5-la-liberte-en-suisse-et-ailleurs-28688945.html
    #immigration #migrants_italiens #Italie #immigration #racisme #main-d'oeuvre
    #audio #podcast #surpopulation_étrangère #Überfremdung #politique_migratoire #saisonniers #émeutes #missions_catholiques #fanfare #police_fédérale_des_étrangers #travailleurs_étrangers #accord_migratoire #rotation_de_la_main-d'oeuvre #permis_saisonniers #rotation #histoire #humiliation #visite_médicale #screening_sanitaire #trauma #corps #nudité #marginalisation #montagne #hébergement #baraquements #conditions_de_vie #écart #périphérie #marginalisation_spatiale #industrie #stabilisation #regroupement_familial #permis_de_séjour #discriminations #enfants_du_placard #enfants_cachés #expulsions #Schwarzenbach #initiatives_Schwarzenbach #James_Schwarzenbach #initiative #colonies_libres #permis_de_séjour #naturalisation #votations

  • #Yéniches 1/5 - L’éternel bras de fer

    Près de 150 #caravanes de Yéniches parcourent les routes de #Suisse romande chaque année du mois de mars au mois d’octobre. Si ces semi-nomades aiment rouler, ils peinent par contre à trouver des places où s’installer. Petite virée un soir d’été avec une quinzaine de convois pour occuper de force un terrain communal dans l’Ouest lausannois.

    https://www.rts.ch/audio-podcast/2024/audio/yeniches-1-5-l-eternel-bras-de-fer-28674178.html

    #gens_du_voyage #Roms #aires_d'accueil #nomadisme #semi-nomadisme #Lausanne #Suisse_romande
    #audio #podcast

  • Les Algériens en #France. Une histoire de générations

    À l’automne 1983, la « #Marche_des_beurs » traverse la France. Les récits entrecroisés des origines et des trajectoires de trois de ses participants retracent l’histoire de l’immigration algérienne. Les Algériens, privés de #droits en situation coloniale, sont près de cent mille, dans l’entre-deux-guerres, à travailler en métropole. Dans les #baraquements du bassin minier du nord de la France, dans les usines de Vénissieux ou dans les #cafés-hôtels des #banlieues de la région parisienne ou de Marseille, une intense vie sociale, culturelle et politique se développe – sous la #surveillance étroite des autorités et le regard méfiant et souvent hostile des citoyens français. Engagés dans le combat ouvrier, ces hommes le sont aussi dans la #lutte pour l’#indépendance de leur pays, vers lequel ils projettent leur avenir.
    Quand éclate la #guerre_d'Algérie et que les #violences_policières s’abattent sur les militants, des #règlements_de_comptes sanglants entre les différents #mouvements_nationalistes déchirent la communauté, alors que débute parallèlement l’#immigration_familiale et que l’#exil, progressivement, s’enracine. Encore élevés dans l’idée du retour au pays, les enfants de l’immigration algérienne clament bientôt leur #appartenance à la France en témoignant à la fois des #souffrances de leurs parents et de l’#injustice faite à leur propre génération. En renouant les fils de l’histoire et de la #mémoire, les combats d’hier résonnent avec ceux d’aujourd’hui...

    https://www.editionsladecouverte.fr/les_algeriens_en_france-9782348079665
    #algériens #Algérie #immigrés_algériens #étrangers #immigration #histoire #communauté_algérienne
    #BD #bande-dessinée #livre

  • Les #algorithmes et l’#intelligence_artificielle contre les étrangers en Europe

    Si le Défenseur des droits n’est, pour l’instant, pas régulièrement saisi pour des situations mettant en cause l’usage des algorithmes et des systèmes de l’intelligence artificielle (IA), cette autorité administrative indépendante est toutefois attentive à leurs développements en France, comme au sein de l’Union européenne. Dans le sillage de la numérisation des services publics, le développement de l’IA à des fins de contrôle et de surveillance des personnes étrangères laisse, selon lui, craindre une fragilisation accrue de leurs droits fondamentaux contre laquelle la future législation européenne n’apportera visiblement pas toutes les garanties nécessaires.

    Le Défenseur des droits (DDD) est préoccupé par le déploiement des algorithmes et de l’intelligence artificielle (IA). L’institution s’est intéressée aux conséquences de la mise en place des nouvelles technologies, en particulier depuis 2018, en approfondissant les effets de la dématérialisation des services publics sur les usagers. Plusieurs rapports, avis [1] et décisions [2] du DDD ont été l’occasion de relever que les étrangers ont constitué l’un des premiers publics en France pour lequel la dématérialisation des démarches préfectorales a été mise en place de manière radicale et aveugle et ce, alors même que ces personnes se trouvent, la plupart du temps, dans des situations où elles cumulent les difficultés. En 2022, le Conseil d’État a exigé de l’administration qu’elle rétablisse, en parallèle du service proposé en ligne, un accueil physique pour la procédure de demande de titre de séjour, au regard du caractère particulièrement « complexe » et « sensible » de cette démarche. Il a considéré tout d’abord, que les usagers qui ne disposent pas d’un accès aux outils numériques, ou qui rencontrent des difficultés dans leur utilisation, doivent pouvoir être accompagnés. Ensuite, s’il apparaît que certains usagers sont dans l’impossibilité, malgré cet accompagnement, de recourir au téléservice, pour des raisons tenant à sa conception ou à son mode de fonctionnement, l’administration doit leur garantir une solution de substitution [3]. Ces conditions visent à prendre en compte les caractéristiques et situations particulières des étrangers demandant un titre de séjour, qui pourraient perdre le droit de se maintenir sur le territoire si leur demande n’était pas enregistrée. Force est de constater que la dématérialisation ne s’est pas faite au bénéfice des usagers.

    S’agissant du développement des algorithmes et des systèmes apprenants, on peut craindre que la technologie vienne fragiliser un peu plus les droits fondamentaux des étrangers, compte tenu du contexte européen et français de durcissement des politiques en matière d’asile, d’immigration et d’intégration [4]. À cet égard, on peut déjà relever que les personnes étrangères sont la cible de divers projets d’IA présentés comme toujours plus sophistiqués et systématiquement testés et déployés à des fins de contrôle et de surveillance.
    Algorithmes : des biais discriminatoires systématisés ?

    Peu de réclamations adressées au DDD visent ces nouveaux systèmes, opaques et encore rarement mis en cause, y compris au niveau européen. L’institution, en lien avec ses homologues européens membres du réseau Equinet et des partenaires nationaux dont la Commission nationale consultative des droits de l’Homme, se montre néanmoins attentive à leurs développements et à leurs risques inhérents.

    Des risques importants existent, liés aux biais discriminatoires* des algorithmes et au potentiel de systématisation des discriminations, du fait de l’usage grandissant de ces technologies.

    Les données mobilisées pour entraîner les systèmes algorithmiques peuvent en effet être biaisées lorsqu’elles sont la traduction mathématique des pratiques et comportements discriminatoires. Le risque d’amplifier, pour certains groupes sociaux, les discriminations systémiques opérant au sein de la société est avéré s’agissant des technologies biométriques [5]. En effet, elles ciblent le plus souvent les caractéristiques des individus qui les exposent à des discriminations (origine, sexe, identité de genre, apparence physique, état de santé, handicap, âge, etc.).
    Expérimentations aux frontières de l’Union européenne

    Dans le domaine des migrations, l’Union européenne (UE) finance, depuis 2016, un projet appelé iBorderCtrl, qui consiste à « tester de nouvelles technologies destinées à accroître l’efficacité de la gestion des contrôles aux frontières extérieures de l’Union [6] ». L’un des modules expérimentés a concentré les critiques : un détecteur de mensonges basé sur les émotions interprétées par une IA. Un douanier virtuel devait poser des questions et identifier les signaux non verbaux d’un mensonge en analysant les micro-expressions faciales du répondant. Selon les résultats, l’individu était redirigé soit vers les files d’attente rapides soit vers des contrôles poussés. Ce système a été testé aux frontières terrestres de l’UE en Hongrie, en Lettonie et en Grèce, et de nombreuses associations ont dénoncé une technologie hautement expérimentale visant des personnes en situation de grande vulnérabilité, ainsi que son manque de fiabilité (le système était crédité, en 2018, d’un taux de réussite autour de 75%, ce qui revient à considérer un quart des personnes concernées comme soupçonnées de mentir alors que ce n’est pas le cas) [7]. Dans la lignée des constats dressés s’agissant de la dématérialisation des services publics, on relève que ce sont là aussi des étrangers qui, sans être en situation de contester des procédures auxquelles ils doivent se soumettre, font l’objet du déploiement de technologies mises au service d’une politique et d’une rhétorique particulièrement dures.
    Biométrie : des droits fondamentaux fragilisés

    Dans son rapport Technologies biométriques : l’impératif respect des droits fondamentaux [8], le DDD a relevé les risques considérables d’atteintes aux droits et libertés que fait peser l’utilisation des systèmes automatisés reposant sur la biométrie, à commencer par le droit au respect de la vie privée et à la protection des données – questions qui relèvent en premier lieu du périmètre des compétences de la Commission nationale de l’informatique et des libertés (Cnil), avec laquelle l’institution collabore notamment sur les enjeux d’IA. En Italie, des technologies biométriques d’identification à distance ont été utilisées dans le cadre de la lutte contre l’immigration illégale : le système de reconnaissance faciale* SARI était déployé en temps réel pour identifier sur la voie publique les étrangers en situation irrégulière. Son utilisation a été interdite en 2021 par l’autorité italienne de protection des données [9].

    L’utilisation des technologies biométriques d’identification peut également avoir un effet dissuasif sur l’exercice de droits fondamentaux comme la liberté d’expression, celle d’aller et venir, la liberté d’association et plus largement l’accès aux droits. Le fait que ces technologies fonctionnent souvent à l’insu des personnes concernées tend à dissuader ces dernières d’exercer leurs droits, et cela indépendamment du niveau de déploiement, la crainte de la surveillance suffisant pour affecter notre comportement. Dans le domaine des migrations, l’effet dissuasif des technologies biométriques se traduit également par un risque d’exclusion, en particulier pour les personnes issues de groupes particulièrement discriminés. L’utilisation de technologies biométriques, de par leur effet dissuasif [10], peut priver les réfugiés et demandeurs d’asile de l’accès aux services de base essentiels.
    Les dangers des décisions administratives générées par l’IA

    Un autre risque identifié est lié à l’automatisation, explicite ou de fait, des décisions administratives individuelles. Le cadre légal, à savoir la loi « informatique et libertés » et le code des relations entre le public et l’administration, autorise, par exception et en dehors de la sphère pénale, l’automatisation intégrale tout en l’encadrant. Par principe, la réglementation relative à la protection des données personnelles exclut qu’une personne physique puisse faire l’objet d’une décision entièrement automatisée qui « produit des effets juridiques » ou l’affecte « de manière significative ». Des exceptions existent néanmoins. Dès lors, quand la décision est prise de façon entièrement automatisée, les garanties prévues sont-elles réellement appliquées ? Et quand la décision ne peut pas, légalement, reposer sur un procédé entièrement automatisé, quelle est réellement la substance de l’intervention humaine dans un contexte de traitement en masse des dossiers par algorithmes ? Ces questions font écho aux enjeux de la motivation de ces décisions et de l’effectivité du droit au recours.

    À l’heure de la numérisation et de l’« algorithmisation de l’administration [11] », ces problématiques irriguent, en France, les différentes sphères administratives, telle l’éducation, avec par exemple Affelnet et Parcoursup, et la gestion des prestations sociales et le contrôle des allocataires par la Caisse nationale des allocations familiales (Cnaf). Elles touchent aussi les personnes étrangères.

    Au Royaume-Uni, le Home Office, le ministère de l’intérieur britannique, était mis en cause en 2023 pour son utilisation, depuis 2019, d’un algorithme de détection des faux dans les demandes de mariage impliquant une personne non britannique et n’ayant pas de statut établi suffisant ou de visa valide, et ce, afin d’accélérer les enquêtes et de réduire les coûts [12]. L’évaluation des couples se fondait sur huit facteurs, dont la différence d’âge au sein du couple. Ceux signalés par l’algorithme faisaient l’objet d’une enquête approfondie, pouvant conduire les autorités à demander des documents prouvant l’authenticité de la relation. Selon le Home Office, la nationalité n’était pas prise en compte par l’algorithme, mais une évaluation, communiquée à l’association Public Law Project, montre que les personnes de nationalités bulgare, grecque, roumaine et albanaise étaient plus susceptibles d’être identifiées par l’algorithme. Ce dernier se révèle donc indirectement discriminatoire à l’égard des personnes sur la base de la nationalité.

    En France, un fonctionnaire du ministère de l’intérieur a utilisé un outil d’IA générative* pour examiner une demande de visa déposée par une jeune femme afghane se trouvant en Iran [13]. Il s’agissait a priori d’une initiative personnelle, donc hors du cadre de l’expérimentation gouvernementale sur « l’intelligence artificielle au service de l’amélioration de la qualité des services publics », lancée à l’automne 2023, qui prévoit bien l’usage de l’IA dite « générative » (qui produit par exemple du texte) en matière d’aide à la rédaction de réponses aux avis des usagers sur la plateforme Services Publics +. Les prolongements de cette expérimentation devront être scrutés de près en tant qu’ils concernent les droits des usagers du service public et d’éventuelles discriminations.
    Le projet de règlement de l’UE sur l’IA

    Au regard des risques identifiés, le DDD est intervenu à plusieurs reprises dans le cadre de l’élaboration du projet de règlement sur l’IA porté par l’UE pour appeler à la nécessaire prise en compte des droits fondamentaux et du principe de non-discrimination.

    Schématiquement, ce futur « AI Act » est conçu selon une approche par les risques. Sont interdits les systèmes d’IA présentant un risque inacceptable, tel le « score social » par lequel un système d’IA est utilisé pour « classer les personnes physiques en fonction de leur comportement, de leur statut économique, de leurs caractéristiques personnelles » avec, à la clef, un traitement préjudiciable ou défavorable [14]. Le futur règlement vise aussi à imposer des contraintes aux fournisseurs et utilisateurs de systèmes d’IA « à haut risque » et à ne soumettre les autres systèmes qu’à des obligations d’information. Dans ce cadre, certains systèmes d’IA utilisés pour la gestion de la migration, de l’asile et des contrôles aux frontières ont été inscrits dans la catégorie « à haut risque » dans les projets de réglementation. On y trouve notamment « les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes […] pour les assister dans l’examen des demandes d’asile, de visa et de permis de séjour ainsi que les réclamations connexes, dans le but de vérifier l’éligibilité des personnes physiques qui demandent un statut, y compris pour évaluer la fiabilité des preuves » ou « les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes pour évaluer des risques, y compris un risque de sécurité, un risque de migration irrégulière […] posé par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre [15] ».

    L’enjeu de la catégorisation dans les systèmes d’IA « à haut risque » réside dans le respect d’obligations telles que d’assurer un système de gestion des risques, de contrôler la qualité des données, de respecter la transparence et fournir l’information aux utilisateurs, de prévoir une surveillance humaine, ou encore de garantir la précision, la robustesse, la conformité et la sécurité du système ainsi que les actions correctrices nécessaires.

    Certaines des demandes formulées par le DDD [16] avec ses homologues européens et nationaux, et soutenues par plusieurs organisations de la société civile, ont été prises en compte, en particulier la possibilité pour toute personne physique ou morale considérant que ladite réglementation a été violée, de déposer une plainte auprès de l’autorité nationale chargée de son application. D’autres, en revanche, n’ont pas été suivies d’effet : de larges exceptions sont ainsi prévues concernant l’utilisation de systèmes biométriques pour identifier des personnes en temps réel dans l’espace public, ce qui exigera nécessairement une attention particulière au moment du déploiement de ces systèmes, au regard des risques exposés.

    Il convient de relever enfin que ce futur « AI Act » et les garanties qu’il offrira, ne s’appliqueront qu’à certains systèmes d’IA mis sur le marché, en service, ou dont les résultats sont utilisés dans le territoire de l’UE. Or des systèmes de reconnaissance faciale et d’autres systèmes de surveillance de masse ont été développés et vendus par des entreprises installées dans l’UE (et en particulier en France, en Suède et aux Pays-Bas), et déployés dans des lieux comme les territoires palestiniens occupés ou la Chine, où ils ont été utilisés pour opprimer davantage des groupes et communautés déjà marginalisés [17]. Il serait, en outre, difficile de conclure sans mentionner que les « travailleurs et travailleuses du clic », chaînon indispensable à la fabrication des systèmes d’IA [18] dans l’UE (pour l’annotation des données, par exemple), dont la rémunération à la tâche est très faible [19], font l’objet d’une sous-traitance et d’une externalisation massive dans certains pays pauvres.

    [1] DDD, Dématérialisation et inégalités d’accès aux services publics, 2019 ; Dématérialisation des services publics : trois ans après, où en est-on ?, 2022. Voir aussi l’avis 21-03 du 28 avril 2021 relatif aux moyens consacrés par les préfectures à l’instruction des demandes de titres de séjour.

    [2] DDD, décision n° 2020-142 du 10 juillet 2020.

    [3] CE, 3 juin 2022, n° 452798. Voir les observations portées par le DDD dans le cadre de ce dossier à la demande du CE (24 février 2022, n° 2022-061).

    [4] DDD, avis 23-07 du 24 novembre 2023 relatif au projet de loi pour contrôler l’immigration, améliorer l’intégration.

    [5] DDD-Cnil, Algorithmes : prévenir l’automatisation des discriminations, 2020.

    [6] CJUE, affaire C-135/22 P, arrêt du 7 septembre 2023.

    [7] Eleftherios Chelioudakis, « Greece : Clarifications sought on human rights impacts of iBorderCtrl », EDRI, 21 novembre 2018 ; « Des détecteurs de mensonge expérimentés aux frontières extérieures de l’Europe », Le Monde, 31 août 2019.

    [8] DDD, Technologies biométriques : l’impératif respect des droits fondamentaux, 2021.

    [9] Avis de l’autorité italienne de protection des données sur le système SARI Real Time, 25 mars 2021.

    [10] Rapport de Tendayi Achiume, Rapporteuse spéciale sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l’intolérance qui y est associée, 10 novembre 2020.

    [11] Boris Barraud, « L’algorithmisation de l’administration », Revue Lamy Droit de l’immatériel, n° 150, 2018.

    [12] « Legal action launched over sham marriage screening algorithm », BBC News, 17 février 2023.

    [13] « Darmanin laisse l’intelligence artificielle juger le droit d’asile », Le Canard enchaîné, 4 octobre 2023.

    [14] « Loi sur l’IA de l’UE : première réglementation de l’intelligence artificielle », Parlement européen, 9 juin 2023. Une telle définition fait penser au système de « crédit social » à la chinoise : voir Emmanuel Dubois de Prisque, « Le système de crédit social chinois. Comment Pékin évalue, récompense et punit sa population », Futuribles, n° 434, 2020.

    [15] EU Council, Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts – Analysis of the final compromise text with a view to agreement, ST 5662 2024 INIT – NOTE, 26 janvier 2024 (traduction de l’auteure).

    [16] DDD, « Intelligence artificielle : la Défenseure des droits appelle à garantir le droit de la non-discrimination dans les discussions européennes », 28 septembre 2023 et « Règlement européen sur l’intelligence artificielle : la Défenseure des droits et la CNCDH, en lien avec leurs homologues européens, appellent à la nécessaire prise en compte des droits fondamentaux et du principe de non-discrimination », 29 novembre 2023.

    [17] Amnesty International, EU’s AI Act and Human Rights, octobre 2023.

    [18] Voir Antonio Casilli « Digital Labor : travail, technologies et conflictualités », La revue des médias, 7 septembre 2015.

    [19] En 2023, un sous-traitant d’OpenAI avait payé moins de deux dollars de l’heure des personnes au Kenya pour « nettoyer » ChatGPT de ses contenus les plus toxiques, voir « Exclusive : OpenAI Used Kenyan Workers on Less Than $ 2 Per Hour to Make ChatGPT Less Toxic », Time, 18 janvier 2023.

    https://www.gisti.org/spip.php?article7245
    #migrations #AI #IA #réfugiés #contrôles_frontaliers #frontières #biométrie #droits_fondamentaux #droits_humains #discriminations #biais #expérimentation

  • Le WEF et son fondateur ( #klaus_schwab ) accusés d’entretenir une atmosphère de travail toxique RTS

    Le fondateur du Forum économique mondial (WEF) de davos klaus schwab aurait laissé couver une atmosphère de travail hostile où certaines catégories d’employés sont maltraités, affirme le Wall Street Journal dans une longue enquête. Les accusations se basent sur plusieurs dizaines de témoignages.

    Le quotidien américain met directement en cause le fondateur du WEF Klaus Schwab. Dans son enquête https://www.wsj.com/business/world-economic-forum-klaus-schwab-discrimination-harassment-de285594?mod=Search publiée le 29 juin dernier, le Wall Street Journal explique notamment qu’il se serait un jour mis en tête de rajeunir ses effectifs. Il aurait alors ciblé quelques employés dans la cinquantaine et aurait demandé à un responsable RH, Paolo Gallo, de les licencier.


    Ce dernier aurait refusé, soulignant qu’il fallait une raison valable pour renvoyer quelqu’un. Peu de temps après ce refus, Paolo Gallo aurait lui-même été licencié par klaus schwab.

    Atmosphère « hostile aux femmes et aux Noirs »
    Le Wall Street Journal dit avoir interviewé 80 collaboratrices et collaborateurs, anciens et actuels, de l’institution basée à Genève. Beaucoup dénoncent une atmosphère de travail « toxique » et « hostile aux femmes et aux Noirs », que klaus schwab aurait laissée se développer.

    Des femmes auraient vu leur carrière stagner à leur retour de congé maternité. Certaines auraient même été rétrogradées ou poussées vers la sortie. Elles dénoncent également des cas de harcèlement de la part de leurs collègues ou d’invités du Forum de Davos. klaus schwab lui-même serait responsable de nombreux commentaires déplacés.

    Plusieurs cas de racisme ont aussi été relevés. Certains termes injurieux auraient été utilisés en présence de collaboratrices noires. D’autres affirment ne pas avoir été considérés pour des promotions et ne pas avoir été conviés à Davos en raison de leur couleur de peau.

    Selon les personnes interrogées par le Wall Street Journal, les dénonciations de ces cas n’ont jamais abouti. Certaines personnes ayant déposé plainte auprès des ressources humaines se seraient vues licenciées peu après.

    Double discours
    Le journal pointe du doigt le double discours de Klaus Schwab et la dissonance entre les valeurs affichées par le Forum de Davos, dont l’une des missions est « d’améliorer l’état du monde », et les situations de discrimination relevées par ses employés. Le WEF prône en effet la diversité, l’équité et l’inclusion.

    Source : https://www.rts.ch/info/economie/2024/article/le-wef-et-son-fondateur-accuses-d-entretenir-une-atmosphere-de-travail-toxique-2

    #conditions_de_travail #capitalisme #politique #harcèlement #violence #racisme #discriminations #davos

  • Les territoires des émeutes
    https://laviedesidees.fr/Les-territoires-des-emeutes

    Le haut niveau de #ségrégation urbaine constitue le meilleur prédicteur des violences. La différence la plus marquante entre 2023 et 2005 est l’entrée en scène des villes petites et moyennes, où les adolescents de cités d’habitat social s’identifient aux jeunes des banlieues de grandes métropoles.

    #Société #jeunesse #banlieue #révolte #urbanisme #gilets_jaunes
    https://laviedesidees.fr/IMG/pdf/20240412_emeutes.pdf

    • Conclusion

      Le retour sur les émeutes de #2005 a permis de mettre en évidence à la fois des continuités et des changements par rapport à celles de #2023. Si de façon générale, les communes les plus défavorisées ont de plus fortes probabilités de connaître des émeutes, c’est surtout la ségrégation des situations sociales les plus précaires et des immigrés dans des quartiers spécifiques (#QPV) qui apparaît comme un élément de contexte crucial. À profil social et urbain équivalent, avoir un QPV augmente de façon très significative la probabilité de connaître des émeutes. De plus, cette #ségrégation_sociale et ethnique s’accompagne d’une forte #ségrégation_scolaire dont nous avons pu mesurer également l’impact : plus elle est importante, plus les émeutes sont intenses et violentes.

      Les quartiers en question sont ceux directement concernés par la #politique_de_la_ville (QPV, #PNRU, #NPNRU) depuis plusieurs décennies. Si des changements sont indiscutables sur le plan de l’amélioration du cadre de vie des habitants et plus particulièrement des #conditions_de_logement, un grand nombre de ces quartiers continuent de concentrer une large part de la jeunesse populaire d’origine immigrée, celle la plus touchée par la #relégation, les #discriminations et les #violences_policières, et donc celle aussi la plus concernée par les émeutes. Si la #mixité_sociale et ethnique s’est sensiblement améliorée dans certains quartiers, d’autres demeurent des espaces de très forte #homogénéité_sociale et ethnique, que l’on retrouve dans les #écoles et les #collèges. Ceux où les interventions de l’#ANRU ont été moins intenses ont même vu le nombre de ménages pauvres augmenter. En Île-de-France, la quasi-totalité des communes qui avaient connu des émeutes en 2005, pourtant concernées par la politique de la ville, en ont connu également en 2023.

      Notre approche socio-territoriale met d’autant plus en évidence les limites d’une analyse au niveau national, que les émeutes de 2023 se sont diffusées dans un plus grand nombre de petites villes et villes moyennes auparavant moins touchées par ces événements. Cette plus grande diversité territoriale est frappante lorsque l’on compare les banlieues des très grandes métropoles, à commencer par les banlieues parisiennes, aux #petites_villes et #villes_moyennes. Le poids du #logement_social, de l’immigration, la suroccupation des logements, le niveau de #pauvreté, mais aussi la façon dont ces dimensions se rattachent aux #familles_monoparentales et nombreuses, renvoient à des réalités différentes. Pourtant, dans tous les cas, la ségrégation joue un rôle déterminant.

      Cette approche contextuelle ne suffit pas à expliquer l’ensemble des mécanismes sociaux à l’œuvre et ce travail devra être complété à la fois par des analyses plus fouillées et qualitatives, ciblées sur les réseaux sociaux, la police et les profils des protagonistes, mais aussi des études de cas renvoyant aux différentes configurations socio-territoriales. Des études qualitatives locales devraient permettre de mieux comprendre comment, dans les différents contextes, les dimensions sociales et ethno-raciales interagissent lors des émeutes. Cela permettrait par exemple de mieux saisir l’importance de la mémoire des émeutes dans les quartiers populaires des banlieues des grandes métropoles, sa transmission et le rôle des réseaux militants et associatifs. Dans le cas des petites villes et des villes moyennes, la comparaison avec le mouvement des Gilets jaunes apporte un éclairage particulièrement intéressant sur l’intersection et la différenciation des formes que peuvent prendre la colère sociale et le ressentiment.

      #émeutes #violence #villes #urban_matter #violences_urbaines #banlieues #ségrégation_urbaine #violences #statistiques #chiffres

  • ’Entre-soi’, ’omerta’, ’défaillances systémiques’... Le rapport de la #commission_d'enquête étrille le fonctionnement du monde sportif | LCP - Assemblée nationale
    https://www.lcp.fr/actualites/entre-soi-omerta-defaillances-systemiques-le-rapport-de-la-commission-d-enquete-

    Dans ce document de plus de 260 pages, que LCP a pu consulter avant sa présentation en conférence de presse mardi à l’Assemblée nationale, la rapporteure Sabrina Sebaihi (Ecologiste) dresse un portrait accablant de l’univers du #sport_français, pointant l’"omerta" et l’opacité qui y ont régné, et y règnent parfois encore, aussi bien concernant les affaires ayant trait aux #violences_sexuelles et psychologiques, aux phénomènes discriminatoires, ou encore à la #gestion_financière parfois hasardeuse des fédérations. Elle confirme d’ailleurs avoir fait face à des « difficultés » pour obtenir des documents auprès de certaines instances, un phénomène « symptomatique », selon elle, du « défaut de #culture_démocratique » qui gangrène les instances sportives.

    De même, la rapporteure déplore les nombreux « mensonges, inexactitudes, approximations, expressions de déni et de désinvolture » auxquels les députés ont été confrontés au cours de leurs auditions. Résultat, pas moins de 7 signalements à la justice pour de possibles parjures ont été effectués à la suite des quelque 92 auditions menées.

    #discriminations

    Le rapport parlementaire : https://www.assemblee-nationale.fr/dyn/16/rapports/cefedespo/l16b2012-ti_rapport-enquete.pdf

  • Le #règlement européen sur l’IA n’interdira pas la #surveillance_biométrique de masse

    Le 8 décembre 2023, les législateurs de l’#Union_européenne se sont félicités d’être parvenus à un accord sur la proposition de #règlement tant attendue relative l’intelligence artificielle (« #règlement_IA »). Les principaux parlementaires avaient alors assuré à leurs collègues qu’ils avaient réussi à inscrire de solides protections aux #droits_humains dans le texte, notamment en excluant la #surveillance_biométrique_de_masse (#SBM).

    Pourtant, malgré les annonces des décideurs européens faites alors, le règlement IA n’interdira pas la grande majorité des pratiques dangereuses liées à la surveillance biométrique de masse. Au contraire, elle définit, pour la première fois dans l’#UE, des conditions d’utilisation licites de ces systèmes. Les eurodéputés et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.

    L’UE entre dans l’histoire – pour de mauvaises raisons

    La coalition #Reclaim_Your_Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquées de par leur conception, et qu’elles n’ont pas leur place dans une société démocratique. La police et les autorités publiques disposent déjà d’un grand nombre de données sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos #visages et nos #corps sur simple pression d’un bouton.

    Pourtant, malgré une position de négociation forte de la part du Parlement européen qui demandait l’interdiction de la plupart des pratiques de SBM, très peu de choses avaient survécu aux négociations du règlement relatif à l’IA. Sous la pression des représentants des #forces_de_l’ordre, le Parlement a été contraint d’accepter des limitations particulièrement faibles autour des pratiques intrusives en matière de SBM.

    L’une des rares garanties en la matière ayant apparemment survécu aux négociations – une restriction sur l’utilisation de la #reconnaissance_faciale a posteriori [par opposition à l’utilisation en temps réel] – a depuis été vidée de sa substance lors de discussions ultérieures dites « techniques » qui se sont tenues ces dernière semaines.

    Malgré les promesses des représentants espagnols en charge des négociations, qui juraient que rien de substantiel ne changerait après le 8 décembre, cette édulcoration des protections contre la reconnaissance faciale a posteriori est une nouvelle déception dans notre lutte contre la #société_de_surveillance.

    Quel est le contenu de l’accord ?

    D’après ce que nous avons pu voir du texte final, le règlement IA est une occasion manquée de protéger les #libertés_publiques. Nos droits de participer à une #manifestation, d’accéder à des soins de #santé_reproductive ou même de nous asseoir sur un #banc pourraient ainsi être menacés par une surveillance biométrique omniprésente de l’#espace_public. Les restrictions à l’utilisation de la reconnaissance faciale en temps réel et a posteriori prévues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privées ni aux autorités administratives.

    Nous sommes également déçus de voir qu’en matière de « #reconnaissance_des_émotions » et les pratiques de #catégorisation_biométrique, seuls des cas d’utilisation très limités sont interdits dans le texte final, avec d’énormes lacunes.

    Cela signifie que le règlement IA autorisera de nombreuses formes de reconnaissance des émotions – telles que l’utilisation par la police de systèmes d’IA pour évaluer qui dit ou ne dit pas la #vérité – bien que ces systèmes ne reposent sur aucune base scientifique crédible. Si elle est adoptée sous cette forme, le règlement IA légitimera une pratique qui, tout au long de l’histoire, a partie liée à l’#eugénisme.

    Le texte final prévoit également d’autoriser la police à classer les personnes filmées par les caméras de #vidéosurveillance en fonction de leur #couleur_de_peau. Il est difficile de comprendre comment cela peut être autorisé étant donné que la législation européenne interdit normalement toute #discrimination. Il semble cependant que, lorsqu’elle est pratiquée par une machine, les législateurs considèrent de telles #discriminations comme acceptables.

    Une seule chose positive était ressorti des travaux techniques menés à la suite des négociations finales du mois de décembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait à la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face » ait réclamé des règles encore plus strictes en la matière, cela constituait un progrès significatif par rapport à la situation actuelle, caractérisée par un recours massif à ces pratiques par les États membres de l’UE.

    Il s’agissait d’une victoire pour le Parlement européen, dans un contexte où tant de largesses sont concédées à la surveillance biométrique. Or, les négociations menées ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement à accepter de supprimer cette limitation aux #crimes_transfrontaliers graves tout en affaiblissant les garanties qui subsistent. Désormais, un vague lien avec la « #menace » d’un crime pourrait suffire à justifier l’utilisation de la #reconnaissance_faciale_rétrospective dans les espaces publics.

    Il semblerait que ce soit la #France qui ait mené l’offensive visant à faire passer au rouleau compresseur notre droit à être protégés contre les abus de nos données biométriques. À l’approche des #Jeux_olympiques et paralympiques qui se tiendront à Paris cet été, la France s’est battue pour préserver ou étendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systèmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux négociateurs du Parlement n’ont pas réussi à la contrer dans cette démarche.

    En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous #surveillance_algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.

    https://www.laquadrature.net/2024/01/19/le-reglement-europeen-sur-lia-ninterdira-pas-la-surveillance-biometriq
    #surveillance_de_masse #surveillance #intelligence_artificielle #AI #IA #algorithme

    voir aussi :
    https://seenthis.net/messages/1037288