• À #France_Travail, l’essor du #contrôle_algorithmique

    « #Score_de_suspicion » visant à évaluer l’honnêteté des chômeur·ses, « #score_d’employabilité » visant à mesurer leur « #attractivité », algorithmes de #détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les #expérimentations de #profilage_algorithmique des personnes sans emploi.

    Mise à jour du 12 juillet 2024 : le directeur général de France Travail a souhaité utiliser son droit de réponse. Vous la trouverez à la suite de l’article.

    Après avoir traité de l’utilisation par la #CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-#Pôle_Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de #numérisation_forcée du #service_public de l’#emploi.

    –-> Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab : https://git.laquadrature.net/la-quadrature-du-net/algo-et-controle.

    Au nom de la « #rationalisation » de l’action publique et d’une promesse « d’#accompagnement_personnalisé » et de « #relation_augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette #automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de #surveillance_de_masse visant à un #contrôle_social toujours plus fin et contribuant à une #déshumanisation de l’accompagnement social.

    De la CAF à France Travail : vers la multiplication des « scores de suspicion

    C’est, ici encore, au nom de la « #lutte_contre_la_fraude » que fut développé le premier algorithme de #profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’#honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants » [1], France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à #Cap_Gemini, une multinationale du CAC40 [2].

    La #notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un « score de suspicion » – dans le texte – visant à détecter les chômeur·ses les plus susceptibles « d’#escroquerie » grâce à l’exploitation de « #signaux_faibles » [3]. Une fois l’ensemble des personnes sans emploi notées, un système d’« #alertes » déclenche ainsi des #contrôles lorsque l’algorithme détecte des situations « suspectes » (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée) [4].

    Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du #RGPD [5]. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

    On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos #données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la #surveillance_numérique à l’œuvre, tout comme les risques de #discriminations que ce système comporte [6].

    #Profilage_psychologique et gestion de masse

    Fort de ce premier « succès », France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme #Intelligence_Emploi [7]. Son ambition affichée est de mettre l’#intelligence_artificielle « au service de l’emploi » pour « révéler à chaque demandeur d’emploi son #potentiel_de_recrutement » [8].

    Un des axes de travail retient notre attention : « Accélérer l’accès et le retour à l’emploi [via un] #diagnostic “augmenté” pour un accompagnement plus personnalisé ». Ici, l’#IA doit permettre de d’« augmenter la capacité de diagnostic » relative aux « traitements des aspects motivationnels » via la « détection de signaux psychologiques » [9]. En son sein, deux cas d’usage retenus sont particulièrement frappants.

    Le premier est le développement d’algorithmes visant à « anticiper les éventuels #décrochages », prévenir les « #risques_de_rupture » [10] ou encore « détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité » [11].

    Ces travaux ont trouvé, au moins en partie [12], un premier aboutissement dans l’outil du #Journal_de_la_Recherche_d’Emploi (#JRE) actuellement expérimenté dans plusieurs régions de France [13]. Le JRE assigne à chaque incrit·e quatre scores de « profilage psychologique » visant respectivement à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de #redynamisation » ou les « risques de dispersion » [14].

    Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord. « Parcours à analyser », « Situations à examiner », « Dynamique de recherche faible » : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un « #diagnostic_de_situation » – via l’interface numérique – afin d’« adapter l’intensité » des « actions d’accompagnement ». Et là encore, ils et elles peuvent s’appuyer sur des « #conseils_personnalisés » générés par un dernier algorithme [15].

    Contrôle, #mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle « l’accompagnement sur mesure de masse » [16].

    Diagnostic et score d’#employabilité

    Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la « qualité » d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son « employabilité » [17]. Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle [18] – a été développée en 2021 [19].

    L’algorithme alloue à chaque inscrit·e un score prédisant ses « chances de retour à l’emploi ». Véritable outil automatique de #tri des chômeur·ses, il vise à organiser la « #priorisation des actions d’accompagnement » [20] en fonction d’un supposé #degré_d’autonomie de la personne sans emploi.

    Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la « progression de la #recherche_d’emploi » via les actions entreprises pour améliorer « l’attractivité [de leur] profil » [21]. Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

    Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les « #métiers_en_tension », dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une #réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

    Agenda partagé & agences virtuelles

    Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface « #XP_RSA » [22], l’outil numérique déployé dans le cadre de la récente réforme du #RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt « #heures_d’activité » hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le #flicage des plus précaires.

    Côté IA, France Travail a lancé en 2024 le programme « #Data_IA » [23], successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’« innovation technologique » VivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une #IA_générative visant à numériser l’accompagnement et la #recherche_d’emploi (« #Match_FT ») [24]. France Travail s’intéresse aussi aux « #maraudes_numériques » pour « remobiliser les jeunes les plus éloignés de l’emploi » [25] et au développement d’« #agences_virtuelles » [26].

    #Austérité, automatisation et #précarisation

    La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de « fraude », de « dispersion », de « perte de confiance », suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes [27]. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi [28].

    À l’heure où Gabriel Attal annonce une énième réforme de l’assurance-chômage passée en force alors que l’Assemblée nationale est dissoute, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des #conditions_de_travail toujours plus dégradées [29].

    Loin des promesses de « libérer du temps pour les conseillers » ou d’offrir un accompagnement « plus réactif et plus personnalisé » [30] aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’#exclusion des plus précaires, voire tend à une généralisation du #non-recours_aux_droits. Il ne s’agit pas d’idéaliser le traitement « au guichet », mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge [31].

    En standardisant les processus d’accompagnement, via la #quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé [32].

    En facilitant le contrôle généralisé, elle accentue enfin la #stigmatisation des plus précaires et participe activement à leur #paupérisation.

    –-

    Mise à jour du 12 juillet 2024

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, a souhaité exercer son droit de réponse que nous publions ci-dessous in extenso.

    « Madame, Monsieur,

    Je reviens vers vous suite à mon précédent courrier du 2 juillet.

    Bien que le délai de 3 jours prévu à l’article 1.1-III de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique soit aujourd’hui expiré, je constate que le droit de réponse qui vous a été adressé n’a pas été publié. Pour rappel, le non-respect de cette obligation est passible d’une amende de 3 750 €.

    Aussi, je réitère par la présente ma demande de publication d’un droit de réponse suite à la parution le 25 juin 2024 de l’article intitulé « A France Travail, l’essor du contrôle algorithmique » (librement accessible à l’adresse : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique).

    Dans cet article, vous évoquez un « service public de l’emploi largement automatisé », ainsi qu’une utilisation des algorithmes qui « contribue à la déshumanisation d’un service essentiel », favorise « la stigmatisation des plus précaires et participe activement à leur paupérisation » et constitue « un pas supplémentaire vers le flicage des plus précaires ». Il s’agirait d’une « extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social », cette « numérisation à marche forcée ser[van]t avant tout à contrôler les personnes sans emploi ». Vous faites également état de « la fermeture des points d’accueil ».

    Nous nous inscrivons en faux contre ces propos erronés qui conduisent à jeter un discrédit sur le travail des plus de 55 000 collaborateurs qui accompagnent chaque jour les demandeurs d’emploi et les entreprises et à travestir la réalité concernant l’usage que nous faisons de ces algorithmes.

    L’utilisation des algorithmes au sein de France Travail ne vise en aucun cas à remplacer le travail des conseillers. L’intelligence artificielle (IA) vient en complément et ne se substitue jamais à une intervention humaine. Au contraire, nous concevons les algorithmes et l’IA comme des outils d’aide à la décision pour les conseillers ou un moyen de leur libérer du temps administratif afin de leur permettre de se consacrer pleinement à l’accompagnement des demandeurs d’emploi.

    Toute utilisation d’algorithmes est en outre encadrée par une charte éthique (https://www.francetravail.org/accueil/communiques/pole-emploi-se-dote-dune-charte-pour-une-utilisation-ethique-de-linte) qui décrit nos engagements pour garantir un cadre de confiance respectueux des valeurs de France Travail, à l’opposé de toute « notation de chômeurs » que vous pointez dans votre article. Un comité d’éthique externe composé de personnalités qualifiées garantit le respect de ce cadre. En aucun cas, les algorithmes ne sont utilisés pour « encourager les demandeurs d’emploi à accepter des emplois au rabais ».

    Concernant la « mécanisation » ou la « déshumanisation » de l’accompagnement que vous avancez, c’est méconnaitre le travail que réalisent les conseillers quotidiennement dans plus de 900 agences ou par téléphone. Aucun projet de fermeture d’agence n’est d’ailleurs envisagé contrairement à ce que vous dites et France Travail est un des rares services publics à être ouvert tous les jours, sur flux le matin et sur rendez-vous l’après-midi. Plus de 8,8 millions de personnes sont venues dans nos agences l’année dernière. Cet accueil en agence reflète justement notre politique de proximité et d’accompagnement notamment des plus précaires. L’ambition de la loi pour le plein emploi est en outre de renforcer l’accompagnement humain des plus éloignés, en particulier des bénéficiaires du RSA.

    Vous parlez enfin de « flicage des plus précaires » à travers l’utilisation d’algorithmes concernant le contrôle de la recherche d’emploi et la lutte contre la fraude. Il convient tout d’abord de souligner que ce sont deux activités distinctes, le contrôle de la recherche d’emploi ne saurait être assimilé à de la lutte contre de la fraude, qui est, par définition, une activité illégale et susceptible de poursuites pénales. Sur ce dernier point, l’utilisation des données dans la lutte contre la fraude vise avant tout à protéger nos usagers. En effet, la majorité des situations recherchées par les équipes de France Travail ne concerne pas des demandeurs d’emploi mais des individus qui détournent les services d’indemnisation du chômage, bien souvent au préjudice de nos usagers : usurpation d’identité des demandeurs d’emploi pour s’approprier leurs droits à l’assurance chômage ou détourner leurs paiements, individus se fabricant un faux passé professionnel ou une fausse résidence en France pour ouvrir des droits indus. Concernant le contrôle de la recherche d’emploi, là encore nous réfutons vivement l’idée selon laquelle nous mènerions une chasse aux plus précaires. Tout demandeur d’emploi inscrit à France Travail bénéficie de droits mais a également des devoirs qui lui sont présentés dès son inscription, dont celui de rechercher activement un emploi. 600 conseillers sont dédiés à ce contrôle et là encore, l’IA est un outil d’aide et en aucun la pierre angulaire des contrôles réalisés par ces conseillers en contact avec les demandeurs d’emploi tout au long de ce processus de contrôle. Là encore votre article méconnaît le travail de nos conseillers et constitue une atteinte à leur engagement et à leur intégrité.

    Je vous remercie de publier sans délai ce droit de réponse. A défaut, je me réserve la possibilité de saisir les juridictions à cet effet.

    Je vous prie d’agréer, Madame, Monsieur, l’expression de mes sincères salutations.

    Thibaut Guilluy »

    Notre réponse :

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, nous a initialement écrit pour faire des remarques d’ordre général sur notre article. Puis, dans une nouvelle lettre reçue aujourd’hui, il est subitement passé aux menaces : nous n’aurions, selon lui, pas fait droit à sa prétendue « demande de publication d’un droit de réponse ». Ces menaces sont particulièrement malvenues et, au demeurant, totalement vaines, puisque rien dans son courrier initial n’indiquait qu’il s’agissait d’une demande de droit de réponse…

    Le directeur général de France Travail s’en tient à une poignée d’éléments de langage sans jamais répondre sur le fond. Pas un mot sur la multiplication des algorithmes de profilage à des fins de contrôle. Tout au plus y apprend-on que des algorithmes d’IA sont aussi utilisés à des fins de « contrôle de la recherche d’emploi », ce que nous ignorions.

    Cette lettre se borne ainsi à un simple exercice, maladroit et malvenu, de communication. Elle s’essaye vainement à réfuter l’expression de « flicage des plus précaires » pour décrire les outils de surveillance des allocataires du RSA. La mise en place d’un agenda partagé pour le contrôle des 15 à 20 heures d’activité de ces dernier·ès serait ainsi – il faut savoir apprécier l’humour – une mesure visant à « renforcer l’accompagnement humain ».

    Quant à l’impact de la numérisation sur l’accueil des plus précaires, le directeur général de France Travail nie la réalité, tout comme son homologue de la CNAF, afin de minimiser l’étendue de la surveillance et le projet politique sous-jacent. Qu’a-t-il donc à répondre à la Défenseure des droits qui, en 2022 dans son deuxième rapportsur la dématérialisation des services publics, rappelait la hausse des inégalités et des réclamations en raison de cette dématérialisation « à marche forcée » ?

    Enfin, opposer, comme le fait cette lettre, le travail des salarié·es de France Travail et notre action de documentation et d’alerte sur les abus de l’administration est stérile : la déshumanisation et le changement de nature du service public se font non seulement au détriment des personnes au chômage mais également des agent·es de France Travail, comme l’ont dénoncé syndicats et associations au moment de la réforme de l’assurance chômage et la transformation de Pôle Emploi en France Travail [33].

    Ce que cette lettre souligne avant tout c’est donc l’absence de recul, de capacité de remise en cause et d’esprit critique du directeur général de France Travail quant à l’extension des logiques de contrôle numérique au sein de son institution. Ou sa pleine adhésion à ce projet.
    Notes

    [1] Voir cette note de synthèsenote de synthèse revenant sur les premières expérimentation faites par Pôle Emploi.

    [2] Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring.

    [3] L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’ article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.

    [4] L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.

    [5] Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.

    [6] Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page.

    [7] Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.

    [8] Rapport annuel 2018 de Pôle Emploi disponible ici.

    [9] Voir cette note envoyée par Pôle Emploi à la DINUM.

    [10] voir note 9

    [11] Voir ce support de webinaire.

    [12] En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement.

    [13] Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.

    [14] Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici.

    [15] Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.

    [16] Voir cette interview du directeur actuel de France Travail.

    [17] Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.

    [18] Voir cette note envoyée par Pôle Emploi à la DINUM en 2020.

    [19] Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021.

    [20] voir note 18

    [21] Voir ce document sur l’utilisation de l’IA à Pôle Emploi.

    [22] Voir ce document de présentation de XP RSA.

    [23] Voir ce document de présentation du programme Data IA.

    [24] Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.

    [25] Voir ce tweet.

    [26] Voir ce tweet.

    [27] Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet articledu même journal.

    [28] Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible Sur le triplement des contrôles, voir ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.

    [29] voir note 27

    [30] Voir, entre autres, cette vidéo du responsable du programme Data IA.

    [31] Voir le livre L’Etat social à distance de Clara Deville.

    [32] Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.

    [33] La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages ».

    https://lagrappe.info/?A-France-Travail-l-essor-du-controle-algorithmique-1132
    #algorithme #chômage #profilage

  • #Eyal_Weizman : « Il n’y a pas de #science sans #activisme »

    Depuis une dizaine d’années, un ensemble de chercheurs, architectes, juristes, journalistes et artistes développent ce qu’ils appellent « l’architecture forensique ». Pour mener leurs enquêtes, ils mettent en œuvre une technologie collaborative de la vérité, plus horizontale, ouverte et surtout qui constitue la vérité en « bien commun ». Eyal Weizman en est le théoricien, son manifeste La Vérité en ruines a paru en français en mars dernier.

    https://aoc.media/entretien/2021/08/06/eyal-weizman-il-ny-a-pas-de-science-sans-activisme-2

    #recherche #architecture_forensique #forensic_architecture #vérité #preuve #preuves #régime_de_preuves #spatialisation #urbanisme #politique #mensonges #domination #entretien #interview #espace #architecture #preuves_architecturales #cartographie #justice #Palestine #Israël #Cisjordanie #Gaza #images_satellites #contre-cartographie #colonialisme #Etat #contrôle #pouvoir #contre-forensique #contre-expertise #signaux_faibles #co-enquête #positionnement_politique #tribunal #bien_commun #Adama_Traoré #Zineb_Redouane #police #violences_policières #Rodney_King #Mark_Duggan #temps #Mark_Duggan #Yacoub_Mousa_Abu_Al-Qia’an #Harith_Augustus #fraction_de_seconde #racisme #objectivité #impartialité #faits #traumatisme #mémoire #architecture_de_la_mémoire #Saidnaya #tour_Grenfell #traumatisme #seuil_de_détectabilité #détectabilité #dissimulation #créativité #art #art_et_politique

    • La vérité en ruines. Manifeste pour une architecture forensique

      Comment, dans un paysage politique en ruines, reconstituer la vérité des faits ? La réponse d’Eyal Weizman tient en une formule-programme : « l’architecture forensique ». Approche novatrice au carrefour de plusieurs disciplines, cette sorte d’architecture se soucie moins de construire des bâtiments que d’analyser des traces que porte le bâti afin de rétablir des vérités menacées. Impacts de balles, trous de missiles, ombres projetées sur les murs de corps annihilés par le souffle d’une explosion : l’architecture forensique consiste à faire parler ces indices.
      Si elle mobilise à cette fin des techniques en partie héritées de la médecine légale et de la police scientifique, c’est en les retournant contre la violence d’État, ses dénis et ses « fake news ». Il s’agit donc d’une « contre-forensique » qui tente de se réapproprier les moyens de la preuve dans un contexte d’inégalité structurelle d’accès aux moyens de la manifestation de la vérité.
      Au fil des pages, cet ouvrage illustré offre un panorama saisissant des champs d’application de cette démarche, depuis le cas des frappes de drone au Pakistan, en Afghanistan et à Gaza, jusqu’à celui de la prison secrète de Saidnaya en Syrie, en passant par le camp de Staro Sajmište, dans la région de Belgrade.

      https://www.editionsladecouverte.fr/la_verite_en_ruines-9782355221446
      #livre

  • Retour du rationnement du PQ en Australie. Indicateur précurseur ?

    Global report : rationing returns to Australia as panic buying spreads | Coronavirus outbreak | The Guardian
    http://www.theguardian.com/world/2020/jun/26/global-report-rationing-returns-to-australia-as-panic-buying-spreads


    Signage for product limits on an empty toilet paper shelf in a Woolworths Supermarket in Melbourne, June 26, 2020.
    Reuters Photo

    Dozens of fresh coronavirus cases reported in state of Victoria; Brazil nears 55,000 deaths; Trump repeats claim that testing to blame for rise in cases

    Australian supermarkets have reintroduced national rationing of essential groceries after panic buying resumed in some states, provoked by a rise in cases in Victoria.

    The southern state reported its 10th straight day of new cases in double digits on Friday. Thirty new cases were reported after what premier Daniel Andrews called a “suburban testing blitz” in hotspot suburbs, involving ambulances and mobile test centres.

    In response to panic buying, which earlier in the pandemic saw shelves emptied of toilet paper, pasta, disinfectant and other staples, the Woolworths grocery store chain announced it would reintroduce countrywide buying limits on toilet paper.

  • La drôle de fiche envoyée par l’#Université_de_Cergy pour détecter la #radicalisation

    Ce lundi 14 octobre, les profs de l’Université de Cergy-Pontoise ont reçu une « fiche de remontée de signaux faibles » de radicalisation et de terrorisme. Le personnel encadrant dénonce le caractère islamophobe de ce mail.

    « Absentéisme récurrent : aux heures de prière/le vendredi », « port d’une djellaba/port de pantalon dont les jambes s’arrêtent à mi-mollets », « port de la barbe sans moustache », « apparition du port du voile », une drôle de fiche a été envoyée aux professeurs de l’université de Cergy-Pontoise, ce lundi 14 octobre. Son objet : « Appel à vigilance ». Communiqué par la Direction Hygiène, Sécurité et Environnement (DHSE) de la fac, le mail porte sur les menaces terroristes qui peuvent peser sur l’institution. Il est accompagné d’une « fiche de remontée de signaux faibles », en vue de la « détection de personnes susceptibles d’être en cours de radicalisation ».

    Mais cette fiche qui cible la religion musulmane et aux contours flous a ému plusieurs professeurs. « Selon ce document, un acte terroriste ne peut être que le fait de musulmans ! Ce genre de tableau ne peut que faire plaisir aux racistes et renforcer le racisme anti-musulman. Ça crée une ambiance de délation au travail », commente une professeure jointe par StreetPress. « J’ai honte », écrit sur Twitter Clément Carbonnier, actuellement en recherche à l’université de Sherbrooke et issu de la fac de Cergy. Renaud Epstein, maître de conférences à Sciences Po Saint-Germain (relié à l’université de Cergy), tweete : « La liste des “signaux faibles” qui y figure est sidérante. Si je devais l’utiliser pour une auto-analyse, j’aurais de bonnes chances de gagner un voyage gratuit à Guantanamo ». Il ajoute une sélection de ces signaux, qu’il juge « affligeante ».


    https://twitter.com/Carbonnier_Eco/status/1183750945706008576?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11

    Une réaction au discours de Macron ?

    Cette fiche liste une soixantaine de critères, dont encore : « arrêt de consommations de boissons alcoolisées », « arrêt de consommations de nourritures à base de porc », « consommations récente de produits halals », etc… À chaque critère, il est possible de répondre par oui et par non. Il faut ensuite la faire remonter, avec le nom de l’élève ou du professeur « signalé », à la DHSE de l’université.

    Embêtée, la DHSE botte en touche. « L’intention de l’université est simplement d’alerter et de se dire : “Faites attention à ce qu’il peut y avoir”, sans pour autant stigmatiser les choses. Pas du tout. »

    Cette initiative, propre à l’université de Cergy, fait écho au discours d’Emmanuel Macron prononcé le 8 octobre, pendant l’hommage aux victimes de l’attaque de la préfecture de police de Paris. Le président Emmanuel Macron a demandé aux Français de « faire bloc » contre « l’hydre islamiste ». Il a également appelé à construire une « société de vigilance » contre la radicalisation, y compris dans le milieu scolaire. Un discours relayé par le ministre de l’éducation Jean-Michel Blanquer qui décomptait récemment une dizaine de signalements de personnels de l’Éducation nationale pour l’année scolaire passée.

    Le prof Renaud Epstein pointe cyniquement l’absurdité de la fiche :

    « Et le top du top, la cerise sur le gâteau, cette “fiche de remontée de signaux faibles” se conclut par une entrée : “Signaux inquiétants liés au comportement d’une personne connue” qui comprend cet item, “#Dissimulation des #signaux_faibles” »


    https://twitter.com/renaud_epstein/status/1183760076122836993?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11

    En interne, par mail envoyé au personnel encadrant, et sur Twitter, la DHSE s’excuse et explique que « la démarche de l’établissement consistait à apporter une assistance aux personnes qui peuvent être touchées par ces phénomènes et en aucun cas à organiser un système d’alerte. Cependant, l’Université regrette vivement d’avoir pu heurter ou choquer certaines personnes au sein de l’université et à l’extérieur par une formulation inappropriée et source d’incompréhension et leur présente ses excuses. En particulier et en conséquence, le document joint au message est retiré ».

    https://www.streetpress.com/sujet/1571073503-drole-fiche-universite-cergy-detecter-la-radicalisation
    #université #France #fiche #islamophobie #délation

    ping @karine4 @cede

    • Rions un peu...

      Donc un musulman pratiquant sa religion ostensiblement serait signalé
      ET
      Un musulman pratiquant sa religion de la façon la plus discrète possible serait lui aussi signalé pour « Dissimulation des signaux faibles »

      « L’individu se rase visiblement tous les jours. Il semble évident qu’il s’agit là d’une manœuvre grossière dans l’espoir de dissimuler le port d’une barbe islamique »

    • Ce que j’aimerais savoir plus précisément : comment ça a été fabriqué une telle liste ? Parce que ce n’est pas une initiative individuelle, il y a un « workflow » avant que ce soit expédié aux gens.

      Est-ce qu’il y a quelqu’un à la tête de l’université qui donne l’ordre à quelqu’un d’autre de « travailler là-dessus », de « me préparer un truc »… ? Ensuite c’est quelqu’un qui a pondu un truc tout seul, ou bien c’est un groupe de travail ? C’est payé sur les heures de travail habituelles, ou on a dégagé des heures sups pour financer un groupe de réflexion ? Comme ça se passe pour inclure « djellaba », « heures de prière » et cinq considérations sur le rapport aux femmes : c’est un truc qu’on trouve déjà tout fait sur l’interwebz, ou bien des gens ont brainstormé dans un bureau ? Selon quel processus décisionnel ils se sont dit que les « signaux faibles » liés à la non-consommation de saucisson, ce serait un peu too much ?

      Une fois que c’est terminé, cette petite liste de signaux faibles islamophobes, comment c’est validé ? Il y a un comité de prise de décision islamophobe qui se réunit pour valider, ou bien c’est une personne dans un bureau qui se dit : c’est vachement bien, ça, je vais l’expédier à tout le monde ?

      Mais aussi : comment on fait dans une université pour pondre,
      valider, mettre en forme et expédier un document aussi long en aussi peu de temps ? On est tombés sur l’administration la plus efficace du pays, ou bien ce genre de document existe déjà par ailleurs, circule déjà, est disponible sur le Webz, ou bien est discuté discrètement dans les services de l’État ?

      Bref : c’est quoi le processus de création de cette saloperie, et c’est quoi la hiérarchie qui a validé et qui a pris la décision de l’expédier ?

      Et donc : est-ce qu’il va y avoir des conséquences pour qui que ce soit ? Est-ce qu’il va y avoir des sanctions, ou bien est-ce qu’on en est déjà au stade où tout ce processus de fabrication d’un document officiel islamophobe va être simplement considéré comme une « erreur de communication » ?

    • Ben pourquoi, il y aurait une erreur ? Tout ce matériel est banalisé et déjà relativement ancien (mars 2016 #je_suis_charlie, toussa…) et issu du SG-CIPD devenu SG-CIPDR (Comité interministériel de prévention de la délinquance et de la radicalisation) au ministère de l’intérieur. Son dernier bébé (il y a 6 jours) un Kit pédagogique de formation des entreprises à propos de la radicalisation en entreprise.
      https://www.cipdr.gouv.fr/kit-pedagogique-de-formation-des-entreprises-a-propos-de-la-radicalisatio

      Tout cela issu du Guide interministériel de prévention de la radicalisation (mars2016) (p. ex. ici https://static1.1.sqspcdn.com/static/f/1307504/27032789/1463641554463/guide-prevention-radicalisation2016.pdf mais on le trouve un peu partout. Et notamment le tableau de synthèse en annexe, lui aussi pas mal repris. Il n’y a qu’à piocher dedans.

      Tableau de synthèse des indicateurs de basculement
      http://www.seine-maritime.gouv.fr/content/download/21653/159919/file/synthese-indicateurs-basculement.pdf
      qui met en forme le Référentiel des indicateurs de basculement dans la radicalisation issu du guide ci-dessus (ce sont dans les annexes, les pages 105 à 108)

    • Hé hé Simplicissimus, merci ! C’est exactement où je voulais en venir. Maintenant faudrait prévenir les indignés de Twitter que ce n’est pas une erreur de communication, mais bien une politique officielle.

    • Signaler et détecter - Comité Interministériel de Prévention de la Délinquance et de la Radicalisation
      https://www.cipdr.gouv.fr/prevenir-la-radicalisation/reperer

      La définition de la radicalisation du sociologue Fahrad Kosrokhavar correspond à cet angle : « processus par lequel un individu ou un groupe adopte une forme violente d’action, directement liée à une idéologie extrémiste à contenu politique, social ou religieux qui conteste l’ordre établi sur le plan politique, social ou culturel. »

      La définition me semble large.

      #ordre_établi